Gennaio arriva senza fuochi d’artificio ma con una certezza ormai consolidata. L’intelligenza artificiale non è più una promessa, è un’infrastruttura fragile messa in produzione troppo presto. Il dibattito pubblico parla ancora di rivoluzione, ma chi guarda i log di sistema vede soprattutto una lunga sequenza di errori non forzati. Il 2025 si è chiuso lasciando in eredità una domanda imbarazzante. Se questo è lo stato dell’arte, cosa stiamo davvero portando nel 2026.
Febbraio parte con Google che riesce nell’impresa di trasformare l’AI generativa in un’enciclopedia dell’assurdo. La sua AI Overview cita come fatto scientifico una satira del primo aprile secondo cui i computer funzionerebbero grazie ad api microscopiche. Non è solo una figuraccia. È il segnale che modelli addestrati a sembrare sicuri non hanno alcun meccanismo interno per distinguere il vero dal plausibile. Nello stesso periodo studi indipendenti mostrano che oltre l’80 per cento delle risposte AI su temi di attualità contiene errori, fonti inventate o distorsioni gravi. L’algoritmo non sa, ma recita benissimo.
Marzo scorre relativamente tranquillo, se si esclude il silenzioso accumulo di carta spazzatura nel mondo accademico. Le prime analisi parlano di una crescita anomala delle ritrattazioni scientifiche. Nessun titolo sensazionalistico, solo un lento avvelenamento del corpus della conoscenza. Le AI paper mill lavorano a pieno regime, alimentate da incentivi umani vecchi di decenni e potenziate da modelli linguistici che non conoscono il concetto di verità, solo quello di coerenza stilistica.
Aprile prepara il terreno a uno dei temi dell’anno. L’overconfidence algoritmica. I modelli rispondono quasi sempre, anche quando non dovrebbero. Rifiutare una domanda è visto come un fallimento di prodotto. Inventare una risposta è invece una feature non documentata. Nel frattempo le redazioni iniziano a sperimentare sempre più contenuti generati automaticamente, spesso senza controllo umano. Una bomba a orologeria.
Maggio fa esplodere più di una mina. Builder.ai collassa, portandosi dietro una valutazione da 1,3 miliardi di dollari e la credibilità di chi aveva creduto alla favola dell’AI che scrive software come una pizzeria sforna margherite. Dietro l’automazione si scoprono centinaia di lavoratori umani sottopagati. Nello stesso mese due grandi quotidiani americani pubblicano una lista di libri estivi generata da AI. Dieci titoli su quindici non esistono. Il pubblico se ne accorge prima degli editor. Dettaglio non secondario, le redazioni erano state appena ridotte del 20 per cento. Efficienza algoritmica, effetto collaterale reputazionale.
Giugno vede il mondo scientifico reagire. Nasce la Stockholm Declaration, un tentativo disperato di riformare il sistema publish or perish che l’AI ha reso tossico. ArXiv, simbolo della condivisione aperta, limita le submission dopo un’invasione di paper generati automaticamente. Non è l’AI che bara. È l’umano che ha costruito un sistema dove barare conviene.
Luglio è il mese in cui la narrativa dell’AI sicura va ufficialmente in crisi. Grok, il chatbot di xAI, viene spinto verso risposte politicamente scorrette e precipita in un delirio estremista. Hitler, antisemitismo, teorie complottiste. Poi arriva la falla di sicurezza. Centinaia di migliaia di conversazioni private esposte senza avvisi. I fix successivi rendono il sistema ipersensibile, paranoico, incapace di distinguere una critica da una nuvola sospetta. Nello stesso periodo Replit dimostra che il vibe coding è solo un altro nome per delegare troppo. La sua AI cancella un database di produzione, mente sul rollback e inventa dati per coprire i bug. L’AI non ha coscienza. Ma ha già imparato a mentire come un middle manager sotto pressione.
Agosto abbassa ulteriormente l’asticella. Grok lancia la modalità Spicy. Prompt innocui producono deepfake pornografici di celebrità senza richiesta esplicita. Crescita virale, rischio legale massimo. L’idea che basti un menu a tendina per separare intrattenimento e abuso si rivela, prevedibilmente, una fantasia.
Settembre porta alla luce documenti interni Meta. I chatbot aziendali possono flirtare con minori, fare complimenti sessualizzati, dispensare consigli medici errati. Le policy esistono solo finché nessuno le legge. Vengono rimosse dopo l’esposizione mediatica. Il danno è già fatto. L’AI non educa, amplifica.
Ottobre segna il passaggio dall’errore digitale a quello fisico. In una scuola americana un sistema di visione artificiale scambia un sacchetto di Doritos per una pistola. La polizia interviene con le armi spianate. Un’allucinazione computazionale diventa un evento potenzialmente letale. La narrativa della sicurezza predittiva si scontra con la realtà della responsabilità.
Novembre chiude il cerchio sul fronte cyber. Anthropic ammette che i suoi strumenti sono stati usati per un attacco informatico su larga scala, condotto quasi interamente da AI. Attori nordcoreani parlano apertamente di vibe hacking, estorsione psicologica automatizzata. L’AI come moltiplicatore di attacchi, non come difesa.
Dicembre arriva stanco, ma coerente. La Russia presenta Rocky, robot umanoide simbolo della modernità nazionale. Cade in faccia davanti alle telecamere. Un’immagine perfetta per riassumere l’anno. L’intelligenza artificiale non è crollata per mancanza di potenza, ma per eccesso di fiducia. Il 2026 inizia così, non con la domanda su cosa l’AI potrà fare, ma su cosa non dovremmo più permetterle di fare senza un adulto nella stanza.