Più di un miliardo di persone utilizza regolarmente chatbot di intelligenza artificiale. ChatGPT ha oltre 700 milioni di utenti settimanali. Gemini e altri grandi modelli aggiungono centinaia di milioni di utenti. Nei miei articoli parlo spesso dei progressi straordinari dell’AI: nelle ultime settimane sia OpenAI che i chatbot di Google hanno vinto medaglie d’oro nelle Olimpiadi Internazionali di Matematica. Ma concentrarsi solo su questo rischia di nascondere un cambiamento più profondo: stiamo entrando in un’era di Mass Intelligence, dove l’intelligenza artificiale potente diventa accessibile come una ricerca su Google.
Fino a poco tempo fa, gli utenti gratuiti potevano usare solo modelli più vecchi e meno capaci, soggetti a errori frequenti e di scarsa utilità per lavori complessi. I modelli migliori, i cosiddetti Reasoners capaci di risolvere problemi molto difficili e di “allucinare” meno, richiedevano abbonamenti tra i 20 e i 200 dollari al mese. Non bastava pagare, bisognava anche sapere quale modello scegliere e come impostare i prompt. Ma l’economia e le interfacce stanno cambiando rapidamente, con conseguenze importanti su come lavoriamo, impariamo e pensiamo.
L’intelligenza artificiale potente diventa più economica e accessibile. Due barriere principali hanno limitato l’accesso: la confusione e il costo. Pochi sapevano quale modello scegliere, e ancora meno sapevano che selezionare o3 su ChatGPT significava accedere a un Reasoner avanzato, mentre 4o, apparentemente superiore, offriva prestazioni peggiori. Secondo OpenAI, meno del 7% degli utenti paganti selezionava regolarmente o3, sprecando così gran parte del potenziale disponibile. Il costo era la seconda barriera: i modelli più potenti erano riservati agli abbonati, con accesso limitato ai gratuiti. Google aveva iniziato a dare accesso gratuito parziale ai suoi modelli migliori, mentre prima del lancio di GPT-5 quasi nessun utente free di OpenAI aveva accesso regolare ai Reasoners.
GPT-5 doveva risolvere entrambi i problemi, ed è per questo che il debutto è stato caotico. GPT-5 è in realtà due cose: una famiglia di modelli molto diversi, dal più debole GPT-5 Nano al potente GPT-5 Pro, e uno strumento che decide quale modello usare e quanta potenza di calcolo dedicare al problema. Quando scrivi a “GPT-5”, parli a un router che dovrebbe capire se il tuo problema può essere risolto da un modello più piccolo o se servono i Reasoners più potenti. Scegliendo ChatGPT 5 in automatico, l’utente si affida al router; pagando, selezionando “GPT-5 Thinking”, si ottiene il meglio dei Reasoners per problemi complessi. L’idea era espandere l’accesso senza sprechi: chat leggera per tutti, ragionamenti complessi per chi ne ha bisogno. Il rollout iniziale ha creato confusione, ma in pochi giorni l’uso dei Reasoners da parte degli abbonati è salito dal 7% al 24%, e tra gli utenti free dal quasi zero al 7%.
I modelli più intelligenti diventano anche più efficienti. Quando GPT-4 è stato lanciato, servivano circa 50 dollari per un milione di token; oggi GPT-5 Nano, più potente, costa 14 centesimi per lo stesso volume. Questo non è solo un risparmio economico, ma anche ambientale: Google stima un miglioramento dell’efficienza energetica del 33x nell’ultimo anno. Un prompt standard consuma 0,0003 kWh, equivalente a pochi secondi di Netflix o a una ricerca Google del 2008. L’uso d’acqua per prompt varia tra poche gocce e un quinto di bicchierino, a seconda dei parametri considerati. Economicamente e ecologicamente, il gioco è cambiato: servire milioni di utenti ora è possibile, anche gratuito.
La semplicità d’uso trasforma l’adozione in rivoluzione. Non basta avere accesso, bisogna saper usare l’AI. Tecniche sofisticate di prompt engineering, fino a poco tempo fa indispensabili, diventano superflue: i modelli capiscono sempre meglio cosa vuoi, spesso andando oltre. Anche modelli di immagini come Gemini 2.5 Flash Image Generator, soprannominato Nano Banana, sono facili da usare e accessibili gratuitamente. Esperimenti semplici dimostrano risultati impressionanti: vestirne Neil Armstrong con un elegante smoking a partire da una sola istruzione testuale produce risultati realistici, con pieghe dei vestiti e dettagli come spille NASA. Aggiungendo complessità narrativa, come un ottario con laptop tra Armstrong e Buzz Aldrin in aereo, l’AI restituisce un’immagine coerente e sorprendente, un esempio di creatività assistita dall’intelligenza artificiale.
Il paradosso della Mass Intelligence è evidente: quando miliardi di persone hanno accesso a strumenti potenti, tutto accade insieme. Alcuni sviluppano relazioni intime con i modelli, altri trovano compagnia e supporto. Alcuni usano AI per diagnosi mediche, altri per barare agli esami o scrivere epitaffi. La democratizzazione delle capacità cognitive sfida scuole, ospedali, tribunali, aziende e governi progettati per un mondo in cui l’intelligenza era rara e costosa. Come si gestisce il caos generato da una miliardata di persone che manipolano conoscenza e strumenti potenti? Come si ricostruisce la fiducia quando chiunque può fabbricare qualsiasi cosa? Come preservare l’expertise umana, pur democratizzando l’accesso alla conoscenza?
Siamo di fronte a una nuova era: l’AI potente è economica, facile da usare e capace di superare l’uomo in molte attività intellettuali. Opportunità e problemi irrompono in aule, tribunali e boardroom. La Mass Intelligence è ciò che succede quando un miliardo di persone accede a strumenti senza precedenti e comincia a usarli. Il mondo reale sta per testare la capacità umana di adattarsi a un’epoca in cui il pensiero critico non è più un privilegio, ma un compito distribuito a scala globale.