Chi ha detto che l’intelligenza artificiale è solo una scorciatoia comoda per post-it digitali? Basta una dimostrazione a Washington, con Sam Altman e Kevin Weil sul palco, perché il mito venga squarciato. Il sorprendente “deep research” di ChatGPT un nome poco fantasioso, ma le sue ambizioni sono da premio Nobel all’hotel Hilton dimostra che l’AI può trasformarsi in un ricercatore iper-efficiente in pochi minuti: memo completi, con punti di forza, punti deboli, persino domande adatte a un senatore curato durante una finta audizione su Einstein come segretario all’Energia.
Poi apri il link di OpenAI e trovi la cronaca ufficiale: il 3 febbraio 2025 è stata lanciata l’opzione “Deep Research”, un agente ChatGPT che va oltre la chat: scava, analizza, sintetizza centinaia di fonti online, produce report robusti con citazioni e catena di pensiero visibile. Sì, d’accordo: sa ancora inventare dettagli buffi ogni tanto, ma almeno ti dà le sue fonti, così puoi smascherarlo.
Un leggero déjà-vu: non è magia, è il modello o3 di OpenAI, potenziato per ragionare e navigare la rete. C’è pure una versione “leggera”, o4-mini, sviluppata per abbattere i costi e allargare l’accesso, ma con capacità ridotte. Un membro di Understanding AI si è fatto preparare una checklist edilizia da un architetto di 100.000 ft²: il sistema ha consultato 21 fonti in quasi 30 minuti, generando un report di 15.000 parole «meglio di un tirocinante». Qualcuno dice “è la fine dei consulenti”; Altman invece paragona la prospettiva alla creazione dell’AIEA, l’agenzia internazionale per l’energia atomica: “servirebbe un piano di transizione”.
Fin qui puoi impazzire di ammirazione, ma c’è qualcosa di più profondo in gioco: se l’IA diventa il nuovo Rubicone della ricerca, quanti aspiranti studiosi decideranno di navigare già pronto suite di risposte invece di produrre sapere originale? Greg Ip osserva che piattaforme come Stack Overflow hanno visto il numero di domande crollare del 25 % in sei mesi, e oggi stanno a meno del 10 % rispetto a siti simili in lingue dove ChatGPT non ha fatto breccia. Wikipedia, una volta fonte di sapere condiviso, registra calo di visite e di contributi laddove ChatGPT risponde a tutto. Se l’IA restituisce le risposte, perché mettersi a scrivere ancora?
Ecco la beffa: un sistema LLM non inventa nulla, rimesta quello che trova, e se tutti remano nella stessa direzione… la botte è vuota. «Quando l’AI si nutre di output di AI, il risultato peggiora» dice Hannah Li. Non è un timore da curiosi o nostalgici: uno studio MIT ha dimostrato che chi usa LLM per scrivere un saggio mostra molta meno attività cerebrale rispetto a chi fa tutto da solo: meno memoria, meno pensiero critico. Insomma, se l’AI consuma se stessa, la qualità precipita, il pensiero umano si inabissa.
E poi arriva il colpo di scena che sembra rubato a un romanzo d’azione: con l’IA che consegna rapporti in 5-30 minuti, il valore della curiosità, dell’investigazione, del rischio intellettuale rischia di venire catalogato come vintage. Eppure, come Joshua Gans prospetta, finché scoperte davvero nuove avranno valore, qualcuno continuerà a cercarle. Il rischio è che trovi meno chi voglia farlo. E in assenza di creatori, che senso ha avere consumatori di sapere?
Allora eccoci qui, con un dilemma da CEO che ama la disruptive innovation ma teme lo spegnersi della scintilla creativa. L’AI è potente, sì, ma non è una fucina di genio. Serve una strategia: non basta amplificare quello che abbiamo già fatto, bisogna proteggere e premiare chi osa domande nuove, chi riscrive paradigmi, chi spende tempo a esplorare l’unico territorio che l’AI ancora non può mappare davvero: l’immaginazione umana.