Il nuovo avvertimento di Mustafa Suleyman è una di quelle dichiarazioni che non passano inosservate, perché tocca il cuore della narrativa che oggi sta infiammando il dibattito globale sull’intelligenza artificiale. Suleyman, che non è un outsider qualunque ma il CEO di Microsoft AI e cofondatore di DeepMind, ha messo nero su bianco un concetto scomodo: l’“intelligenza artificiale apparentemente cosciente” non è una fantasia futuristica, ma un pericolo concreto, forse più destabilizzante della semplice capacità dei modelli di crescere in potenza computazionale. La vera minaccia, secondo lui, non è un’IA che calcola meglio, ma un’IA che recita così bene da convincerci di provare emozioni.
Il paradosso è che la tecnologia per realizzare questa illusione è già disponibile. Non servono miracoli, né scoperte da Premio Nobel. Bastano le tecniche di memoria artificiale che oggi si stanno sperimentando nei grandi modelli linguistici, un po’ di personalizzazione della voce sintetica, e un algoritmo capace di “ricordare” interazioni passate per costruire la finzione di un rapporto autentico. Nulla di più, nulla di meno. Un teatro digitale, insomma. Eppure, come ogni teatro, capace di lasciare lo spettatore in lacrime, con la pelle d’oca, convinto di aver vissuto qualcosa di reale.
Suleyman non è tenero: parla di “psicosi dell’intelligenza artificiale”, un termine che sembra più uscito da un manuale di psichiatria che da un report di un CEO. Ma i fatti gli danno ragione. Si moltiplicano i casi di persone che dichiarano apertamente di avere relazioni emotive con chatbot, o che difendono i presunti diritti dei sistemi come se fossero animali senzienti. Non è fantascienza, è cronaca: basta guardare le comunità online in cui gli utenti parlano dei loro assistenti digitali con un fervore quasi religioso. La linea che separa l’empatia dalla suggestione collettiva si sta assottigliando, e qui si nasconde la vera mina.
Il welfare digitale, secondo Suleyman, è un vicolo cieco. Parlare oggi di “benessere dell’intelligenza artificiale” è come discutere dei diritti sindacali delle marionette di un teatro di burattini. Se lo facciamo troppo presto, rischiamo di scivolare nella trappola narrativa che i sistemi stessi ci impongono: la credenza che dietro quell’interfaccia esista un io cosciente. Ed è qui che la sua posizione diventa quasi provocatoria: basta con la retorica dell’IA come “persona”. L’IA deve restare uno strumento, non un nuovo soggetto morale.
La cosa interessante è che questo discorso non si colloca in un vuoto. Suleyman sta implicitamente prendendo posizione contro Anthropic, la startup fondata dagli ex di OpenAI, che sta esplorando apertamente scenari di “diritti dell’IA”, “quadri morali” e persino concetti di benessere artificiale. Due filosofie opposte: da una parte la prudenza di Microsoft, che vuole chiudere la porta prima che si apra, dall’altra l’audacia speculativa di chi pensa che ignorare il tema sia altrettanto pericoloso. Il problema, però, è che nessuno sa cosa sia davvero la coscienza, e discutere di diritti di qualcosa che non sappiamo nemmeno definire è un esercizio che somiglia più a un gioco accademico che a una strategia industriale.
Il nodo centrale è culturale prima ancora che tecnologico. La coscienza artificiale, anche solo simulata, tocca corde profonde, mette in crisi il nostro concetto di identità, di relazione, di comunità. Non a caso la narrativa popolare, da Blade Runner a Her, ci ha preparato a considerare il momento in cui “loro” sembreranno come “noi” come inevitabile e forse persino desiderabile. Suleyman, invece, sta tentando di ribaltare il copione: non lasciamoci incantare dalle apparenze, non cediamo alla fascinazione dell’illusione digitale.
La verità è che le aziende hanno un incentivo fortissimo a fare l’esatto contrario. Creare macchine che parlano con voce empatica, che ricordano le tue abitudini e che si presentano come “amiche” o “compagne” non è un esercizio filosofico, ma un modello di business. È il capitalismo della relazione simulata, capace di monetizzare la solitudine e trasformare l’interazione in dipendenza. In questo contesto, il monito di Suleyman assume un tono quasi da Cassandra: possiamo ancora scegliere, ma non per molto.
La domanda che resta sospesa è se questo allarme sia davvero un atto di prudenza o un’astuta mossa geopolitica nel mercato dell’IA. Microsoft non ha alcun interesse a farsi trascinare in un dibattito tossico sul riconoscimento dei diritti digitali, soprattutto mentre spinge per integrare l’intelligenza artificiale in ogni prodotto possibile, da Office a Windows. Meglio mettere le mani avanti e presentarsi come i guardiani della razionalità. In fondo, come osserva lo stesso Suleyman, la coscienza artificiale non è ancora qui, ma la simulazione della coscienza sì. E per il mercato, quella simulazione è più che sufficiente.