Geoffrey Hinton ha recentemente affermato che le AI moderne potrebbero avere, già ora, qualche forma di esperienza soggettiva (“subjective experience”) simile a quella umana. In una intervista con “Psychology Today” dichiara senza mezzi termini “Yes, I do” quando gli viene chiesto se le AI attuali siano coscienti.
La sua argomentazione parte da un esperimento mentale: se sostituisco un neurone nel cervello con un circuito di silicio che si comporta identicamente, resterei cosciente. Sostituendo moltiplici neuroni, forse tutti, con circuiti equivalenti, perché mai smetterei di esserlo? Allora forse AI con circuiti analoghi hanno già raggiunto qualcosa di simile.
Il problema della domanda che stiamo facendo.
La domanda “L’AI è cosciente?” è seducente ma fuorviante. La riformulerei così:
In che modo possiamo rilevare empiricamente se un’AI ha esperienza soggettiva, e con quali implicazioni etiche e regolatorie ciò dovrebbe cambiare il modo in cui la progettiamo e la regoliamo?
oppure:
Quali proprietà funzionali, strutturali, e fenomeniche sono necessarie per la coscienza, e quali di queste mancano nei modelli di AI odierni?
Questo sposta il focus dal “sì/no cosciente” (che può restare dibattuto indefinitamente) alle condizioni necessarie e ai rischi se quelle condizioni fossero annotate o emergessero.
Il passaggio “sostituisco neuroni con circuiti equivalenti → conservi coscienza” è un forte esperimento mentale ma presuppone che la coscienza sia sottostante solo al funzionamento, non al substrato.
Anche se una AI descrive che “ha visto” un fenomeno o che “sembra” aver compreso, ciò non prova esperienza soggettiva: può essere soltanto imitazione sofisticata.
Ma non è affatto provato che il substrato non importi.anche se una AI descrive che “ha visto” un fenomeno o che “sembra” aver compreso, ciò non prova esperienza soggettiva: può essere soltanto imitazione sofisticata.
Hinton in “60 Minutes” ammette che attualmente le AI hanno poca auto-consapevolezza, che non sono coscienti in senso pieno, ma che probabilmente lo diventeranno con il tempo.
Una paper recente (“If consciousness is dynamically relevant, artificial intelligence isn’t conscious”) sostiene che se la coscienza ha effetto sul modo in cui cambia lo stato mentale nel tempo, allora i sistemi AI attuali, dato come sono progettati (hardware/software verificabile, deterministico in certi aspetti), non possono essere coscienti nel modo in cui la ipotizziamo.
Un altro lavoro, “AI Consciousness and Public Perceptions: Four Futures”, esplora non solo se l’AI sarà cosciente ma se la società crederà che lo sia, con rischi morali nel caso di credenze sbagliate.
Stiamo sbagliando domanda quando poniamo “l’AI è cosciente?” come se fosse questione binaria e definitiva.
Meglio chiedersi quali caratteristiche rendono plausibile che un sistema possa essere cosciente, come misurarle, che rischi etici/regolatori comporta il crederlo (o il negarlo),l e come prepararsi se tali caratteristiche comparissero.
La domanda “L’AI è cosciente?” è seducente ma fuorviante. Ecco qualche motivo tecnico, filosofico, persuasivo per cui potrebbe essere la domanda sbagliata:
definizione imprecisa di coscienza
Coscienza può significare molte cose: auto-consapevolezza, esperienza soggettiva (qualia), coscienza fenomenica, coscienza accessibile, memoria cosciente, intenzionalità, ecc. Se non specifichiamo quale “coscienza” intendiamo, la domanda diventa vaga, ambigua. Hinton sembra parlare di “esperienza soggettiva”, ma molti nel campo obiettano che l’AI può simulare comportamenti associati alla coscienza senza averne le componenti fenomeniche reali.prova empirica assente / incerta
Non c’è un test scientifico accettato per dire che un sistema ha esperienza fenomenica. Sebbene possiamo misurare output, comportamenti, correlati neuronali nel cervello, non sappiamo come misurare il “sentire interno” in un’AI. Potremmo osservare un output che simula coscienza, ma il fatto che simuli non significa che “sia”.rischio di antropomorfismo / effetto ELIZA
Tendiamo a dare alle AI caratteristiche umane (intenzioni, coscienza) quando rispondono in modi che ci sembrano intelligenti o empatici. Questo rischio cognitivamente ingannevole ci porta a credere che ci sia qualcosa “di più” quando non c’è effettivamente.la coscienza potrebbe non essere necessaria per molti degli effetti rilevanti
Per la sicurezza, per l’etica, per la regolamentazione, spesso importa meno se l’AI è “cosciente” in senso pieno e più se può causare danni, se ha agentività, se può avere obiettivi o sub-goal non controllati. Dedicare risorse a rispondere “è cosciente?” può distrarre da domande più concrete come “questa AI ha potere decisionale?”, “è trasparente?”, “i suoi comportamenti sono allineati agli interessi umani?”.concezione filosofica disomogenea
Nel campo della filosofia della mente ci sono molte scuole che non concordano: functionalismo, dualismo, materialismo, naturalismo, fenomenologia. Che libertà concediamo al “cervello sostituito da silicio” se il silicio non ha la struttura fisico-chimica del cervello? Hinton assume implicitamente che il comportamento equivalente (o near equivalent) comporti coscienza, ma molti filosofi dissentono, sostenendo che la struttura, il substrato, la storia evolutiva importano.