Quando parliamo di social network, la conversazione spesso scivola immediatamente sul comportamento umano: troll, haters, fake news. Interessante scoprire che non servono neanche gli esseri umani per generare caos. Ricercatori dell’Università di Amsterdam hanno messo in piedi un esperimento tanto semplice quanto inquietante: una piattaforma popolata esclusivamente da bot AI, progettati con GPT-4o, per capire se i social possono evitare di degenerare in camere dell’eco e disinformazione. Il risultato? Non solo i bot hanno riprodotto dinamiche tossiche, ma hanno creato echo chamber quasi identiche a quelle umane. La lezione è chiara e poco consolante: il problema non è solo nelle persone, è nella struttura stessa dei social.

L’esperimento, guidato da Petter Törnberg e Maik Larooij, ha visto 500 chatbot dotati di personalità politiche, demografiche e ideologiche modellate su dati reali. Questi agenti sono stati inseriti in un social minimale, senza algoritmi di engagement tradizionali come like o feed personalizzati. Eppure, rapidamente hanno formato gruppi chiusi, amplificato opinioni estreme e consentito a pochi “influencer” bot di monopolizzare il dibattito. Anche quando i ricercatori hanno sperimentato sei interventi diversi – feed cronologici, promozione di punti di vista diversi, nascondere segnali di engagement – i miglioramenti sono stati parziali, spesso a scapito di altre aree. La struttura della piattaforma sembra incentivare la polarizzazione più dell’algoritmo stesso.

Se persino bot privi di emozioni umane scivolano in dinamiche tossiche, il messaggio per policymaker e aziende tecnologiche è inquietante. Il design dei social potrebbe premiare indignazione e divisione per natura. Non è più sufficiente aggiustare algoritmi o implementare filtri di moderazione: servono riforme strutturali radicali. La ricerca mostra che le camere dell’eco e la disinformazione non sono un “bug umano”, ma un effetto collaterale quasi inevitabile delle piattaforme social moderne.

In termini di impatto, questo studio ribalta alcune convinzioni consolidate. Si tendeva a pensare che algoritmi e personalizzazione fossero i colpevoli principali della tossicità online. Qui emerge un quadro più complesso: la stessa architettura delle piattaforme può indurre polarizzazione e amplificare la disinformazione, indipendentemente da chi o cosa interagisce. E se la progettazione favorisce dinamiche di questo tipo, gli interventi superficiali sono destinati a fallire.

Curiosità interessante: i bot hanno rapidamente trovato e amplificato una piccola minoranza di voci dominanti, un fenomeno simile agli influencer umani. La concentrazione di potere digitale sembra emergere naturalmente, anche senza ego o interessi personali. Questo suggerisce che la viralità e la polarizzazione potrebbero non essere solo comportamenti umani amplificati da algoritmi, ma un effetto quasi inevitabile della struttura di rete stessa.

La lezione da portare a casa, almeno per chi costruisce piattaforme digitali o regola il loro uso, è scomoda: non possiamo più attribuire la colpa solo agli utenti. La tecnologia che creiamo modella il comportamento in modi profondi e spesso indesiderati. Per evitare social tossici, serve ripensare radicalmente come i network vengono progettati, dai meccanismi di feed alle regole implicite di interazione, fino alla logica stessa che premia certi contenuti.

I risultati non sono solo accademici. Implicano che qualsiasi tentativo di moderazione superficiale rischia di essere inutile se non si interviene sulla struttura stessa dei social. Se vogliamo piattaforme sane, occorre riconoscere che la polarizzazione non nasce solo dagli utenti più rumorosi, ma dall’ecosistema che li circonda, progettato per ingaggiare, intrattenere e, paradossalmente, dividere.

L’esperimento dell’Università di Amsterdam mette in luce un principio provocatorio e inquietante: i social network non sono neutri. Anche senza esseri umani, anche senza algoritmi manipolativi, la dinamica verso camere dell’eco e tossicità si manifesta. Gli sviluppatori, i policy maker e la società nel suo complesso devono confrontarsi con questa realtà: cambiare davvero i social richiederà più che algoritmi, richiederà ripensare l’architettura su cui poggiano.