Un dettaglio rende le riflessioni di Adam Mosseri più interessanti di quanto appaiano a una prima lettura distratta. Non è l’ennesimo CEO che scopre improvvisamente che l’AI esiste. È il fatto che il capo di Instagram stia ammettendo, con un certo ritardo ma senza troppi filtri, che l’intera economia simbolica su cui si è retta la piattaforma per oltre un decennio è tecnicamente finita. Non in crisi, non in trasformazione, finita. E quando un CEO parla di “feed morto da anni” e di “autenticità infinitamente riproducibile”, non sta facendo filosofia. Sta facendo damage control strategico.
La keyword qui è contenuti sintetici infiniti. Non perché sia una formula suggestiva, ma perché descrive con precisione industriale il problema. Siamo entrati in una fase in cui la produzione di immagini, video, volti, corpi, situazioni, emozioni simulate ha costo marginale zero. Zero. È un concetto che i mercati capiscono benissimo, molto meglio del pubblico. Quando qualcosa ha costo zero, il suo valore collassa, a meno che non venga artificialmente ristretto o spostato su un altro asse. Instagram è esattamente in questo passaggio. Il valore non è più l’immagine. Non è più il contenuto. Non è nemmeno la creatività in senso classico. È la fiducia residua.
Mosseri lo dice senza dirlo esplicitamente. Per anni abbiamo dato per scontato che una foto fosse una traccia del reale. Non la verità, ma almeno un’impronta. Un “è successo davvero”. Quel patto cognitivo è saltato. Sarah Jeong lo aveva scritto con lucidità già l’anno scorso. L’assunzione di default sta cambiando. Non è più “questa immagine è vera finché non dimostrato il contrario”. È l’opposto. Questa immagine è falsa finché non ho motivo di crederle. È una mutazione antropologica prima ancora che tecnologica, e chi pensa che basti una label “AI generated” per risolverla probabilmente non ha mai studiato come funzionano davvero i bias cognitivi.
Il punto più cinico, e quindi più realistico, del discorso di Mosseri è quando ammette che anche i segnali di autenticità estetica sono temporanei. Oggi il brutto, il mosso, il fuori fuoco, l’imbarazzante funzionano come prova di realtà. Domani no. Domani l’AI copierà perfettamente anche l’imperfezione. È già sulla roadmap. A quel punto non resterà che spostare l’attenzione dal cosa al chi. Non cosa viene detto o mostrato, ma chi lo dice, con quale storia, con quale continuità, con quale reputazione accumulata nel tempo.
Qui entra in gioco la seconda keyword strategica: autenticità digitale. Non come valore morale, ma come asset scarso. In un mondo di abbondanza sintetica, l’autenticità diventa una risorsa economica. Non perché sia pura, ma perché è costosa da simulare nel lungo periodo. Un deepfake può essere perfetto per trenta secondi. Mantenere coerenza, memoria, contraddizioni credibili e una traiettoria umana per anni è molto più difficile. Non impossibile, ma costoso. E il costo, di nuovo, è la chiave.
Instagram nasceva come archivio di momenti personali. Poi è diventato una vetrina. Poi un marketplace dell’attenzione. Ora è qualcosa di più simile a un sistema di messaggistica emotiva privata con una vetrina pubblica collaterale. Mosseri ammette che la condivisione reale è migrata nei DM. Lì finiscono le foto brutte, le clip tremolanti, i momenti senza posa. Quello è il vero Instagram del 2025. Il feed pubblico è già, di fatto, un palcoscenico semi artificiale. La novità è che ora lo è anche tecnicamente, non solo culturalmente.
La terza keyword semantica è fiducia online. Perché è qui che la questione diventa politica e industriale insieme. Se l’immagine non è più prova, servono infrastrutture di fiducia alternative. Mosseri cita fingerprinting, firme crittografichedelle fotocamere, chain of custody. Tutto corretto, tutto tecnicamente sensato. Ma c’è un problema che nessuno ama dire ad alta voce. La fiducia crittografica non è fiducia sociale. Sapere che una foto è stata scattata da una certa camera non dice nulla sulle intenzioni di chi la pubblica, sul contesto, sul framing, sull’omissione strategica. La manipolazione non è solo pixel. È narrazione.
Le piattaforme che hanno prosperato distruggendo il contesto ora chiedono più contesto. Quelle che hanno premiato l’engagement sopra ogni altra cosa ora parlano di credibilità. È legittimo, ma non neutrale. “Surface credibility signals” significa una cosa molto precisa. Significa ranking algoritmico della fiducia. E questo apre un fronte enorme. Chi decide cosa è credibile. Con quali metriche. Con quali effetti collaterali. Perché se l’autenticità diventa una variabile di ranking, allora diventa anche una leva di potere.
Mosseri è abbastanza onesto da ammettere che l’identificazione dei contenuti AI peggiorerà nel tempo. È una frase che dovrebbe essere incorniciata negli uffici di ogni regolatore. Il detection game è perso per definizione. È sempre stato così nella sicurezza informatica. Si passa dalla caccia al falso alla certificazione del vero. Ma anche questo non è una panacea. È solo un cambio di superficie d’attacco.
Il passaggio forse più rivelatore del suo intervento è quando parla di “infinite abundance and infinite doubt”. È una sintesi perfetta dello stato attuale dell’ecosistema informativo. Abbondanza totale di contenuti, scarsità estrema di fiducia. In questo scenario, i creator non vincono perché sono più bravi tecnicamente. Vincono perché diventano nodi stabili in un mare instabile. Non perché non possano essere finti, ma perché sarebbe troppo costoso replicarli nel tempo.
C’è poi la stoccata, neanche troppo velata, alle aziende di fotocamere che inseguono ancora l’estetica del professionista 2015. Qui Mosseri ha ragione, anche se per motivi che forse lui stesso non spinge fino in fondo. L’estetica professionale non è più segnale di qualità. È segnale di artificialità. In un mondo dove la perfezione è generabile, la perfezione è sospetta. È una dinamica che abbiamo già visto nella finanza, nella politica, nel marketing. Ora arriva all’immagine.
Il problema, e qui il tono deve diventare volutamente scomodo, è che spostare tutto sul “chi” rischia di cristallizzare il potere. Se la fiducia diventa cumulativa, chi ce l’ha vince sempre di più. Chi parte da zero fatica di più. È l’effetto Matthew applicato ai creator. E non è detto che sia un male, ma è una scelta strutturale, non una conseguenza neutra.
Instagram dovrà evolvere, dice Mosseri. Certo. Ma evolvere verso cosa. Verso una piattaforma che certifica identità. Che gerarchizza la credibilità. Che premia la continuità sopra l’exploit virale. Che scoraggia l’anonimato creativo. È un cambio di DNA, non un aggiornamento di prodotto.
Il paradosso finale è che l’AI, distruggendo l’illusione dell’immagine come prova, potrebbe costringerci a un rapporto più adulto con i media. Più scettico, più faticoso, meno immediato. Non è detto che ci piacerà. Siamo, come dice Mosseri, geneticamente predisposti a credere ai nostri occhi. Ma l’evoluzione culturale spesso nasce dal trauma, non dal comfort.
Forse non basteranno un paio di slideshow su Instagram per “capire tutto”. Ma il fatto che il CEO della piattaforma più visiva del mondo stia dicendo apertamente che l’immagine non è più affidabile è un segnale. Tardivo, imperfetto, interessato. Ma reale. E in un’epoca di contenuti sintetici infiniti, anche questo, paradossalmente, conta ancora.
Adam Mosseri:
The key risk Instagram faces is that, as the world changes more quickly, the platform fails to keep up. Looking forward to 2026, one major shift: authenticity is becoming infinitely reproducible.
Everything that made creators matter-the ability to be real, to connect, to have a voice that couldn’t be faked-is now accessible to anyone with the right tools. Deepfakes are getting better. Al generates photos and videos indistinguishable from captured media.
Power has shifted from institutions to individuals because the internet made it so anyone with a compelling idea could find an audience. The cost of distributing information is zero.
Individuals, not publishers or brands, established that there’s a significant market for content from people. Trust in institutions is at an all-time low. We’ve turned to self-captured content from creators we trust and admire.
We like to complain about “AI slop,” but there’s a lot of amazing AI content. Even the quality AI content has a look though: too slick, skin too smooth. That will change – we’re going to see more realistic AI content.
Authenticity is becoming a scarce resource, driving more demand for creator content, not less. The bar is shifting from “can you create?” to “can you make something that only you could create?”
Unless you are under 25, you probably think of Instagram as feed of square photos: polished makeup, skin smoothing, and beautiful landscapes. That feed is dead. People stopped sharing personal moments to feed years ago.
The primary way people share now is in DMs: blurry photos and shaky videos of daily experiences. Shoe shots. and unflattering candids.
This raw aesthetic has bled into public content and across artforms.
The camera companies are betting on the wrong aesthetic. They’re competing to make everyone look like a pro photographer from 2015. But in a world where AI can generate flawless imagery, the professional look becomes the tell.
Flattering imagery is cheap to produce and boring to consume.
People want content that feels real. Savvy creators are leaning into unproduced, unflattering images. In a world where everything can be perfected, imperfection becomes a signal.
Rawness isn’t just aesthetic preference anymore — it’s proof. It’s defensive. A way of saying: this is real because it’s imperfect.
Relatively quickly, AI will create any aesthetic you like, including an imperfect one that presents as authentic. At that point we’ll need to shift our focus to who says something instead of what is being said.
For most of my life I could safely assume photographs or videos were largely accurate captures of moments that happened. This is clearly no longer the case and it’s going to take us years to adapt.
We’re going to move from assuming what we see is real by default, to starting with skepticism. Paying attention to who is sharing something and why. This will be uncomfortable – we’re genetically predisposed to believing our eyes.
Platforms like Instagram will do good work identifying AI content, but they’ll get worse at it over time as AI gets better. It will be more practical to fingerprint real media than fake media.
Camera manufacturers will cryptographically sign images at capture, creating a chain of custody.
Labeling is only part of the solution. We need to surface much more
context about the accounts sharing content so people can make informed decisions. Who is behind the account?
In a world of infinite abundance and infinite doubt, the creators who can maintain trust and signal authenticity – by being real, transparent, and consistent – will stand out.
We need to build the best creative tools. Label AI-generated content and verify authentic content. Surface credibility signals about who’s posting. Continue to improve ranking for originality.
Instagram is going to have to evolve in a number of ways, and fast.