Instagram si prepara a una trasformazione epocale: secondo Adam Mosseri, responsabile della piattaforma, i contenuti generati dall'intelligenza artificiale supereranno presto quelli creati da esseri umani. L'annuncio, arrivato attraverso un lungo post sulle tendenze previste per il 2026, segna di fatto la resa di Meta nella battaglia contro la cosiddetta "AI slop" e ridisegna completamente le regole del gioco per i tre miliardi di utenti del social network. La dichiarazione solleva interrogativi cruciali non solo per i creator professionisti e i fotografi, ma anche per l'intero ecosistema della creazione di contenuti digitali, in un momento in cui l'azienda di Menlo Park ha investito decine di miliardi di dollari nello sviluppo dell'intelligenza artificiale.
La posizione di Mosseri appare sorprendentemente pragmatica, se non addirittura fatalista. "Tutto ciò che rendeva i creator importanti – la capacità di essere autentici, di connettersi, di avere una voce che non poteva essere falsificata – è ora improvvisamente accessibile a chiunque abbia gli strumenti giusti", ha scritto il dirigente, riconoscendo apertamente che i feed della piattaforma si stanno riempiendo di "contenuti sintetici di ogni tipo". La questione non è più se questo accadrà, ma quando, e soprattutto come Instagram intende gestire le conseguenze.
La strategia proposta da Meta rappresenta un ribaltamento di prospettiva: invece di continuare a inseguire e identificare i contenuti generati dall'AI, l'azienda suggerisce di implementare sistemi di firma crittografica per certificare i contenuti reali. Il peso di questa operazione, tuttavia, ricadrebbe principalmente sui produttori di fotocamere e smartphone, che dovrebbero integrare meccanismi di autenticazione direttamente al momento dello scatto. Mosseri parla di "catena di custodia" per le immagini autentiche, un concetto che ricorda i sistemi di watermarking ma che richiede un'implementazione a livello hardware ancora tutta da definire nei dettagli tecnici e nella scala necessaria.
L'ammissione implicita è chiara: le tecnologie attuali per identificare contenuti generati dall'AI si sono rivelate inefficaci. I watermark sono facilmente rimovibili, le etichette di Meta risultano poco chiare, e l'azienda stessa ha riconosciuto di non essere in grado di rilevare in modo affidabile contenuti generati o manipolati dall'intelligenza artificiale sulla propria piattaforma. La situazione è destinata a peggiorare man mano che i modelli generativi diventano più sofisticati nel replicare la realtà, rendendo la distinzione tra reale e sintetico sempre più sfumata.
Per i fotografi professionisti e i creator che hanno costruito la propria presenza su Instagram negli anni, le parole di Mosseri suonano come una sentenza. Il responsabile della piattaforma sostiene che l'estetica delle immagini quadrate e "perfezionate" che ha caratterizzato Instagram per oltre un decennio è ormai "morta", e che i produttori di fotocamere starebbero "scommettendo sull'estetica sbagliata" cercando di far sembrare tutti fotografi professionisti. Secondo questa visione, il futuro appartiene a contenuti più "grezzi" e "poco lusinghieri", che paradossalmente diventerebbero la prova dell'autenticità umana in un mare di perfezione algoritmica.
La questione dell'algoritmo di Instagram rimane un punto dolente per molti creator, che lamentano da tempo come i loro contenuti non raggiungano nemmeno i propri follower in modo consistente. Mosseri, però, sembra suggerire che questi reclami derivino da una concezione obsoleta di cosa Instagram rappresenti oggi. La piattaforma si è progressivamente allontanata dal suo DNA originale di condivisione fotografica tra connessioni dirette, trasformandosi in un sistema di raccomandazione alimentato da machine learning che privilegia il tempo di permanenza sulla piattaforma rispetto alla relazione diretta tra creator e pubblico.
Il paradosso è evidente: Meta ha investito enormi risorse nell'AI generativa, contribuendo attivamente alla proliferazione di contenuti sintetici, per poi dichiarare di non avere le capacità tecniche per gestirne le conseguenze sulla propria piattaforma. La responsabilità viene esternalizzata ai produttori hardware, mentre agli utenti e ai creator viene chiesto di adattarsi a un nuovo paradigma in cui l'autenticità si dimostra attraverso l'imperfezione volontaria. Resta da vedere se questo approccio sarà sufficiente a mantenere la fiducia di una base utenti che già fatica a distinguere il reale dal generato, e se i produttori di dispositivi accoglieranno l'invito a implementare sistemi di certificazione crittografica su larga scala.
La trasformazione annunciata da Mosseri si inserisce in un contesto più ampio di pressioni normative, specialmente in Europa dove regolamenti come il Digital Markets Act e le future normative sull'AI impongono maggiore trasparenza e responsabilità alle piattaforme digitali. Come questo equilibrio tra innovazione tecnologica, autenticità dei contenuti e sostenibilità dell'ecosistema dei creator si stabilizzerà nel 2026 rimane una delle domande più urgenti per l'industria tech.