Quasi dieci milioni di spettatori, l'evento televisivo più seguito e forse più importante d'Italia, un main sponsor (TIM) che investe milioni per dire al Paese "guardate dove stiamo andando". E cosa è apparso sui teleschermi? Un effetto IA uscito direttamente dal 2023 che ha trasformato Carlo Conti e il pubblico dell'Ariston in papere digitali mal fatte e anche vagamente inquietanti.
È successo nella prima serata del Festival di Sanremo 2026, durante l'esecuzione orchestrale di "Papaveri e Papere" di Nilla Pizzi. TIM aveva annunciato con una certa enfasi che questa sarebbe stata la prima edizione del Festival "arricchita con suggestioni visive" grazie all'intelligenza artificiale. Il risultato concreto è stato uno sketch di pochi secondi (per fortuna) in cui un filtro generativo ha deformato i volti del pubblico e del conduttore in una sequenza che ricordava più un brutto sogno che un'innovazione tecnologica.
Momento IA terribile. Una roba molto imbarazzante. Ed era pure sponsorizzata dal main sponsor 🥶#Sanremo2026 pic.twitter.com/LtIFlvn0bK
— giovanni mercadante (@giuvannuzzo) February 24, 2026
La reazione è stata unanime. Sui social si è parlato di "allucinazione collettiva", qualcuno ha evocato la Loggia Nera di Twin Peaks, altri hanno fatto il paragone più azzeccato di tutti: il primo video virale di Will Smith che mangia gli spaghetti, risalente proprio a quell’anno, con fattezze abbozzate e movimenti innaturali che all'epoca rappresentavano lo stato dell'arte e oggi fanno sorridere per quanto primitivi appaiano. Ecco, il "momento TIM" a Sanremo era esattamente a quel livello lì.
Il problema è che l'IA sa fare molto di meglio
Nel febbraio 2026, il panorama della generazione video tramite intelligenza artificiale è irriconoscibile rispetto a tre anni fa. Sora 2 di OpenAI genera sequenze cinematografiche in cui la fisica degli oggetti è simulata in modo realistico: una palla rimbalza come dovrebbe, un personaggio che passa dietro un albero ricompare dall'altra parte senza deformarsi. Veo 3.1 di Google DeepMind produce video in 4K con audio sincronizzato nativo: dialoghi, effetti sonori, rumore ambientale, tutto generato insieme all'immagine. Kling 3.0 di Kuaishou, rilasciato proprio questo mese, introduce sequenze multi-shot con coerenza del soggetto tra diverse angolazioni di camera. Seedance 2.0 di ByteDance accetta quattro tipi di input diversi (testo, immagini, audio e video) contemporaneamente.
This is System Sleep. 🎸
— MetaPuppet (@MetaPuppet) February 22, 2026
Made with Seedance 2.0 and Kling 3.0.
But making this actually started almost 20 years ago pic.twitter.com/9mnoOu2vNP
Non stiamo parlando di prototipi da laboratorio. Questi strumenti sono accessibili al pubblico, molti con piani gratuiti o abbonamenti da venti euro al mese. Un qualsiasi professionista del video, o anche solo un appassionato con un minimo di competenza, avrebbe potuto produrre in una serata qualcosa di incomparabilmente superiore a quello che è andato in onda su Rai 1 davanti a oltre 13 milioni di persone nella prima parte della serata (9,6 milioni la media complessiva, con il 58% di share).
Un'occasione sprecata sul palco più grande d'Italia
Quando mandi un messaggio su un palco come quello di Sanremo, visto cosa rappresenta, stai dicendo al mercato chi sei e dove vuoi andare. TIM aveva un'occasione più unica che rara per mostrare al pubblico generalista, quello che nella stragrande maggioranza non ha mai aperto Sora, non sa cos'è Midjourney, non ha idea di cosa un prompt possa generare nel 2026, il vero stato dell'arte dell'intelligenza artificiale. Avrebbe potuto lasciare il pubblico a bocca aperta, posizionarsi come azienda che guarda al futuro con competenza. Invece ha scelto di trasformare la gente in papere, facendolo anche Male.
Il rischio che nessuno vede: ridere oggi, cascarci domani
Il danno, però, va oltre il fallimento comunicativo del singolo brand. C'è una conseguenza più sottile e più pericolosa: quando mostri l'IA in questo modo, grottesca e approssimativa, il messaggio implicito che arriva a milioni di persone è che questa tecnologia sia fondamentalmente una buffonata. Qualcosa di facilmente riconoscibile, un po' ridicolo, di cui in fondo non c'è da preoccuparsi.
Le cose, però, stanno in modo radicalmente diverso. Le frodi basate su deepfake nel 2025 hanno generato perdite globali stimate in 1,1 miliardi di dollari secondo un'analisi di SurfShark, il triplo rispetto al 2024. Le truffe abilitate dall'intelligenza artificiale generativa sono aumentate del 1.210% in un solo anno secondo Vectra AI, e Deloitte prevede che raggiungeranno i 40 miliardi di dollari entro il 2027. Il caso più eclatante resta quello della multinazionale di ingegneria Arup, raggirata per 25,6 milioni di dollari attraverso una singola videochiamata deepfake in cui i truffatori avevano ricreato in tempo reale volti e voci dei dirigenti aziendali. Gartner prevede che entro quest'anno il 30% delle aziende non considererà più affidabili i propri sistemi di autenticazione biometrica facciale proprio a causa degli attacchi basati su deepfake.
Questo è il punto. L'intelligenza artificiale generativa nel 2026 non produce paperelle inquietanti, ma video indistinguibili dalla realtà, cloni vocali perfetti a partire da pochi secondi di audio, contenuti che possono ingannare anche professionisti esperti. E mentre la tecnologia avanza a una velocità impressionante, la percezione pubblica resta ancorata a dimostrazioni come quella di Sanremo — dove l'IA sembra al massimo un giocattolo difettoso.
Banalizzare questa tecnologia in prima serata, davanti al pubblico più ampio e meno specializzato dell'anno, non è solo un'occasione persa sul piano commerciale. È un danno culturale. Perché un pubblico che ride delle papere digitali è un pubblico che domani non riconoscerà un deepfake quando riceverà una videochiamata dal "direttore" che chiede un bonifico urgente, o quando vedrà un video di un politico che dice cose mai dette alla vigilia di un'elezione.
E adesso?
TIM ha annunciato che ci saranno altri "momenti IA" nelle prossime serate del Festival. Qualcuno ha ironizzato sulla possibilità che si tratti di "una raffinata narrazione per raccontare l'evoluzione dell'IA", con performance via via migliori. Sarebbe un colpo di genio, ma temo sia decisamente troppo ottimistico.
La domanda vera, quella che dovrebbe restare dopo questa prima serata, è un'altra: davvero, nel 2026, con tutto quello che l'intelligenza artificiale è già in grado di fare (nel bene e nel male), uno dei più grandi gruppi industriali del Paese sceglie di presentarla così al suo pubblico?