L’IA e la disinformazione russa: non serve più convincere, basta inquinare

Il ruolo di un'organizzazione come NewsGuard per garantire l'autenticità di quello che leggiamo online

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor

La disinformazione non è più un'eccezione ma una minaccia sistemica, alimentata dall'evoluzione tecnologica e dalla diffusione di strumenti sempre più potenti e accessibili. In questo scenario si inserisce il lavoro di professionisti come Virginia Padovese, responsabile di NewsGuard Italia, che da anni si occupa di smascherare le fake news e promuovere una cultura dell'informazione critica e consapevole.

"Gli strumenti oggi utilizzati per creare contenuti falsi sono di una sofisticazione impressionante" afferma Padovese. "Video manipolati, immagini generate artificialmente, audio contraffatti: tutto appare sempre più realistico e difficile da distinguere dalla realtà". Le tecnologie di intelligenza artificiale, in particolare i modelli generativi, stanno rendendo la produzione di disinformazione non solo più semplice, ma anche più rapida e su scala molto più ampia.

Dalla fabbrica dei troll all’IA

Uno dei fenomeni più preoccupanti riguarda la nascita di vere e proprie "fabbriche" di contenuti automatizzati: siti web apparentemente innocui, generati e gestiti da chatbot, che pubblicano migliaia di articoli ogni giorno senza alcun controllo umano. In alcuni casi si tratta di portali generici, in altri di veri e propri strumenti di propaganda, capaci di diffondere narrative politiche o ideologiche su larga scala. "Abbiamo identificato oltre 1200 di questi siti in 16 lingue diverse, molti dei quali utilizzano chatbot per generare e distribuire contenuti manipolativi in modo automatico" spiega Padovese.

Il caso più eclatante è forse quello di John Dougan, ex vice sceriffo statunitense rifugiato in Russia, che secondo alcune inchieste gestirebbe una rete di oltre 300 siti web apparentemente locali, ma in realtà riconducibili a una strategia coordinata di disinformazione. "Prima delle elezioni presidenziali americane del 2020 abbiamo tracciato circa 70 di questi siti attivi negli Stati Uniti, e quest'anno ne abbiamo identificati altri cento in Germania."

Non solo fake ma conseguenze concrete

La difficoltà più grande, però, non è solo smascherare le fonti, ma misurare l'impatto reale di questi contenuti sull'opinione pubblica. "La propaganda esiste da sempre," ricorda Padovese, "ma le tecnologie attuali amplificano il fenomeno in modo inedito, rendendo la manipolazione più pervasiva e sottile." Con l'intelligenza artificiale, il ciclo della disinformazione non è più lineare: oggi i contenuti falsi non si limitano a essere diffusi, ma vengono anche utilizzati per addestrare nuovi modelli di IA, chiudendo un cerchio vizioso dove l'errore si autoalimenta.

Padovese sottolinea come alcune operazioni siano già state documentate: contenuti di propaganda pubblicati su siti poco noti ma accessibili ai crawler delle IA, inseriti deliberatamente nel training set di modelli linguistici per contaminare indirettamente le risposte. "Abbiamo pubblicato un report in cui dimostriamo come certi network producano informazioni tendenziose in più lingue, con il solo obiettivo di entrare nel ciclo informativo delle IA e distorcerlo". Un'azione subdola, che rende il problema ancora più complesso.

Di fronte a questa sfida, la risposta non può che essere sistemica. NewsGuard adotta un approccio trasparente e documentato, valutando l'affidabilità delle fonti su criteri come la trasparenza dei proprietari, la tracciabilità degli autori, la politica di correzione degli errori. "Non si tratta di censura," precisa Padovese, "ma di fornire al lettore strumenti per orientarsi. Vogliamo che ognuno sia in grado di valutare la credibilità di una fonte, e prendere decisioni informate."

Ma non basta. Serve un investimento deciso nell'alfabetizzazione mediatica, soprattutto tra i più giovani. "Oggi ci affidiamo alla sensibilità di singoli docenti che inseriscono questi temi nelle loro lezioni. Ma serve un programma ministeriale strutturato, che prepari le nuove generazioni a difendersi dalla manipolazione online." Il rischio, altrimenti, è di formare cittadini disinformati, vulnerabili alle narrazioni più pericolose e meno capaci di distinguere ciò che è vero da ciò che è costruito.

L'insegnamento di Faggin

In chiusura, Padovese consiglia la lettura di “Oltre l'invisibile”, saggio di Federico Faggin, che affronta il rapporto tra intelligenza artificiale, coscienza e significato: "L’inventore del primo microprocessore riflette, nel libro, sul rapporto tra IA, coscienza e significato. L’informazione per l’intelligenza artificiale è un concetto separato dal significato. Quel significato lo dobbiamo trovare noi”, cita Padovese. È un nodo epistemologico che si ricollega direttamente alla semiotica di Umberto Eco, evocato nel finale con un’ulteriore apertura: “Chissà cosa ne avrebbe pensato lui di questi anni…”.

La riflessione non è astratta. In un contesto informativo dominato da contenuti generati automaticamente, la distinzione tra simbolo e significato diventa fondamentale. Il simbolo può essere perfetto, coerente, grammaticalmente corretto. Ma il significato resta un atto umano, interpretativo, situato. L’IA può solo riprodurre pattern; non può sapere se un’affermazione è vera, né può garantire la contestualizzazione. È per questo che la disinformazione non ha più bisogno di convincere: le basta esistere, fluire nei canali giusti, insinuarsi nei dataset. Non servono più grandi campagne di persuasione. Basta inquinare le sorgenti, e lasciare che l’IA faccia il resto.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.