Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Verifica dell’età per siti porno; arriva anche in Italia ma non sarà come in Francia Verifica dell’età per siti porno; arriva anche in Italia ...
Immagine di Questa IA promette di sostituire giorni di controllo qualità in 2 ore Questa IA promette di sostituire giorni di controllo qualit�...

L’IA e la disinformazione russa: non serve più convincere, basta inquinare

Il ruolo di un'organizzazione come NewsGuard per garantire l'autenticità di quello che leggiamo online

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor

Pubblicato il 15/05/2025 alle 10:00

La disinformazione non è più un'eccezione ma una minaccia sistemica, alimentata dall'evoluzione tecnologica e dalla diffusione di strumenti sempre più potenti e accessibili. In questo scenario si inserisce il lavoro di professionisti come Virginia Padovese, responsabile di NewsGuard Italia, che da anni si occupa di smascherare le fake news e promuovere una cultura dell'informazione critica e consapevole.

"Gli strumenti oggi utilizzati per creare contenuti falsi sono di una sofisticazione impressionante" afferma Padovese. "Video manipolati, immagini generate artificialmente, audio contraffatti: tutto appare sempre più realistico e difficile da distinguere dalla realtà". Le tecnologie di intelligenza artificiale, in particolare i modelli generativi, stanno rendendo la produzione di disinformazione non solo più semplice, ma anche più rapida e su scala molto più ampia.

Guarda su

Dalla fabbrica dei troll all’IA

Uno dei fenomeni più preoccupanti riguarda la nascita di vere e proprie "fabbriche" di contenuti automatizzati: siti web apparentemente innocui, generati e gestiti da chatbot, che pubblicano migliaia di articoli ogni giorno senza alcun controllo umano. In alcuni casi si tratta di portali generici, in altri di veri e propri strumenti di propaganda, capaci di diffondere narrative politiche o ideologiche su larga scala. "Abbiamo identificato oltre 1200 di questi siti in 16 lingue diverse, molti dei quali utilizzano chatbot per generare e distribuire contenuti manipolativi in modo automatico" spiega Padovese.

Il caso più eclatante è forse quello di John Dougan, ex vice sceriffo statunitense rifugiato in Russia, che secondo alcune inchieste gestirebbe una rete di oltre 300 siti web apparentemente locali, ma in realtà riconducibili a una strategia coordinata di disinformazione. "Prima delle elezioni presidenziali americane del 2020 abbiamo tracciato circa 70 di questi siti attivi negli Stati Uniti, e quest'anno ne abbiamo identificati altri cento in Germania."

Non solo fake ma conseguenze concrete

La difficoltà più grande, però, non è solo smascherare le fonti, ma misurare l'impatto reale di questi contenuti sull'opinione pubblica. "La propaganda esiste da sempre," ricorda Padovese, "ma le tecnologie attuali amplificano il fenomeno in modo inedito, rendendo la manipolazione più pervasiva e sottile." Con l'intelligenza artificiale, il ciclo della disinformazione non è più lineare: oggi i contenuti falsi non si limitano a essere diffusi, ma vengono anche utilizzati per addestrare nuovi modelli di IA, chiudendo un cerchio vizioso dove l'errore si autoalimenta.

Padovese sottolinea come alcune operazioni siano già state documentate: contenuti di propaganda pubblicati su siti poco noti ma accessibili ai crawler delle IA, inseriti deliberatamente nel training set di modelli linguistici per contaminare indirettamente le risposte. "Abbiamo pubblicato un report in cui dimostriamo come certi network producano informazioni tendenziose in più lingue, con il solo obiettivo di entrare nel ciclo informativo delle IA e distorcerlo". Un'azione subdola, che rende il problema ancora più complesso.

Di fronte a questa sfida, la risposta non può che essere sistemica. NewsGuard adotta un approccio trasparente e documentato, valutando l'affidabilità delle fonti su criteri come la trasparenza dei proprietari, la tracciabilità degli autori, la politica di correzione degli errori. "Non si tratta di censura," precisa Padovese, "ma di fornire al lettore strumenti per orientarsi. Vogliamo che ognuno sia in grado di valutare la credibilità di una fonte, e prendere decisioni informate."

Ma non basta. Serve un investimento deciso nell'alfabetizzazione mediatica, soprattutto tra i più giovani. "Oggi ci affidiamo alla sensibilità di singoli docenti che inseriscono questi temi nelle loro lezioni. Ma serve un programma ministeriale strutturato, che prepari le nuove generazioni a difendersi dalla manipolazione online." Il rischio, altrimenti, è di formare cittadini disinformati, vulnerabili alle narrazioni più pericolose e meno capaci di distinguere ciò che è vero da ciò che è costruito.

L'insegnamento di Faggin

In chiusura, Padovese consiglia la lettura di “Oltre l'invisibile”, saggio di Federico Faggin, che affronta il rapporto tra intelligenza artificiale, coscienza e significato: "L’inventore del primo microprocessore riflette, nel libro, sul rapporto tra IA, coscienza e significato. L’informazione per l’intelligenza artificiale è un concetto separato dal significato. Quel significato lo dobbiamo trovare noi”, cita Padovese. È un nodo epistemologico che si ricollega direttamente alla semiotica di Umberto Eco, evocato nel finale con un’ulteriore apertura: “Chissà cosa ne avrebbe pensato lui di questi anni…”.

La riflessione non è astratta. In un contesto informativo dominato da contenuti generati automaticamente, la distinzione tra simbolo e significato diventa fondamentale. Il simbolo può essere perfetto, coerente, grammaticalmente corretto. Ma il significato resta un atto umano, interpretativo, situato. L’IA può solo riprodurre pattern; non può sapere se un’affermazione è vera, né può garantire la contestualizzazione. È per questo che la disinformazione non ha più bisogno di convincere: le basta esistere, fluire nei canali giusti, insinuarsi nei dataset. Non servono più grandi campagne di persuasione. Basta inquinare le sorgenti, e lasciare che l’IA faccia il resto.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Google sta distruggendo i siti web
  • #2
    La nuova UI di Apple è un incubo di design
  • #3
    Questo vecchio Pixel è più potente di Switch 2, il confronto è impietoso
  • #4
    ChatGPT viene demolito dall'Atari 2600 in una partita a scacchi
  • #5
    AMD potrebbe aver confermato l'esistenza di Steam Deck 2
  • #6
    AYANEO ha realizzato il Nintendo DS definitivo
Articolo 1 di 5
Questa IA promette di sostituire giorni di controllo qualità in 2 ore
Zencoder lancia Zentester, agente IA per test software automatizzati end-to-end, sfidando GitHub Copilot nel mercato degli strumenti di coding
Immagine di Questa IA promette di sostituire giorni di controllo qualità in 2 ore
Leggi questo articolo
Articolo 2 di 5
Verifica dell’età per siti porno; arriva anche in Italia ma non sarà come in Francia
Dal 2025 anche in Italia arriverà la verifica dell’età per accedere ai siti porno. Diversamente dalla Francia, non è ancora legge. Restano dubbi su privacy, efficacia e possibili elusioni tramite VPN.
Immagine di Verifica dell’età per siti porno; arriva anche in Italia ma non sarà come in Francia
1
Leggi questo articolo
Articolo 3 di 5
Tra pensiero critico e problem solving, il mondo IT ha ancora bisogno di persone
Due chiacchiere con la recruiter Piera Orlandi sulle competenze più richieste ai data scientist odierni
Immagine di Tra pensiero critico e problem solving, il mondo IT ha ancora bisogno di persone
Leggi questo articolo
Articolo 4 di 5
Usare l'IA non è un reato, ma non devi farlo ai colloqui di queste aziende
Chi usa i chatbot ai colloqui di lavoro viene automaticamente squalificato. È il paradosso dell'innovazione da ponderare, non abusare
Immagine di Usare l'IA non è un reato, ma non devi farlo ai colloqui di queste aziende
Leggi questo articolo
Articolo 5 di 5
Scoperta una grave falla AI zero-click, ecco cosa sappiamo
Scoperta vulnerabilità zero-click 'EchoLeak' in Microsoft 365 Copilot: attacchi AI possono estrarre dati sensibili senza necessariamente interagire.
Immagine di Scoperta una grave falla AI zero-click, ecco cosa sappiamo
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.