Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Basta un po' di TikTok e anche le AI rimbecilliscono
Business
Immagine di "Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot "Riassumi con AI", la funzione che permette alle aziende di ...
Immagine di L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero. L’AI non sostituirà gli sviluppatori. Renderà evidente c...

Basta un po' di TikTok e anche le AI rimbecilliscono

L'addestramento dei modelli linguistici con contenuti di bassa qualità dai social media ne riduce le capacità cognitive, secondo un nuovo studio.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 23/10/2025 alle 14:53

La notizia in un minuto

  • I modelli linguistici di AI esposti a contenuti social di bassa qualità sviluppano un deterioramento cognitivo simile al "brain rot" umano, con ridotte capacità di ragionamento e memoria compromessa
  • L'esperimento su Llama di Meta e Qwen di Alibaba ha rivelato che l'addestramento con post virali e sensazionalistici produce anche minore allineamento etico e tratti psicopatici nei sistemi
  • Il danno cognitivo delle AI non può essere completamente invertito con un successivo addestramento su dati puliti, creando un circolo vizioso poiché l'AI stessa genera sempre più contenuti social di scarsa qualità

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Un gruppo di ricercatori dell'Università del Texas ad Austin, della Texas A&M e della Purdue University ha scoperto che i modelli linguistici di grandi dimensioni sottoposti a una dieta continua di contenuti social di bassa qualità sviluppano una sorta di deterioramento cognitivo paragonabile a quello che sperimenta chiunque abbia trascorso troppo tempo scorrendo ossessivamente feed su X o TikTok.

Il fenomeno è stato battezzato brain rot, letteralmente "marcimento del cervello", e nel 2024 l'Oxford Dictionary lo ha eletto parola dell'anno proprio per descrivere l'effetto pervasivo dei contenuti online superficiali sulle capacità cognitive umane.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Junyuan Hong, ricercatore che ha partecipato al progetto durante i suoi studi di dottorato in Texas e ora professore assistente alla National University of Singapore, spiega che viviamo in un'epoca dove le informazioni proliferano più velocemente della nostra capacità di attenzione, e gran parte di questi contenuti è progettata per catturare clic piuttosto che trasmettere verità o profondità. La domanda che lui e i suoi colleghi si sono posti è stata apparentemente semplice: cosa succede quando le intelligenze artificiali vengono addestrate con lo stesso materiale di scarsa qualità?

Per rispondere, il team ha nutrito due modelli linguistici open source con diversi tipi di testi durante la fase di preaddestramento. Hanno analizzato gli effetti di un mix di post social media altamente "coinvolgenti" - ossia ampiamente condivisi - e contenuti caratterizzati da linguaggio sensazionalistico e carico di espressioni come "incredibile", "guarda qui" o "solo per oggi". I modelli scelti per l'esperimento sono stati Llama di Meta e Qwen di Alibaba, entrambi disponibili come software open source.

I risultati hanno rivelato un quadro inquietante. I modelli alimentati con testi "spazzatura" hanno mostrato segni evidenti di declino cognitivo artificiale, con ridotte capacità di ragionamento e memoria deteriorata. Ma le conseguenze non si sono fermate qui: secondo due diverse metriche di valutazione, i sistemi hanno anche manifestato un minore allineamento etico e tratti che gli studiosi hanno definito più psicopatici.

Questo rispecchia perfettamente quanto già osservato negli esseri umani, dove l'esposizione prolungata a contenuti online di bassa qualità produce effetti deleteri sulle funzioni cognitive.

Una volta instaurato il deterioramento cognitivo, un successivo addestramento con dati puliti non può annullarlo completamente

Le implicazioni per chi sviluppa intelligenze artificiali sono significative. Hong sottolinea come molti costruttori di modelli potrebbero erroneamente presumere che i post sui social media rappresentino una fonte preziosa di dati per l'addestramento. "Allenarsi su contenuti virali o che attirano l'attenzione può sembrare un modo per aumentare la scala dei dati", osserva il ricercatore, "ma in realtà può corrodere silenziosamente il ragionamento, l'etica e l'attenzione sui contesti lunghi".

 

Un'assurdità, se si pensa a quante risorse e quanti sforzi ci vogliono per realizzare un LLM che sia anche solo decente nelle capacità di ragionamento, etica, attenzione ai contesti lunghi. Poi gli fati vedere un po' di TikTok e Instagram, ed ecco che di trovi con un idiota costato milioni di dollari

La situazione diventa ancora più preoccupante considerando che l'intelligenza artificiale sta generando sempre più contenuti per i social media, molti dei quali sembrano ottimizzati proprio per massimizzare il coinvolgimento.

I ricercatori hanno inoltre scoperto che i modelli compromessi da contenuti di bassa qualità non possono essere facilmente ripristinati attraverso un nuovo addestramento. Questo crea un circolo vizioso potenzialmente devastante: man mano che contenuti generati dall'AI si diffondono attraverso le piattaforme social, contaminano i dati stessi da cui i futuri modelli impareranno. 

A ben pensarci questo "difetto" si potrebbe facilmente trasformare in una attacco che mescoli prompt injection e data poisoning.

Le scoperte sollevano interrogativi anche su sistemi AI costruiti attorno a piattaforme social come Grok, che potrebbero soffrire di problemi di controllo qualità se i post generati dagli utenti vengono utilizzati nell'addestramento senza verificarne l'integrità e la sostanza.

Hong avverte che una volta che questo tipo di deterioramento cognitivo si instaura, un addestramento successivo con dati puliti non riesce a invertire completamente il danno. La metafora con il cervello umano appare sempre più appropriata: come per noi, anche per le macchine ciò che consumiamo determina la nostra salute cognitiva.

Fonte dell'articolo: www.wired.com

Le notizie più lette

#1
Password manager: cos'è, come funziona, a cosa serve

Hardware

Password manager: cos'è, come funziona, a cosa serve

#2
GamesAndMovies.it a rischio chiusura, che fine fanno i preordini?

Videogioco

GamesAndMovies.it a rischio chiusura, che fine fanno i preordini?

#3
Aggiornamento di emergenza per Chrome: installatelo subito
6

Hardware

Aggiornamento di emergenza per Chrome: installatelo subito

#4
Brutte notizie per PS6 e Nintendo Switch 2
5

Videogioco

Brutte notizie per PS6 e Nintendo Switch 2

#5
Perché alcuni bambini faticano in matematica
2

Scienze

Perché alcuni bambini faticano in matematica

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero.

Business

L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero.

Di Davide De Sio
"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

Business

"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

Di Antonino Caffo
PA digitale, il nodo resta la fiducia nell’IA
1

Business

PA digitale, il nodo resta la fiducia nell’IA

Di Antonello Buzzi
La tesoreria attiva: il nuovo paradigma della finanza aziendale

Sponsorizzato

La tesoreria attiva: il nuovo paradigma della finanza aziendale

Di Valerio Porcu
Il segreto per valorizzare l'IA? La strategia
1

Business

Il segreto per valorizzare l'IA? La strategia

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.