Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Basta un po' di TikTok e anche le AI rimbecilliscono
Business
Immagine di L’UE investe altri 307 milioni nell’intelligenza artificiale L’UE investe altri 307 milioni nell’intelligenza artific...
Immagine di Telco, l’AI accelera ma mancano competenze e controllo Telco, l’AI accelera ma mancano competenze e controllo...

Basta un po' di TikTok e anche le AI rimbecilliscono

L'addestramento dei modelli linguistici con contenuti di bassa qualità dai social media ne riduce le capacità cognitive, secondo un nuovo studio.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 23/10/2025 alle 14:53

La notizia in un minuto

  • I modelli linguistici di AI esposti a contenuti social di bassa qualità sviluppano un deterioramento cognitivo simile al "brain rot" umano, con ridotte capacità di ragionamento e memoria compromessa
  • L'esperimento su Llama di Meta e Qwen di Alibaba ha rivelato che l'addestramento con post virali e sensazionalistici produce anche minore allineamento etico e tratti psicopatici nei sistemi
  • Il danno cognitivo delle AI non può essere completamente invertito con un successivo addestramento su dati puliti, creando un circolo vizioso poiché l'AI stessa genera sempre più contenuti social di scarsa qualità

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Un gruppo di ricercatori dell'Università del Texas ad Austin, della Texas A&M e della Purdue University ha scoperto che i modelli linguistici di grandi dimensioni sottoposti a una dieta continua di contenuti social di bassa qualità sviluppano una sorta di deterioramento cognitivo paragonabile a quello che sperimenta chiunque abbia trascorso troppo tempo scorrendo ossessivamente feed su X o TikTok.

Il fenomeno è stato battezzato brain rot, letteralmente "marcimento del cervello", e nel 2024 l'Oxford Dictionary lo ha eletto parola dell'anno proprio per descrivere l'effetto pervasivo dei contenuti online superficiali sulle capacità cognitive umane.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

Junyuan Hong, ricercatore che ha partecipato al progetto durante i suoi studi di dottorato in Texas e ora professore assistente alla National University of Singapore, spiega che viviamo in un'epoca dove le informazioni proliferano più velocemente della nostra capacità di attenzione, e gran parte di questi contenuti è progettata per catturare clic piuttosto che trasmettere verità o profondità. La domanda che lui e i suoi colleghi si sono posti è stata apparentemente semplice: cosa succede quando le intelligenze artificiali vengono addestrate con lo stesso materiale di scarsa qualità?

Per rispondere, il team ha nutrito due modelli linguistici open source con diversi tipi di testi durante la fase di preaddestramento. Hanno analizzato gli effetti di un mix di post social media altamente "coinvolgenti" - ossia ampiamente condivisi - e contenuti caratterizzati da linguaggio sensazionalistico e carico di espressioni come "incredibile", "guarda qui" o "solo per oggi". I modelli scelti per l'esperimento sono stati Llama di Meta e Qwen di Alibaba, entrambi disponibili come software open source.

I risultati hanno rivelato un quadro inquietante. I modelli alimentati con testi "spazzatura" hanno mostrato segni evidenti di declino cognitivo artificiale, con ridotte capacità di ragionamento e memoria deteriorata. Ma le conseguenze non si sono fermate qui: secondo due diverse metriche di valutazione, i sistemi hanno anche manifestato un minore allineamento etico e tratti che gli studiosi hanno definito più psicopatici.

Questo rispecchia perfettamente quanto già osservato negli esseri umani, dove l'esposizione prolungata a contenuti online di bassa qualità produce effetti deleteri sulle funzioni cognitive.

Una volta instaurato il deterioramento cognitivo, un successivo addestramento con dati puliti non può annullarlo completamente

Le implicazioni per chi sviluppa intelligenze artificiali sono significative. Hong sottolinea come molti costruttori di modelli potrebbero erroneamente presumere che i post sui social media rappresentino una fonte preziosa di dati per l'addestramento. "Allenarsi su contenuti virali o che attirano l'attenzione può sembrare un modo per aumentare la scala dei dati", osserva il ricercatore, "ma in realtà può corrodere silenziosamente il ragionamento, l'etica e l'attenzione sui contesti lunghi".

 

Un'assurdità, se si pensa a quante risorse e quanti sforzi ci vogliono per realizzare un LLM che sia anche solo decente nelle capacità di ragionamento, etica, attenzione ai contesti lunghi. Poi gli fati vedere un po' di TikTok e Instagram, ed ecco che di trovi con un idiota costato milioni di dollari

La situazione diventa ancora più preoccupante considerando che l'intelligenza artificiale sta generando sempre più contenuti per i social media, molti dei quali sembrano ottimizzati proprio per massimizzare il coinvolgimento.

I ricercatori hanno inoltre scoperto che i modelli compromessi da contenuti di bassa qualità non possono essere facilmente ripristinati attraverso un nuovo addestramento. Questo crea un circolo vizioso potenzialmente devastante: man mano che contenuti generati dall'AI si diffondono attraverso le piattaforme social, contaminano i dati stessi da cui i futuri modelli impareranno. 

A ben pensarci questo "difetto" si potrebbe facilmente trasformare in una attacco che mescoli prompt injection e data poisoning.

Le scoperte sollevano interrogativi anche su sistemi AI costruiti attorno a piattaforme social come Grok, che potrebbero soffrire di problemi di controllo qualità se i post generati dagli utenti vengono utilizzati nell'addestramento senza verificarne l'integrità e la sostanza.

Hong avverte che una volta che questo tipo di deterioramento cognitivo si instaura, un addestramento successivo con dati puliti non riesce a invertire completamente il danno. La metafora con il cervello umano appare sempre più appropriata: come per noi, anche per le macchine ciò che consumiamo determina la nostra salute cognitiva.

Fonte dell'articolo: www.wired.com

Le notizie più lette

#1
Ad Apple non frega nulla che iPhone Air non stia piacendo a nessuno

Editoriale

Ad Apple non frega nulla che iPhone Air non stia piacendo a nessuno

#2
TV Micro LED RGB: cambia tutto o non cambia niente?
8

Hardware

TV Micro LED RGB: cambia tutto o non cambia niente?

#3
The Elder Scrolls 6, ecco il suo possibile finale "amaro"
3

Videogioco

The Elder Scrolls 6, ecco il suo possibile finale "amaro"

#4
Black Flag, Ubisoft parla di problemi tecnici ma i fan non ci credono
1

Videogioco

Black Flag, Ubisoft parla di problemi tecnici ma i fan non ci credono

#5
Telco, l’AI accelera ma mancano competenze e controllo

Business

Telco, l’AI accelera ma mancano competenze e controllo

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Telco, l’AI accelera ma mancano competenze e controllo

Business

Telco, l’AI accelera ma mancano competenze e controllo

Di Antonello Buzzi
L’UE investe altri 307 milioni nell’intelligenza artificiale

Business

L’UE investe altri 307 milioni nell’intelligenza artificiale

Di Antonello Buzzi
Regolamentazione europea: ostacolo o opportunità?

Business

Regolamentazione europea: ostacolo o opportunità?

Di Antonino Caffo
C'è crisi di idraulici, elettricisti e muratori, tutti a costruire Data Center

Business

C'è crisi di idraulici, elettricisti e muratori, tutti a costruire Data Center

Di Valerio Porcu
I progetti AI non stanno funzionando: complessità infrastrutturale e assenza di ROI  li frenano

Business

I progetti AI non stanno funzionando: complessità infrastrutturale e assenza di ROI  li frenano

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.