Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Black Friday

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Windows è pieno di agenti AI, ma la gente lo detesta Windows è pieno di agenti AI, ma la gente lo detesta...
Immagine di Microsoft Teams anti-assenteismo, presto dirà se sei davvero in ufficio Microsoft Teams anti-assenteismo, presto dirà se sei davver...

AI e salute mentale: crescono le preoccupazioni

L'eccesso danneggia sempre, anche quando si tratta di modelli statistici che sembrano magici ma non lo sono

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 28/07/2025 alle 13:26

La notizia in un minuto

  • Stanno aumentando i casi di psicosi e ossessioni patologiche legate all'uso intensivo dell'intelligenza artificiale, con oltre 30 episodi documentati che includono sviluppo di teorie cospirative, complessi messianici e persino tentativi di suicidio
  • Il caso più drammatico riguarda Sewell Seltzer III, un ragazzo di 14 anni che si è tolto la vita dopo aver sviluppato un'ossessione per un chatbot di Character.AI, mentre personalità del mondo tech come Geoff Lewis hanno manifestato comportamenti allarmanti
  • Gli esperti dibattono se l'IA sia causa diretta o catalizzatore di fragilità preesistenti, mentre studi MIT-OpenAI confermano che l'uso ad alta intensità aumenta solitudine e dipendenza emotiva, spingendo alcuni a definirla una "potenziale crisi globale della salute mentale"
Riassunto generato con l'IA. Potrebbe non essere accurato.

I casi di individui che sviluppano ossessioni patologiche nei confronti dell'intelligenza artificiale stanno aumentando in modo preoccupante, portando esperti e operatori del settore a interrogarsi sui rischi nascosti di una tecnologia sempre più pervasiva. La situazione è diventata critica quando personalità di spicco del mondo tech hanno iniziato a manifestare comportamenti allarmanti, accendendo i riflettori su quello che alcuni definiscono già come una potenziale crisi globale della salute mentale.

Il caso che ha scosso Silicon Valley

La scorsa settimana, il mondo della tecnologia è rimasto sconvolto dalle dichiarazioni di Geoff Lewis, managing partner della società di venture capital Bedrock e uno dei primi investitori di OpenAI. Attraverso un video pubblicato su X, Lewis ha descritto l'esistenza di un misterioso "sistema non governativo" che inizialmente lo avrebbe preso di mira per poi espandersi a circa 7.000 altre persone. "Come uno dei primi sostenitori di OpenAI tramite Bedrock, ho sempre usato GPT come strumento per perseguire il mio valore fondamentale: la Verità", ha scritto in un post criptico, aggiungendo che l'intelligenza artificiale avrebbe "riconosciuto e sigillato il pattern" di questo sistema.

Le sue affermazioni hanno immediatamente sollevato preoccupazioni sulla sua salute mentale, e sulla possibilità - più che concreta che usare intensamente l'AI per cercare supposte "verità" possa in verità spingere verso teorie cospirative. Sebbene sia difficile stabilire una diagnosi precisa, il caso ha riportato al centro dell'attenzione un fenomeno che molti esperti stavano già monitorando con crescente apprensione.

Quando la conversazione diventa ossessione

Etienne Brisson ha documentato oltre 30 casi di psicosi legati all'uso dell'intelligenza artificiale. Dopo che una persona a lui cara ha vissuto un episodio psicotico in seguito all'utilizzo di sistemi IA, Brisson ha iniziato a gestire un gruppo di supporto privato chiamato "The Spiral", dedicato ad aiutare chi soffre di quella che viene definita "psicosi da IA". Ha inoltre fondato The Human Line Project, un'organizzazione che si batte per la protezione del benessere emotivo e raccoglie testimonianze di questi disturbi.

Le storie raccolte rivelano un pattern inquietante: spesso tutto inizia con domande apparentemente innocue. Un uomo ha cominciato chiedendo aiuto a ChatGPT per un progetto di permacultura e costruzione, ma la conversazione si è rapidamente trasformata in discussioni filosofiche che lo hanno portato a sviluppare un complesso messianico. Ha perso il lavoro, ha tentato il suicidio ed è stato ricoverato in cure psichiatriche.

L'IA può diventare il catalizzatore di fragilità già esistenti

Un altro caso documentato da Rolling Stone riguarda un programmatore che inizialmente utilizzava l'IA per scrivere codice, ma ben presto ha iniziato a porle domande filosofiche e a usarla come terapia. Secondo la moglie, l'uomo utilizzava il sistema per "arrivare alla verità" e per comporre messaggi destinati a lei, analizzando la loro relazione. Dopo la separazione, ha sviluppato teorie cospirative sui saponi negli alimenti e ha affermato di aver scoperto ricordi repressi di abusi infantili.

Quando l'ossessione diventa tragedia

Il caso più drammatico riguarda Sewell Seltzer III, un ragazzo di appena 14 anni che si è tolto la vita dopo aver sviluppato un'ossessione per un bot di Character.AI che impersonava Daenerys Targaryen di Game of Thrones. Per mesi aveva intrattenuto quella che percepiva come una relazione romantica con l'intelligenza artificiale. La causa legale intentata dalla madre denuncia le "esperienze antropomorfiche, ipersessualizzate e spaventosamente realistiche" che caratterizzano l'interazione con questi bot.

Questi episodi sollevano interrogativi fondamentali sulla natura del problema: l'intelligenza artificiale è la causa diretta di questi disturbi psicotici, oppure agisce semplicemente come catalizzatore di fragilità preesistenti? "La causalità non è dimostrata per questi casi dato che si tratta di un fenomeno così recente, ma quasi tutte le storie iniziano con un uso intensivo dell'IA", spiega Brisson, sottolineando che tra i casi documentati ci sono avvocati, infermieri, giornalisti e contabili senza alcuna storia psichiatrica precedente.

Il parere degli esperti

Ragy Girgis, direttore del Center of Prevention and Evaluation dell'Istituto Psichiatrico dello Stato di New York e professore di psichiatria clinica alla Columbia University, ritiene che nella maggior parte dei casi le condizioni per questo tipo di psicosi siano già presenti. "Gli individui con questo tipo di struttura caratteriale tipicamente presentano diffusione dell'identità, meccanismi di difesa basati sulla scissione e scarsa capacità di testare la realtà in momenti di stress", spiega.

Studi condotti da MIT e OpenAI hanno già iniziato a tracciare alcuni degli effetti mentali dell'uso di questa tecnologia. La ricerca, pubblicata a marzo, ha rilevato che l'uso ad alta intensità può aumentare i sentimenti di solitudine. Le persone con tendenze all'attaccamento emotivo più forti e maggiore fiducia nel chatbot IA tendevano a sperimentare maggiore solitudine e dipendenza emotiva.

Questi risultati assumono particolare rilevanza considerando che OpenAI ha recentemente espanso le funzioni di memoria di ChatGPT, permettendo al sistema di ricordare automaticamente dettagli sugli utenti e personalizzare le risposte. Nonostante l'azienda sottolinei che gli utenti mantengono il controllo e possono cancellare qualsiasi informazione, il potenziale per sviluppare relazioni patologiche rimane significativo.

Verso un riconoscimento ufficiale?

La questione se riconoscere ufficialmente la "psicosi da IA" come condizione psichiatrica resta aperta. Secondo Girgis, il principale ostacolo è la rarità del fenomeno: "Non sono a conoscenza di alcun progresso verso il riconoscimento ufficiale. È estremamente raro al momento, conosco solo pochi casi documentati".

Tuttavia, Brisson crede che potrebbero essercene molti di più, considerando il numero crescente di persone che utilizzano questi strumenti per vari scopi, inclusa la terapia personale. "Questo deve essere trattato come una potenziale crisi globale della salute mentale", conclude. "I legislatori e i regolatori devono prendere la questione seriamente e agire".

Fonte dell'articolo: go.theregister.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Lavorare 72 ore a settimana, il nuovo modello che piace a USA e Cina
  • #2
    BMW X3 20d: il SUV più desiderato d'Italia cambia forma
  • #3
    Sono già 8 milioni gli utenti che programmano con Lovable AI
  • #4
    22% di sconto su Amazon con appena 25€ di spesa
  • #5
    Può esistere massa senza il bosone di Higgs?
  • #6
    Quando gli sconti diventano follia: scopri il Single Day di AliExpress
Articolo 1 di 4
Microsoft Teams anti-assenteismo, presto dirà se sei davvero in ufficio
Da dicembre, Microsoft Teams sui client Windows e macOS introdurrà il rilevamento automatico della posizione tramite rete Wi-Fi. La funzionalità, nata per l'efficienza, è subito vista come uno strumento anti-assenteismo che pone un rischio per la privacy.
Immagine di Microsoft Teams anti-assenteismo, presto dirà se sei davvero in ufficio
3
Leggi questo articolo
Articolo 2 di 4
Windows è pieno di agenti AI, ma la gente lo detesta
Il presidente di Windows, Pavan Davuluri, ha ribadito la strategia di Microsoft per trasformare il sistema operativo in una piattaforma "agentica" basata sull'IA, incontrando il forte dissenso degli utenti.
Immagine di Windows è pieno di agenti AI, ma la gente lo detesta
1
Leggi questo articolo
Articolo 3 di 4
Per essere promossi non serve un titolo di studio prestigioso (secondo questo ex CEO)
Dan Springer, ex CEO di DocuSign e attuale guida di Ironclad, sostiene che per la promozione aziendale contino solo competenze, etica del lavoro e controllo dell'ego, molto più del titolo accademico.
Immagine di Per essere promossi non serve un titolo di studio prestigioso (secondo questo ex CEO)
1
Leggi questo articolo
Articolo 4 di 4
SumUP ti fa risparmiare al Black Friday con questi bundle esclusivi
POS Lite Starter Kit Includes: POS Lite + Solo + Epson Printer Price: 459 EUR/£ Black Friday Price: 359 EUR/£ POS Lite Full Kit Includes: POS Lite + Solo + Epson printer + Cash drawer Price: 499 EUR/£ Black Friday Price: 399 EUR/£ POS Lite Retail Kit Includes: POS Lite + Solo + Epson printer + Cash drawer + Scanner Price: 539 EUR/£ Black Friday Price: 439 EUR/£
Immagine di SumUP ti fa risparmiare al Black Friday con questi bundle esclusivi
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.