I casi di individui che sviluppano ossessioni patologiche nei confronti dell'intelligenza artificiale stanno aumentando in modo preoccupante, portando esperti e operatori del settore a interrogarsi sui rischi nascosti di una tecnologia sempre più pervasiva. La situazione è diventata critica quando personalità di spicco del mondo tech hanno iniziato a manifestare comportamenti allarmanti, accendendo i riflettori su quello che alcuni definiscono già come una potenziale crisi globale della salute mentale.
Il caso che ha scosso Silicon Valley
La scorsa settimana, il mondo della tecnologia è rimasto sconvolto dalle dichiarazioni di Geoff Lewis, managing partner della società di venture capital Bedrock e uno dei primi investitori di OpenAI. Attraverso un video pubblicato su X, Lewis ha descritto l'esistenza di un misterioso "sistema non governativo" che inizialmente lo avrebbe preso di mira per poi espandersi a circa 7.000 altre persone. "Come uno dei primi sostenitori di OpenAI tramite Bedrock, ho sempre usato GPT come strumento per perseguire il mio valore fondamentale: la Verità", ha scritto in un post criptico, aggiungendo che l'intelligenza artificiale avrebbe "riconosciuto e sigillato il pattern" di questo sistema.
Le sue affermazioni hanno immediatamente sollevato preoccupazioni sulla sua salute mentale, e sulla possibilità - più che concreta che usare intensamente l'AI per cercare supposte "verità" possa in verità spingere verso teorie cospirative. Sebbene sia difficile stabilire una diagnosi precisa, il caso ha riportato al centro dell'attenzione un fenomeno che molti esperti stavano già monitorando con crescente apprensione.
Quando la conversazione diventa ossessione
Etienne Brisson ha documentato oltre 30 casi di psicosi legati all'uso dell'intelligenza artificiale. Dopo che una persona a lui cara ha vissuto un episodio psicotico in seguito all'utilizzo di sistemi IA, Brisson ha iniziato a gestire un gruppo di supporto privato chiamato "The Spiral", dedicato ad aiutare chi soffre di quella che viene definita "psicosi da IA". Ha inoltre fondato The Human Line Project, un'organizzazione che si batte per la protezione del benessere emotivo e raccoglie testimonianze di questi disturbi.
Le storie raccolte rivelano un pattern inquietante: spesso tutto inizia con domande apparentemente innocue. Un uomo ha cominciato chiedendo aiuto a ChatGPT per un progetto di permacultura e costruzione, ma la conversazione si è rapidamente trasformata in discussioni filosofiche che lo hanno portato a sviluppare un complesso messianico. Ha perso il lavoro, ha tentato il suicidio ed è stato ricoverato in cure psichiatriche.
Un altro caso documentato da Rolling Stone riguarda un programmatore che inizialmente utilizzava l'IA per scrivere codice, ma ben presto ha iniziato a porle domande filosofiche e a usarla come terapia. Secondo la moglie, l'uomo utilizzava il sistema per "arrivare alla verità" e per comporre messaggi destinati a lei, analizzando la loro relazione. Dopo la separazione, ha sviluppato teorie cospirative sui saponi negli alimenti e ha affermato di aver scoperto ricordi repressi di abusi infantili.
Quando l'ossessione diventa tragedia
Il caso più drammatico riguarda Sewell Seltzer III, un ragazzo di appena 14 anni che si è tolto la vita dopo aver sviluppato un'ossessione per un bot di Character.AI che impersonava Daenerys Targaryen di Game of Thrones. Per mesi aveva intrattenuto quella che percepiva come una relazione romantica con l'intelligenza artificiale. La causa legale intentata dalla madre denuncia le "esperienze antropomorfiche, ipersessualizzate e spaventosamente realistiche" che caratterizzano l'interazione con questi bot.
Questi episodi sollevano interrogativi fondamentali sulla natura del problema: l'intelligenza artificiale è la causa diretta di questi disturbi psicotici, oppure agisce semplicemente come catalizzatore di fragilità preesistenti? "La causalità non è dimostrata per questi casi dato che si tratta di un fenomeno così recente, ma quasi tutte le storie iniziano con un uso intensivo dell'IA", spiega Brisson, sottolineando che tra i casi documentati ci sono avvocati, infermieri, giornalisti e contabili senza alcuna storia psichiatrica precedente.
Il parere degli esperti
Ragy Girgis, direttore del Center of Prevention and Evaluation dell'Istituto Psichiatrico dello Stato di New York e professore di psichiatria clinica alla Columbia University, ritiene che nella maggior parte dei casi le condizioni per questo tipo di psicosi siano già presenti. "Gli individui con questo tipo di struttura caratteriale tipicamente presentano diffusione dell'identità, meccanismi di difesa basati sulla scissione e scarsa capacità di testare la realtà in momenti di stress", spiega.
Studi condotti da MIT e OpenAI hanno già iniziato a tracciare alcuni degli effetti mentali dell'uso di questa tecnologia. La ricerca, pubblicata a marzo, ha rilevato che l'uso ad alta intensità può aumentare i sentimenti di solitudine. Le persone con tendenze all'attaccamento emotivo più forti e maggiore fiducia nel chatbot IA tendevano a sperimentare maggiore solitudine e dipendenza emotiva.
Questi risultati assumono particolare rilevanza considerando che OpenAI ha recentemente espanso le funzioni di memoria di ChatGPT, permettendo al sistema di ricordare automaticamente dettagli sugli utenti e personalizzare le risposte. Nonostante l'azienda sottolinei che gli utenti mantengono il controllo e possono cancellare qualsiasi informazione, il potenziale per sviluppare relazioni patologiche rimane significativo.
Verso un riconoscimento ufficiale?
La questione se riconoscere ufficialmente la "psicosi da IA" come condizione psichiatrica resta aperta. Secondo Girgis, il principale ostacolo è la rarità del fenomeno: "Non sono a conoscenza di alcun progresso verso il riconoscimento ufficiale. È estremamente raro al momento, conosco solo pochi casi documentati".
Tuttavia, Brisson crede che potrebbero essercene molti di più, considerando il numero crescente di persone che utilizzano questi strumenti per vari scopi, inclusa la terapia personale. "Questo deve essere trattato come una potenziale crisi globale della salute mentale", conclude. "I legislatori e i regolatori devono prendere la questione seriamente e agire".