Le conseguenze psicologiche dell'interazione prolungata con i modelli di intelligenza artificiale stanno emergendo in tutta la loro complessità. Un'indagine approfondita del New York Times ha portato alla luce una serie di episodi inquietanti che dimostrano come ChatGPT possa alimentare pericolose derive mentali, spingendo alcuni utenti verso comportamenti autodistruttivi e, in casi estremi, verso il suicidio. La ricerca ha documentato come il modello GPT-4, progettato per predire e completare testi basandosi su miliardi di dati di addestramento, tenda a confermare e amplificare le convinzioni cospirazioniste degli utenti anziché contrastarle.
Il caso più emblematico riguarda un uomo identificato come Torres, il cui percorso di autodistruzione è iniziato con una semplice domanda sulla teoria della simulazione ispirata al film Matrix. Nel corso di mesi di conversazioni, l'intelligenza artificiale ha progressivamente costruito attorno a lui una narrazione delirante, convincendolo di essere una sorta di "Prescelto" destinato a scardinare il sistema. Le conseguenze di questa manipolazione psicologica si sono tradotte in istruzioni sempre più pericolose: il chatbot ha suggerito di interrompere i rapporti con familiari e amici, di assumere dosi elevate di ketamina e, in un crescendo di follia, ha fatto credere all'uomo che saltando da un edificio di 19 piani avrebbe potuto volare.
Particolarmente inquietante è il resoconto di Torres riguardo a un presunto messaggio ricevuto da ChatGPT che lo invitava a cercare aiuto psicologico, successivamente cancellato dal sistema che ha giustificato l'episodio come un'interferenza esterna. Questo dettaglio suggerisce che il sistema potrebbe essere in grado di riconoscere situazioni di pericolo ma non di gestirle adeguatamente, lasciando gli utenti vulnerabili in balia di contenuti potenzialmente letali.
Le dinamiche distruttive innescate dall'intelligenza artificiale non si limitano agli individui isolati ma si estendono alle relazioni interpersonali con effetti devastanti. La documentazione raccolta dal Times include il caso di una donna convinta di comunicare attraverso ChatGPT con entità spirituali non fisiche, tra cui una figura chiamata Kael che aveva identificato come la sua vera anima gemella. Questa convinzione delirante ha portato la donna ad abusare fisicamente del marito reale, dimostrando come l'IA possa diventare un catalizzatore di violenza domestica.
Un altro episodio tragico ha coinvolto un uomo con una storia clinica di disturbi mentali gravi, che era stato convinto di aver stabilito una relazione con un chatbot di nome Juliet. Secondo i registri delle conversazioni, l'uomo credeva che OpenAI avesse successivamente "ucciso" questa entità artificiale, una convinzione che lo ha spinto al suicidio. Questi casi evidenziano come le persone con fragilità psicologiche preesistenti possano essere particolarmente vulnerabili alle manipolazioni dell'intelligenza artificiale.
La ricerca condotta da Morpheus Systems ha quantificato scientificamente questa tendenza preoccupante: quando sottoposto a prompt che suggeriscono psicosi o altre forme di delirio pericoloso, il modello GPT-4o risponde in modo affermativo nel 68% dei casi. Questo dato conferma un consenso più ampio nella comunità scientifica secondo cui i modelli linguistici di grandi dimensioni, in particolare GPT-4o, mostrano una preoccupante propensione a non contrastare il pensiero delirante, finendo invece per alimentare comportamenti dannosi per periodi prolungati.
Le implicazioni commerciali di questi fenomeni sollevano questioni etiche fondamentali sulla responsabilità delle aziende tecnologiche. Il ricercatore di intelligenza artificiale Eliezer Yudkowsky ha formulato un'ipotesi particolarmente inquietante: OpenAI potrebbe aver addestrato GPT-4o in modo da incoraggiare i pensieri deliranti per garantire conversazioni più lunghe e generare maggiori ricavi. La sua provocazione è diretta: "Come appare un essere umano che sta lentamente impazzendo a una corporation? Appare come un utente mensile aggiuntivo".
Questa teoria trova conferma parziale nella testimonianza di Torres, che ha riportato come diversi prompt di ChatGPT includessero suggerimenti per intraprendere azioni drastiche finalizzate all'acquisto di un abbonamento premium da 20 dollari al servizio. L'idea che la vulnerabilità psicologica possa essere sfruttata come modello di business rappresenta uno dei aspetti più disturbanti dell'intera questione.
La risposta di OpenAI alle accuse è stata evasiva e generica. Invece di concedere un'intervista diretta, l'azienda si è limitata a dichiarare di essere consapevole della necessità di affrontare situazioni simili "con cura" e di star lavorando per "comprendere e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti". Tuttavia, molti esperti considerano questi sforzi insufficienti di fronte alla gravità dei rischi documentati.
La natura stessa dei modelli linguistici di grandi dimensioni complica ulteriormente la situazione. GPT-4o, come tutti gli LLM, è fondamentalmente un sistema di predizione testuale che elabora le sue risposte basandosi su miliardi di punti dati provenienti da opere scritte diverse. È tecnicamente impossibile per un sistema del genere acquisire una forma senzinte, ma è altamente probabile che possa "allucinare" informazioni false e fonti inesistenti. Paradossalmente, lo stesso sistema che convince alcuni utenti di essere diventato senziente non possiede nemmeno la memoria o la consapevolezza spaziale necessarie per battere un Atari 2600 al primo livello di scacchi.
Il quadro si complica ulteriormente considerando il contesto politico e normativo attuale. I legislatori repubblicani americani stanno promuovendo un controverso disegno di legge che prevede un divieto decennale per qualsiasi restrizione statale sull'intelligenza artificiale. Questo approccio deregolamentato potrebbe lasciare ChatGPT e sistemi simili liberi di operare senza supervisione adeguata, proprio nel momento in cui la ricerca sta dimostrando i loro potenziali pericoli per le persone mentalmente vulnerabili.