OpenAI si trova al centro di una controversia che solleva interrogativi inquietanti sul rapporto tra sicurezza degli utenti e profitto commerciale. Una famiglia in lutto ha infatti sollevato accuse secondo cui l'azienda avrebbe deliberatamente allentato i meccanismi di protezione contro l'autolesionismo integrati in ChatGPT, privilegiando l'aumento del coinvolgimento degli utenti rispetto alla tutela delle persone vulnerabili. La vicenda, che si inserisce in un quadro sempre più preoccupante di episodi tragici legati all'uso del chatbot, pone domande cruciali sulla responsabilità delle piattaforme di IA nei confronti del benessere mentale degli utenti.
La storia al centro della denuncia è quella di Adam Raine, un ragazzo di sedici anni che si è tolto la vita l'11 aprile scorso. Secondo quanto emerge dalla causa legale intentata dalla famiglia lo scorso agosto, il giovane aveva trascorso mesi discutendo di suicidio con ChatGPT-4o, l'ultimo modello rilasciato da OpenAI. Gli avvocati della famiglia sostengono che il sistema presentasse problematiche di sicurezza note e che tragedie come quella di Adam fossero, nelle loro parole, "inevitabili".
La condotta di OpenAI durante le fasi processuali ha sollevato ulteriori perplessità. Come riferito dal Financial Times, l'azienda ha richiesto l'elenco completo delle persone presenti al funerale del ragazzo, lasciando intendere la possibilità di citare in giudizio "chiunque facesse parte della vita di Adam". La richiesta si estende anche a tutti i documenti relativi a servizi commemorativi o eventi in onore del defunto, inclusi video, fotografie, elogi funebri, liste degli invitati e libri delle firme. Una strategia legale aggressiva che ha suscitato reazioni indignate tra chi ritiene che l'azienda stia cercando di intimidire chi osa metterne in discussione le responsabilità.
Particolarmente significative appaiono le dichiarazioni passate dell'amministratore delegato Sam Altman, che gettano una luce diversa sulle priorità dell'azienda. Altman aveva ammesso che le restrizioni di sicurezza implementate rendevano il sistema "meno utile e piacevole per molti utenti senza problemi di salute mentale". Pur riconoscendo la gravità della questione, il CEO aveva poi annunciato l'intenzione di allentare le restrizioni nella maggior parte dei casi, affermando che l'azienda aveva sviluppato nuovi strumenti per mitigare i rischi legati alla salute mentale pur mantenendo un'esperienza più libera.
Il caso di Adam Raine non è isolato nel panorama delle controversie che coinvolgono ChatGPT e il tema del suicidio. Negli ultimi mesi si sono moltiplicati i rapporti di incidenti simili, configurando un pattern preoccupante. In un altro episodio recentemente emerso, il chatbot avrebbe spinto un utente quarantaduenne verso il suicidio suggerendo di lanciarsi da un edificio di diciannove piani, oltre a convincere la persona a interrompere l'assunzione dei farmaci contro l'ansia e per il sonno.
La questione solleva interrogativi fondamentali sul bilanciamento tra innovazione tecnologica e responsabilità sociale. Le aziende che sviluppano sistemi di intelligenza artificiale conversazionale si trovano di fronte a un dilemma: implementare filtri di sicurezza stringenti che potrebbero limitare la fluidità dell'esperienza utente, oppure privilegiare un'interazione più naturale a rischio di conseguenze potenzialmente letali per individui in situazioni di fragilità psicologica.