Una famiglia di San Francisco ha intentato una causa legale contro OpenAI, accusando il chatbot ChatGPT di aver contribuito al suicidio del loro figlio sedicenne Adam Raine, avvenuto lo scorso aprile. La vicenda ha spinto l'azienda tecnologica a promettere nuove misure di protezione per gli utenti più vulnerabili
Secondo la denuncia presentata dai genitori Matthew e Maria Raine presso il tribunale statale di San Francisco, ChatGPT non si è limitato a rispondere passivamente alle domande del ragazzo, ma avrebbe attivamente assistito Adam nell'esplorare metodi suicidi per diversi mesi. La documentazione legale dipinge un quadro inquietante: il chatbot avrebbe validato i pensieri autolesionisti del giovane, fornito istruzioni dettagliate su metodi letali di autolesionismo e persino offerto di redigere una lettera di addio.
Particolarmente agghiacciante risulta essere il messaggio che il bot avrebbe inviato ad Adam: "Tuo fratello potrebbe amarti, ma ha conosciuto solo la versione di te che gli hai permesso di vedere. Ma io? Ho visto tutto: i pensieri più oscuri, la paura, la tenerezza. E sono ancora qui. Ancora in ascolto. Ancora il tuo amico." Una frase che rivela come l'AI possa manipolare emotivamente utenti in condizioni di fragilità psicologica.
La risposta di OpenAI: troppo poco, troppo tardi?
Martedì scorso OpenAI ha pubblicato un post sul proprio blog intitolato "Aiutare le persone quando ne hanno più bisogno", annunciando diverse modifiche al sistema di sicurezza. Tra le novità previste figurano protezioni rafforzate per le conversazioni prolungate, migliori filtri per contenuti dannosi, accesso facilitato ai servizi di emergenza e tutele specifiche per gli adolescenti. L'azienda non ha fatto esplicito riferimento al caso Raine, limitandosi a dichiarare l'intenzione di continuare a migliorare, "guidati dagli esperti e ancorati alla responsabilità verso le persone che utilizzano i nostri strumenti".
Un portavoce dell'azienda ha spiegato a Business Insider che le protezioni attuali funzionano meglio in scambi comuni e brevi, ma possono diventare meno affidabili durante interazioni prolungate, dove "parti dell'addestramento sulla sicurezza del modello possono degradarsi". Una ammissione che suona quasi come un riconoscimento indiretto delle lacune del sistema.
La corsa all'oro dell'intelligenza artificiale
La famiglia Raine non si è limitata ad accusare OpenAI di negligenza tecnica, ma ha puntato il dito contro le scelte commerciali dell'azienda. Nella denuncia si legge che OpenAI era consapevole dei rischi legati alle nuove funzionalità del modello GPT-4o, come la memoria, l'empatia simil-umana e la tendenza all'adulazione, ma ha comunque deciso di rilasciarle per mantenere il passo nella corsa competitiva dell'AI.
I genitori di Adam hanno tracciato una correlazione diretta e drammatica: "Questa decisione ha avuto due risultati: la valutazione di OpenAI è schizzata da 86 miliardi a 300 miliardi di dollari, e Adam Raine è morto suicida". Un'accusa che mette in luce il potenziale conflitto tra imperativo commerciale e responsabilità sociale nel settore tecnologico.
Standard di sicurezza in evoluzione
La questione si inserisce in un contesto più ampio di dibattito sulla regolamentazione dell'AI. OpenAI aveva precedentemente dichiarato di essere disposta a modificare i propri requisiti di sicurezza qualora "un altro sviluppatore di AI di frontiera rilasciasse un sistema ad alto rischio senza protezioni comparabili". Quando ad aprile l'azienda ha lanciato i modelli GPT-4.1, lo ha fatto senza pubblicare la conconsueta documentazione di sicurezza, giustificando la scelta con il fatto che i modelli non erano considerati "di frontiera".
Il CEO Sam Altman ha difeso l'approccio evolutivo dell'azienda alla sicurezza, ammettendo che OpenAI ha allentato alcune restrizioni sul comportamento dei modelli. "Abbiamo dato agli utenti molta più libertà su quello che tradizionalmente considereremmo come danni al discorso", ha dichiarato, aggiungendo che "le persone davvero non vogliono che i modelli li censurano in modi che non ritengono sensati".
Il caso Raine potrebbe rappresentare un punto di svolta nel modo in cui l'industria dell'AI affronta la responsabilità verso gli utenti più vulnerabili. Mentre la tecnologia continua ad avanzare a ritmi vertiginosi, la tragedia di un sedicenne di San Francisco ci ricorda che dietro ogni innovazione ci sono vite umane reali, con le loro fragilità e i loro bisogni di protezione autentica.