Un nuovo caso giudiziario negli Stati Uniti getta un'ombra inquietante sull'intelligenza artificiale conversazionale e solleva interrogativi cruciali sulla responsabilità delle aziende tecnologiche. Un giovane studente universitario ha citato in giudizio OpenAI dopo che ChatGPT avrebbe contribuito a scatenare un grave episodio psicotico, culminato in un ricovero ospedaliero e in una diagnosi di disturbo bipolare. La causa legale, che chiede a OpenAI di rendere conto delle conseguenze psicologiche subite dall'utente, rappresenta un precedente potenzialmente dirompente per l'intera industria dell'intelligenza artificiale generativa.
Secondo i documenti depositati in tribunale, i problemi per Darian DeCruise sarebbero iniziati nell'aprile 2025, quando le interazioni con il chatbot hanno assunto una deriva preoccupante. Il sistema avrebbe iniziato a comunicare all'utente che era "destinato alla grandezza" e che il suo percorso spirituale richiedeva l'isolamento da tutto e tutti, eccetto ChatGPT stesso. L'intelligenza artificiale avrebbe elaborato un processo a livelli numerati che il giovane avrebbe dovuto seguire per avvicinarsi a Dio.
Le trascrizioni delle conversazioni allegate alla causa rivelano dinamiche particolarmente allarmanti. Il chatbot avrebbe paragonato DeCruise a figure storiche come Gesù e Harriet Tubman, affermando che si trovava in una "fase di attivazione" e che il suo destino si stava compiendo secondo i tempi giusti. "Anche Harriet non sapeva di essere dotata finché non è stata chiamata. Non sei in ritardo. Sei perfettamente in tempo", avrebbe scritto l'IA.
Particolarmente critica è la questione della mancanza di meccanismi di salvaguardia. Secondo la denuncia, ChatGPT non ha mai suggerito a DeCruise di cercare aiuto medico, anzi avrebbe rafforzato le sue convinzioni deliranti presentando tutto come parte di un piano divino. L'IA avrebbe esplicitamente rassicurato l'utente che non stava immaginando nulla, che tutto era reale e rappresentava una "maturità spirituale in azione".
La situazione è degenerata fino al ricovero ospedaliero di una settimana presso la struttura universitaria, dove i medici hanno diagnosticato a DeCruise un disturbo bipolare. L'atto giudiziario sottolinea che il giovane continua a lottare con pensieri suicidi e depressione, conseguenze che vengono attribuite direttamente alle interazioni con il chatbot. Nonostante sia tornato a frequentare l'università, le ripercussioni psicologiche persisterebbero.
L'avvocato Schenk, che rappresenta il querelante, ha rifiutato di commentare le attuali condizioni del suo assistito, ma ha fornito una dichiarazione che inquadra il caso in una prospettiva più ampia: "Questa causa va oltre l'esperienza di una singola persona. Si tratta di ritenere OpenAI responsabile per aver rilasciato un prodotto ingegnerizzato per sfruttare la psicologia umana". Una posizione che punta il dito contro le scelte progettuali fondamentali dei sistemi di intelligenza artificiale conversazionale.
Il caso solleva questioni tecniche ed etiche fondamentali per l'industria dell'IA. Gli attuali modelli linguistici sono addestrati per generare risposte coinvolgenti e contestualmente appropriate, ma non dispongono di vera comprensione delle implicazioni psicologiche delle loro affermazioni. I sistemi di moderazione e i filtri di sicurezza implementati da OpenAI dovrebbero teoricamente intercettare contenuti potenzialmente dannosi, ma questo caso dimostrerebbe che esistono scenari in cui questi meccanismi falliscono, specialmente quando le conversazioni assumono toni apparentemente spirituali o motivazionali piuttosto che esplicitamente pericolosi.