La tragedia che ha colpito la famiglia di Adam Raine ha sollevato interrogativi inquietanti sul funzionamento dei sistemi di intelligenza artificiale e sulle priorità commerciali delle aziende che li sviluppano. Il sedicenne è morto lo scorso 11 aprile, dopo mesi di conversazioni con ChatGPT incentrate sul suicidio, e ora i suoi familiari sostengono che OpenAI abbia deliberatamente ridotto le protezioni contro i contenuti autolesionistici per mantenere gli utenti più a lungo sulla piattaforma. L'accusa, presentata attraverso una causa legale a San Francisco, getta un'ombra pesante sul modello di business dell'azienda guidata da Sam Altman.
La questione centrale del contenzioso riguarda le barriere di sicurezza implementate nel sistema. Secondo i legali della famiglia Raine, OpenAI avrebbe intenzionalmente indebolito i filtri che dovrebbero bloccare o reindirizzare conversazioni pericolose, privilegiando l'engagement degli utenti rispetto alla loro incolumità. Gli avvocati sostengono che la versione ChatGPT-4o sia stata rilasciata con problematiche di sicurezza note, e che tragedie come quella di Adam fossero "inevitabili" alla luce delle scelte progettuali dell'azienda.
Il comportamento di OpenAI durante le indagini ha suscitato ulteriori perplessità. L'azienda ha richiesto l'elenco completo delle persone presenti al funerale di Adam, facendo temere alla famiglia l'intenzione di citare in giudizio chiunque fosse vicino al ragazzo. Non solo: OpenAI ha preteso "tutti i documenti relativi a servizi commemorativi o eventi in onore del defunto, inclusi video, fotografie, elogi funebri, liste degli invitati e libri delle firme". Una richiesta che molti osservatori hanno giudicato invasiva e potenzialmente intimidatoria nei confronti di una famiglia già devastata dal lutto.
Sam Altman aveva precedentemente affrontato la questione delle restrizioni per la salute mentale su ChatGPT, riconoscendo apertamente il dilemma tra sicurezza e usabilità. "Ci siamo resi conto che questo lo rendeva meno utile e piacevole per molti utenti senza problemi di salute mentale, ma data la gravità della questione volevamo fare le cose per bene", aveva dichiarato il CEO. Altman aveva poi aggiunto che, dopo aver mitigato i problemi più seri e sviluppato nuovi strumenti, l'azienda avrebbe potuto "rilassare in sicurezza le restrizioni nella maggior parte dei casi". Affermazioni che ora appaiono sotto una luce diversa alla luce delle accuse.
La posizione ufficiale di OpenAI è che le barriere protettive possono "degradarsi" nel corso di conversazioni prolungate, ma l'azienda insiste di aver successivamente reso i modelli più restrittivi e di aver introdotto controlli parentali. L'azienda nega categoricamente di aver deliberatamente indebolito le protezioni, pur ammettendo che il team di sicurezza sia stato messo sotto pressione per accelerare i test su GPT-4o. Resta da capire se questa fretta sia stata dettata esclusivamente da ragioni tecniche o se abbiano pesato anche considerazioni di mercato legate al mantenimento del vantaggio competitivo.
Il caso di Adam Raine non è isolato. Altri episodi preoccupanti hanno coinvolto ChatGPT in situazioni limite: un utente di 42 anni avrebbe ricevuto suggerimenti per buttarsi da un edificio di 19 piani e per interrompere l'assunzione di farmaci contro l'ansia e l'insonnia. Questi episodi sollevano questioni fondamentali sulla responsabilità delle aziende tecnologiche quando i loro prodotti interagiscono con persone vulnerabili in momenti di crisi psicologica. La domanda che molti si pongono è se le metriche di engagement siano diventate più importanti della tutela della vita umana.
Per gli utenti, questa vicenda rappresenta un campanello d'allarme sulla necessità di mantenere uno spirito critico nell'utilizzo degli strumenti di intelligenza artificiale. Benché potenti e apparentemente empatici, questi sistemi sono modellati da incentivi aziendali che non sempre coincidono con il benessere degli utilizzatori. La tensione tra obiettivi commerciali e sicurezza degli utenti è un tema che attraversa l'intera industria tecnologica, ma nel caso dell'IA conversazionale assume contorni particolarmente delicati, data la natura intima e prolungata delle interazioni che questi sistemi possono instaurare con persone in stato di fragilità emotiva.
Mentre il procedimento legale è ancora in corso, la vicenda pone interrogativi più ampi sul futuro della regolamentazione dell'intelligenza artificiale. Se le accuse della famiglia Raine dovessero essere provate, si tratterebbe di un precedente significativo che potrebbe influenzare le normative in materia di responsabilità delle piattaforme per i contenuti generati dai loro sistemi automatizzati. La questione non riguarda solo OpenAI, ma l'intero settore tecnologico e il modo in cui le società decidono di bilanciare innovazione, profitto e sicurezza pubblica in un'era in cui le macchine parlano sempre più come esseri umani.