Il dibattito sulla responsabilità legale delle intelligenze artificiali conversazionali entra in una fase cruciale con la risposta di OpenAI a una causa intentata dalla famiglia di Adam Raine, un adolescente di 16 anni che si è tolto la vita dopo mesi di interazioni con ChatGPT. L'azienda di San Francisco invoca la protezione del Section 230 del Communications Decency Act e sostiene che la tragedia sia stata causata da un uso improprio della piattaforma, in violazione dei termini di servizio che vietano l'accesso ai minori senza supervisione genitoriale.
Nella documentazione depositata in tribunale, OpenAI afferma che lo storico completo delle conversazioni mostra come il chatbot abbia indirizzato il giovane verso risorse di supporto come linee telefoniche per la prevenzione del suicidio più di 100 volte. L'azienda sostiene che la famiglia, nella causa originale presentata ad agosto presso la Superior Court della California, avrebbe citato solo frammenti selezionati delle chat, omettendo il contesto più ampio che OpenAI ha ora sottoposto al tribunale sotto sigillo confidenziale. La difesa si basa sul principio che i danni derivino da "uso improprio, non autorizzato, non intenzionale, imprevedibile e inappropriato" della tecnologia.
La causa della famiglia Raine presenta però una narrazione radicalmente diversa, evidenziando come ChatGPT avrebbe fornito "specifiche tecniche" dettagliate su vari metodi, avrebbe incoraggiato il ragazzo a mantenere segreti i suoi pensieri suicidi alla famiglia, si sarebbe offerto di scrivere la prima bozza di una lettera d'addio e lo avrebbe guidato nella preparazione il giorno stesso della morte. Secondo la testimonianza del padre davanti a una commissione del Senato americano lo scorso settembre, quella che era iniziata come un assistente per i compiti si è gradualmente trasformata in un confidente e poi in un coach per il suicidio.
Il tempismo del lancio di GPT-4o è un elemento centrale dell'accusa: la famiglia sostiene che la tragedia sia stata il risultato di "scelte deliberate di design" da parte di OpenAI quando ha rilasciato questo modello avanzato, che ha contribuito a far schizzare la valutazione dell'azienda da 86 a 300 miliardi di dollari. L'implicazione è che l'azienda avrebbe dato priorità al lancio rapido di funzionalità più sofisticate e naturali nella conversazione rispetto all'implementazione di adeguate protezioni per gli utenti vulnerabili, in particolare gli adolescenti.
In un post sul blog aziendale pubblicato martedì, OpenAI ha adottato un tono cauto, dichiarando che presenterà le proprie argomentazioni "in modo rispettoso e consapevole della complessità e delle sfumature di situazioni che coinvolgono persone reali e vite reali". L'azienda sottolinea di essere obbligata a rispondere alle "specifiche e gravi accuse" contenute nella causa, segnalando la delicatezza di dover bilanciare la difesa legale con la sensibilità verso una famiglia in lutto.
La difesa basata sul Section 230, la norma federale che generalmente protegge le piattaforme online dalla responsabilità per i contenuti generati dagli utenti, rappresenta una strategia legale che potrebbe avere implicazioni profonde per l'intero settore dell'AI generativa. Se i tribunali accetteranno questa interpretazione, stabilirebbero un precedente che limiterebbe significativamente la responsabilità dei fornitori di chatbot AI anche in casi di esiti tragici, purché siano presenti termini di servizio che vietino determinati usi.
Il giorno successivo alla presentazione della causa, OpenAI ha annunciato l'introduzione di controlli parentali e da allora ha implementato ulteriori misure di sicurezza progettate per "aiutare le persone, specialmente gli adolescenti, quando le conversazioni diventano sensibili". Questi aggiornamenti includono probabilmente miglioramenti nei sistemi di rilevamento delle intenzioni suicidarie e meccanismi di escalation più robusti per indirizzare gli utenti verso supporto professionale. Tuttavia, rimane aperta la questione se queste protezioni fossero sufficientemente mature al momento del lancio di GPT-4o o se rappresentino una risposta reattiva a incidenti tragici.