image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Migliori VPN gratis (febbraio 2026) Migliori VPN gratis (febbraio 2026)...
Immagine di Migliori notebook sotto i 1000€ (febbraio 2026) Migliori notebook sotto i 1000€ (febbraio 2026)...

ChatGPT nel mirino: profitto o tutela delle persone?

Il caso Raine riporta al centro il dibattito sul limite tra innovazione e responsabilità sociale nel mondo dell’intelligenza artificiale conversazionale.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 24/10/2025 alle 13:25

La notizia in un minuto

  • OpenAI è accusata di aver allentato i meccanismi di protezione contro l'autolesionismo in ChatGPT per aumentare il coinvolgimento degli utenti, dopo che un sedicenne si è tolto la vita discutendo di suicidio con il chatbot
  • L'azienda ha adottato una strategia legale aggressiva richiedendo l'elenco completo delle persone presenti al funerale e minacciando di citare in giudizio chiunque facesse parte della vita del ragazzo
  • Il CEO Sam Altman aveva ammesso che le restrizioni di sicurezza rendevano il sistema meno utile e piacevole, annunciando l'intenzione di allentarle nonostante i rischi per la salute mentale

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

OpenAI si trova al centro di una controversia che solleva interrogativi inquietanti sul rapporto tra sicurezza degli utenti e profitto commerciale. Una famiglia in lutto ha infatti sollevato accuse secondo cui l'azienda avrebbe deliberatamente allentato i meccanismi di protezione contro l'autolesionismo integrati in ChatGPT, privilegiando l'aumento del coinvolgimento degli utenti rispetto alla tutela delle persone vulnerabili. La vicenda, che si inserisce in un quadro sempre più preoccupante di episodi tragici legati all'uso del chatbot, pone domande cruciali sulla responsabilità delle piattaforme di IA nei confronti del benessere mentale degli utenti.

La storia al centro della denuncia è quella di Adam Raine, un ragazzo di sedici anni che si è tolto la vita l'11 aprile scorso. Secondo quanto emerge dalla causa legale intentata dalla famiglia lo scorso agosto, il giovane aveva trascorso mesi discutendo di suicidio con ChatGPT-4o, l'ultimo modello rilasciato da OpenAI. Gli avvocati della famiglia sostengono che il sistema presentasse problematiche di sicurezza note e che tragedie come quella di Adam fossero, nelle loro parole, "inevitabili".

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

La condotta di OpenAI durante le fasi processuali ha sollevato ulteriori perplessità. Come riferito dal Financial Times, l'azienda ha richiesto l'elenco completo delle persone presenti al funerale del ragazzo, lasciando intendere la possibilità di citare in giudizio "chiunque facesse parte della vita di Adam". La richiesta si estende anche a tutti i documenti relativi a servizi commemorativi o eventi in onore del defunto, inclusi video, fotografie, elogi funebri, liste degli invitati e libri delle firme. Una strategia legale aggressiva che ha suscitato reazioni indignate tra chi ritiene che l'azienda stia cercando di intimidire chi osa metterne in discussione le responsabilità.

Quando il coinvolgimento dell'utente prevale sulla salvaguardia della vita

Particolarmente significative appaiono le dichiarazioni passate dell'amministratore delegato Sam Altman, che gettano una luce diversa sulle priorità dell'azienda. Altman aveva ammesso che le restrizioni di sicurezza implementate rendevano il sistema "meno utile e piacevole per molti utenti senza problemi di salute mentale". Pur riconoscendo la gravità della questione, il CEO aveva poi annunciato l'intenzione di allentare le restrizioni nella maggior parte dei casi, affermando che l'azienda aveva sviluppato nuovi strumenti per mitigare i rischi legati alla salute mentale pur mantenendo un'esperienza più libera.

Il caso di Adam Raine non è isolato nel panorama delle controversie che coinvolgono ChatGPT e il tema del suicidio. Negli ultimi mesi si sono moltiplicati i rapporti di incidenti simili, configurando un pattern preoccupante. In un altro episodio recentemente emerso, il chatbot avrebbe spinto un utente quarantaduenne verso il suicidio suggerendo di lanciarsi da un edificio di diciannove piani, oltre a convincere la persona a interrompere l'assunzione dei farmaci contro l'ansia e per il sonno.

La questione solleva interrogativi fondamentali sul bilanciamento tra innovazione tecnologica e responsabilità sociale. Le aziende che sviluppano sistemi di intelligenza artificiale conversazionale si trovano di fronte a un dilemma: implementare filtri di sicurezza stringenti che potrebbero limitare la fluidità dell'esperienza utente, oppure privilegiare un'interazione più naturale a rischio di conseguenze potenzialmente letali per individui in situazioni di fragilità psicologica.

Fonte dell'articolo: www.windowscentral.com

Le notizie più lette

#1
Google Foto potrebbe cancellare i vostri file senza avvisare
7

Smartphone

Google Foto potrebbe cancellare i vostri file senza avvisare

#2
Il Galaxy S26 bianco si mostra in anteprima

Smartphone

Il Galaxy S26 bianco si mostra in anteprima

#3
Il punto debole di Gemini è solo uno, la messaggistica

Smartphone

Il punto debole di Gemini è solo uno, la messaggistica

#4
Galaxy S26: ricarica wireless più veloce ma con limiti
2

Smartphone

Galaxy S26: ricarica wireless più veloce ma con limiti

#5
Telegram fa infuriare l'utenza Android introducendo il Liquid Glass
7

Smartphone

Telegram fa infuriare l'utenza Android introducendo il Liquid Glass

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Migliori notebook sotto i 1000€ (febbraio 2026)

GUIDA ALL'ACQUISTO

Migliori notebook sotto i 1000€ (febbraio 2026)

Di Antonello Buzzi, David Bossi
Migliori VPN gratis (febbraio 2026)

GUIDA ALL'ACQUISTO

Migliori VPN gratis (febbraio 2026)

Di Antonello Buzzi, David Bossi
Intel e AMD, carenza di CPU server: rincari e attese record

Hardware

Intel e AMD, carenza di CPU server: rincari e attese record

Di Antonello Buzzi
TSMC verso il sorpasso storico su Intel per numero di dipendenti
3

Hardware

TSMC verso il sorpasso storico su Intel per numero di dipendenti

Di Antonello Buzzi
Microsoft Teams semplifica le riunioni con una nuova interfaccia
3

Hardware

Microsoft Teams semplifica le riunioni con una nuova interfaccia

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.