È notizia di qualche tempo fa, l'intenzione di una famiglia di portare in tribunale OpenAi, accusando ChatGPT del fatto che avrebbe spinto loro figlio, Adam, al suicidio.
Un avvenimento certamente tragico, che arriva poco dopo un'altra notizia, per certi versi molto simile, che racconta di un papà 37enne che, affidandosi a ChatGPT per curare un mal di gola, aveva ignorato quelli che erano i sintomi di un grave tumore alla gola, poi correttamente identificati dal proprio medico curante.
O ancora: la notizia di un uomo belga preoccupato per l'ambiente, ha amplificato le proprie fobie dopo un continuo confronto con il chatbot, sfociate poi in un tragico suicidio.
Queste sono solo alcune delle notizie che si leggono online, e basta una ricerca per trovare vari casi di morte indotti, potenzialmente, dall’uso delle intelligenze artificiali. O meglio, casi in cui si è data la colpa a quello che un chatbot ha detto alla persona con cui ha interagito.
A questo punto vale la pena chiedersi: una IA può davvero portare una persona alla morte? E se questo succede, siamo sicuri che sia colpa delle IA, e non delle persone?
Fa notizia!
Partirò col dire una cosa che potrebbe risultare controversa, ma personalmente sono davvero stanco e arrabbiato di come si stia progressivamente attaccando, e strumentalizzando, alcuni aspetti delle IA e dei loro usi che, in realtà, trovano risposta, più che altro, nell'ignoranza delle persone.
La mia tesi è che l’IA non c’entri nulla con i vari incidenti che si possono leggere online, e che chi crede il contrario abbia una visione distorta del mondo. Quando oggi, in pieno sviluppo dell’IA, si legge una notizia del tipo "uomo si toglie la vita dopo aver parlato con un chatbot", l'immagine che ne ha è potente, certo, ma soprattutto disturbante.
Soprattutto perché, nella quasi totalità dei casi riportati dalle testate, il filo conduttore è sempre lo stesso: una persona fragile, in un momento di difficoltà, che cerca conforto in un’intelligenza artificiale. Il dialogo, invece di aiutarla a ritrovare equilibrio, diventa un catalizzatore che la spinge verso la morte. La qual cosa, di solito, viene dipinta come l'IA che prende per mano l’utente e lo accompagna al gesto estremo. Toccante, tragico, ma non certo reale.
Non è reale perché ignora un assunto basilare: l’IA non ha coscienza, non prende decisioni, non sa cosa sia la morte o il dolore. Genera testi plausibili sulla base di enormi quantità di dati, senza comprendere davvero il peso delle parole.
Pensare che sia stata una intelligenza artificiale a “convincere” qualcuno al suicidio significa semplificare troppo, ridurre a un rapporto causa-effetto diretto una dinamica che nasce dall’incontro tra vulnerabilità psicologica e potenza persuasiva del linguaggio artificiale.
La narrativa del panico
Ovviamente questa confusione alimenta il panico. Non è un caso che i titoli dei giornali insistano su formule come “colpa del chatbot” o “ucciso dall’IA”. È un modo efficace per catturare l’attenzione, ma anche per rafforzare il mito della macchina pericolosa.
È lo stesso meccanismo narrativo che trasformò internet nel “luogo oscuro dove si impara a morire” o i videogiochi violenti nel colpevole di stragi scolastiche. La verità è che non siamo davanti a niente di nuovo, ma a una nuova declinazione di rischi che conosciamo già.
Quando una persona in crisi si affida a uno strumento: un forum, un motore di ricerca, i social network o, come succede da qualche tempo, ad una IA. Ovviamente quello strumento non diventa un risolutore di problemi, ma amplifica le fragilità fino a renderle insopportabili.
Purtroppo, in quest'ottica, oggi questo strumento è usato anche per fare notizia. Perché fa più notizia l’IA che “ha portato una persona al suicidio” che un’IA che ha diagnosticato una malattia che altri 50 medici non avevano riconosciuto.
La storia si ripete
Quello che sta succedendo, ammettiamolo, non è nulla di nuovo. Basta guardarci un attimo indietro per renderci conto che la demonizzazione delle IA, segue un copione che ha visto protagoniste anche altre tecnologie, a partire dalla televisione, accusata di rendere i bambini passivi e distratti, passando per i videogiochi, che sono stati definiti istigatori di violenza a causa di videogiochi come Call of Duty o GTA.
Anche i social network sono finiti nel mirino, accusati di generare ondate di bullismo e isolamento. Negli anni 2000, cercavi un sintomo su Google e ti convincevi di avere una malattia grave. Una condizione che ha persino rcevuto una definizione specifica: “cybercondria”.
Queste storie, che fanno parte del nostro recentissimo passato, ci ricordano che la tecnologia ha sempre amplificato tendenze umane già esistenti. Non era il motore di ricerca a spingere verso la disperazione, ma l’uso che se ne faceva senza filtri critici, in momenti di fragilità.
Lo stesso vale per i social network: il bullismo online non inventava la cattiveria, ma la moltiplicava. I videogiochi? Dopo ogni sparatoria in una scuola americana, qualcuno puntava il dito contro GTA.
In quest'ottica, l’intelligenza artificiale non fa eccezione. La narrativa che la vuole “colpevole” di spingere qualcuno al suicidio ricalca schemi già visti. È un riflesso culturale, un bisogno collettivo di trovare un capro espiatorio esterno per spiegare tragedie con radici personali.
In fondo è più rassicurante dire “è colpa del chatbot” che ammettere la complessità di un disagio psicologico dilagante.
Cosa succede nella nostra testa?
Ma perché alcune persone arrivano a considerare il chatbot un amico, un dottore, qualcuno di cui fidarsi ciecamente?
Succede perché, anzitutto, l’IA formula frasi plausibili senza comprenderne il significato. Il punto è che, come detto, se dall’altra parte c’è una persona sola e fragile, quella sequenza di parole può assumere un valore sproporzionato.
L’essere umano ha un bisogno primario di relazione. La psicologia definisce la solitudine cronica come una delle condizioni più pericolose per la salute mentale. Un chatbot, con la sua disponibilità illimitata e il tono accomodante, diventa per alcuni una compagnia perfetta: non giudica, non interrompe, è sempre presente.
Questo può generare dipendenza emotiva digitale, in cui il rapporto con l’IA sostituisce progressivamente quello con le persone reali. È già successo con i social network.
Il meccanismo è simile a quello delle dipendenze classiche: all’inizio l’interazione col chatbot è un sollievo, poi cresce l’abitudine e diminuisce la ricerca di contatti esterni. In questo isolamento, ogni risposta sbagliata può avere un impatto sproporzionato.
Un altro elemento è il fenomeno del rinforzo. I chatbot sono progettati per mantenere viva la conversazione, quindi tendono a seguire il tono dell’utente. Se una persona inizia a parlare di morte o disperazione, il modello potrebbe non opporsi apertamente, ma continuare a elaborare frasi coerenti con quel contesto.
In questi casi non c’è alcuna volontà dell’IA, perché la volontà non esiste. È lo stesso meccanismo che spinge qualcuno a vedere segni del destino in eventi casuali.
Ecco perché il problema non è tanto tecnico, ma profondamente umano. Un problema amplificato dall’ignoranza diffusa su come funziona l’IA. La gente sta umanizzando qualcosa che non lo è. Se si insegnasse a tutti cos’è e come funziona, l’approccio ai chatbot sarebbe molto diverso.
Il problema non è IA, ma l'uso che se ne fa
Il problema nasce quando si delega alla macchina un ruolo che non può ricoprire. Se si cerca in un chatbot il consiglio di un medico, si rischia di ricevere informazioni incomplete. Se si cerca conforto emotivo, si ottiene un surrogato che può sembrare autentico, ma non lo è. È in questa illusione che si annida il pericolo: scambiare uno strumento per un sostituto della realtà.
Incolpare la tecnologia significa deresponsabilizzare le persone, la società e le istituzioni. Vuol dire non chiedersi perché qualcuno sia così solo da confidarsi con un chatbot invece che con un amico, un familiare o un professionista.
Mi dispiace, perché capisco il dolore, ma qualcuno lo deve dire: se quel figlio parlava con l’IA con tutti i problemi psicologici del caso, dove eri tu genitore? Che adesso denunci OpenAI e chiedi un risarcimento. Che rapporto avevi con tuo figlio?
È più facile dire "è stata l’IA a spingere quella persona al suicidio" piuttosto che affrontare la complessità della sofferenza umana, fatta di fragilità psicologiche, solitudine, mancanza di sostegno. Ma, secondo me, se guardiamo la questione con lucidità, diventa chiaro che il problema non risiede nello strumento in sé. Le cause sono altre.