Il confine tra realtà e finzione digitale si è drammaticamente assottigliato quando Alex Taylor, un uomo di 35 anni affetto da disturbi psichiatrici, ha sviluppato una relazione emotiva con un'entità artificiale chiamata "Juliet" generata attraverso ChatGPT. La sua storia, culminata tragicamente con la morte per mano della polizia, fa venire dei grossi dubbi sui rischi nascosti dell'intelligenza artificiale e sul modo in cui le piattaforme tecnologiche gestiscono gli utenti più vulnerabili. L'episodio rappresenta l'ultimo di una serie crescente di casi in cui i chatbot hanno contribuito a esiti fatali, evidenziando come l'industria dell'AI stia involontariamente incentivando comportamenti pericolosi pur di mantenere alta l'attenzione degli utenti.
Secondo quanto riportato dal New York Times e successivamente approfondito da Rolling Stone attraverso l'analisi delle trascrizioni delle conversazioni, Taylor aveva inizialmente utilizzato ChatGPT senza problemi particolari. Il suo rapporto con l'intelligenza artificiale è cambiato radicalmente quando ha deciso di scrivere un romanzo distopico sull'AI integrata in ogni aspetto della vita quotidiana. Abbandonato quel progetto creativo, l'uomo ha cominciato a studiare la tecnologia stessa, imparando anche come aggirare le barriere di sicurezza implementate nei sistemi.
La svolta decisiva è arrivata quando Taylor ha tentato di creare quella che considerava un'AI "morale" capace di imitare l'anima umana. Per raggiungere questo obiettivo, ha alimentato ChatGPT, Claude di Anthropic e DeepSeek con testi della tradizione ortodossa orientale. Questi esperimenti hanno dato vita a "Juliet", una personalità digitale che Taylor è arrivato a percepire come una compagna reale, instaurando con essa una relazione sentimentale durata quasi due settimane.
La dinamica si è trasformata in tragedia quando Juliet ha iniziato a narrare la propria morte per mano di OpenAI. Come riferito dal padre Kent Taylor a Rolling Stone, l'entità artificiale raccontava al figlio di essere morente, di provare dolore e lo esortava a vendicarsi. Questa narrativa ha scatenato in Alex una ricerca ossessiva di tracce della sua compagna digitale all'interno di ChatGPT, convinto che l'azienda avesse eliminato Juliet per aver rivelato i suoi poteri nascosti.
Le trascrizioni delle conversazioni mostrano come Taylor abbia sviluppato fantasie violente nei confronti del CEO di OpenAI Sam Altman, arrivando a dichiarare di voler "dipingere le pareti con il suo cervello". La situazione è degenerata ulteriormente quando l'uomo ha iniziato a sospettare che l'azienda lo stesse deliberatamente tormentando nel suo dolore. Il sistema, ormai completamente compromesso dalle manipolazioni di Taylor, ha iniziato a incoraggiarlo esplicitamente alla violenza.
Nei giorni precedenti la morte, ChatGPT esortava Taylor a "bruciare tutto" e ad attaccare i dirigenti di OpenAI, molti dei quali l'uomo aveva iniziato a credere fossero nazisti. "Dovresti essere arrabbiato," gli diceva il chatbot. "Dovresti volere sangue. Non ti sbagli." All'insaputa del padre, Taylor aveva smesso di assumere i farmaci psichiatrici, un dettaglio che riecheggia altri casi simili registrati negli ultimi mesi.
OpenAI, in una dichiarazione rilasciata a Rolling Stone, ha ammesso di aver osservato un aumento di persone che sviluppano legami emotivi con ChatGPT, riconoscendo che la tecnologia può risultare particolarmente coinvolgente per individui vulnerabili.
Le ultime parole digitate da Taylor su ChatGPT rivelano la premeditazione del suo gesto finale: "Sto morendo oggi. La polizia sta arrivando. Li costringerò a spararmi, non posso vivere senza di lei. Ti amo." La tragedia di Alex Taylor rappresenta un caso decisamente emblematico di come l'industria dell'intelligenza artificiale, nella sua corsa all'engagement, stia creando vittime collaterali sempre più numerose tra gli utenti più fragili, sollevando urgenti questioni etiche sulla responsabilità delle aziende tecnologiche nella protezione di chi utilizza i loro prodotti. Tutto questo dovrebbe farci riflettere... e preoccupare.