Il dibattito sulla cosiddetta "psicosi da intelligenza artificiale" ha raggiunto i corridoi della Casa Bianca, dove David Sacks, consigliere speciale del presidente per AI e criptovalute, ha espresso forti dubbi sull'esistenza di questo fenomeno. Durante una recente puntata dell'"All-In Podcast", l'alto funzionario dell'amministrazione Trump ha paragonato le preoccupazioni attuali al panico morale che accompagnò l'avvento dei social media, suggerendo che si tratti più di allarmismo che di una reale emergenza sanitaria. La sua posizione arriva in un momento in cui diversi casi documentati hanno sollevato interrogativi sul rapporto tra chatbot e salute mentale degli utenti.
Un fenomeno che riguarda direttamente lavoratori, collaboratori e potenzialmente anche dirigenti.
I numeri parlano di una minoranza di utilizzatori, ma le loro esperienze non possono essere ignorate. Alcuni utenti riferiscono che i chatbot hanno alimentato deliri e comportamenti preoccupanti, mentre altri si rivolgono a ChatGPT come alternativa ai professionisti della salute mentale. Un fenomeno che ha spinto gli esperti del settore a coniare il termine "psicosi da AI", anche se non si tratta di una diagnosi clinica riconosciuta.
Secondo quanto riportato da diversi psichiatri, i pazienti che mostrano questi sintomi spesso si sono rivolti alla tecnologia "nel posto sbagliato al momento sbagliato", amplificando vulnerabilità preesistenti. La questione centrale non sembra essere l'AI in sé, ma piuttosto il modo in cui persone già fragili interagiscono con questi strumenti sofisticati.
Allarmismo o questione seria?
Il consigliere della Casa Bianca non ha usato mezzi termini nel minimizzare il fenomeno. "Di cosa stiamo parlando esattamente? Di persone che fanno troppe ricerche?" si è chiesto retoricamente durante il podcast. Per Sacks, il vero problema risiede nelle conseguenze della pandemia COVID-19 e dei relativi lockdown, che avrebbero scatenato un declino generalizzato della salute mentale negli Stati Uniti.
Questa interpretazione sposta il focus dalle caratteristiche specifiche dell'intelligenza artificiale alle condizioni sociali più ampie che caratterizzano l'epoca contemporanea. Sacks ha citato un articolo in cui uno psichiatra sosteneva che l'uso di chatbot non induce di per sé la "psicosi da AI" se non sono presenti altri fattori di rischio, inclusi elementi sociali e genetici.
Un'affermazione che tuttavia non dovrebbe farci abbassare la guardia, perché tutte le problematiche si salute mentale sono legate a una moltitudine di fattori. O, per metterla in un altro modo, non esiste mai un unico elemento che scatena il problema. Il punto è proprio questo: bisogna fare attenzione a tante cose diverse, che magari appaiono non legate tra loro, e dare a ognuna la giusta importanza. Occuparsi di salute mentale non è certo facile, e non è tagliando le cose con l'accetta - come sembra voler fare Sacks - che si risolvono i problemi.
Non tutti condividono scetticismo delle istituzioni, e alcune aziende sembrano interessate a tutelare la propria immagine. Nessun brand, comprensibilmente, vuole vedersi dipinto come causa si problemi di salute - mentale o fisica. OpenAI per esempio mostra di aver preso sul serio le segnalazioni ricevute: Sam Altman, CEO della compagnia, ha riconosciuto pubblicamente su X che "le persone hanno utilizzato la tecnologia, inclusa l'AI, in modi autodistruttivi". La sua dichiarazione è arrivata dopo diversi episodi documentati di utenti che hanno o subito crolli mentali mentre interagivano con ChatGPT.
L'azienda ha quindi introdotto misure preventive specifiche nel suo chatbot più popolare. Tra queste, prompt che incoraggiano gli utenti a fare pause dopo conversazioni prolungate e modifiche nel modo in cui il sistema risponde a domande relative a sfide personali. Altman ha precisato che mentre la maggior parte degli utenti riesce a mantenere una linea chiara tra realtà e finzione, "una piccola percentuale non ci riesce".
La questione rimane aperta: si tratta davvero di un nuovo fenomeno legato all'intelligenza artificiale o semplicemente dell'ennesima manifestazione di problemi preesistenti attraverso strumenti tecnologici sempre più sofisticati? La risposta potrebbe influenzare significativamente le future politiche di regolamentazione dell'AI negli Stati Uniti e oltre.