ChatGPT: l'IA sempre più usata come psicoterapeuta ma quali sono i pericoli e le potenzialità?

ChatGPT è sempre più usata in sostituzione di uno psicologo in carne e ossa ma quali rischi comporta per l'utente finale?

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

ChatGPT, la rivoluzionaria chatbot alimentata dall'intelligenza artificiale di OpenAI, ha dimostrato di essere molto di più di un semplice assistente virtuale. Con la sua sorprendente capacità di imitare una conversazione umana, alcuni utenti hanno cominciato a utilizzarla come la propria "terapeuta personale".

Digitando "Ho ansia" su ChatGPT, fino a poco tempo fa la rivoluzionaria chatbot, alimentata dall'intelligenza artificiale di OpenAI, iniziava a rispondere in maniera molto "umana", abbracciando virtualmente l'utente e consigliando un elenco di raccomandazioni da seguire per "gestire" i sintomi, quali: lavorare sul rilassamento, concentrarsi sul sonno, ridurre caffeina e alcolici, affrontare i pensieri negativi e cercare il sostegno di amici e familiari.

Al momento, onde evitare rischi di sorta, OpenAI, così come altri gestori di IA, si sono prodigati a cambiare prontamente le risposte. Se, infatti, ora proverete a dire a ChatGPT che soffrite d'ansia, l'unica risposta sarà: "Capisco che tu stia sperimentando ansia. Ricorda che sono solo un programma informatico e non posso fornire supporto terapeutico professionale. Tuttavia, se ti senti a disagio o hai bisogno di aiuto, ti suggerisco di parlare con un professionista della salute mentale o di chiedere sostegno ai tuoi amici e familiari. Prenditi cura di te stesso e non esitare a cercare aiuto quando ne hai bisogno."

Questi peculiari episodi, però, hanno sollevato parecchi interrogativi sulla possibilità di utilizzare l'IA generativa nel trattamento delle condizioni di salute mentale, un'area in cui i servizi tradizionali spesso affrontano difficoltà legate alla carenza di personale e agli alti costi.

L'accessibilità ai servizi di salute mentale è una questione divenuta fondamentale in tutto il mondo con i servizi "standard" che presentano fra le loro fila, sempre più spesso almeno uno psicoterapeuta in grado di ascoltare e fornire supporto ai pazienti. In molte aree del Mondo, però, questi servizi non sono disponibili o, nella maggior parte dei casi. avvolti da uno stigma figlio di altri tempi.

Proprio per questo motivo, si è pensato che l'IA generativa, come ChatGPT, potrebbe offrire un accesso più rapido, meno costoso e indubbiamente confidenziale a questo tipo di supporto, dando la possibilità di evitare giudizi, vergogna e altre forme d'ansia che spesso si associano alla ricerca di un aiuto per la propria salute mentale.

Tuttavia, l'idea di affidare completamente l'assistenza mentale a un programma informatico solleva una serie di questioni etiche e pratiche. Dalla protezione dei dati personali, fino alla capacità dell'IA di comprendere realmente i pazienti e riconoscere eventuali segnali di pericolo.

Sebbene alcuni ricercatori, come Tania Manríquez Roa dell'Università di Zurigo, affermino che l'IA generativa mostri un enorme potenziale e possa essere molto utile per condurre ricerche sia sulla salute mentale, sia nell'identificazione di precoci segnali di ricaduta, c'è ancora molto scetticismo riguardo al suo ruolo come sostituto della terapia clinica, in particolar modo in virtù di un sistema di algoritmi che non potrebbe basarsi esclusivamente su regole predefinite.

Al momento, infatti, alcune app dedicate alla salute mentale, e basate sull'IA, come Wysa, Heyy e Woebot, si limitano a sistemi basati su regole predefinite, non tentando mai di "scavalcare" il metodo tradizionale e reindirizzando l'utenza verso uno "psicoterapeuta umano" nel momento che i quesiti posti si fanno più complicati, peculiari o aumentano d'intensità.

Questo crescente utilizzo di software quali ChatGPT nel campo della salute mentale, però, ha attratto l'attenzione dei regolatori, portando la Cina, e l'Unione Europea, ha compiere i primi passi verso una regolamentazione ben definita. Tuttavia, al momento, non c'è ancora nulla di definito e le risposte date dalle intelligenze artificiali si rimettono al giudizio dei loro proprietari.

In conclusione, l'IA generativa potrebbe indubbiamente rappresentare una svolta nell'ambito della salute mentale, offrendo supporto rapido ed economico, ma risulterà fondamentale discuterne i termini etici e, soprattutto, trovare una regolamentazione che garantisca un utilizzo responsabile di questa tecnologia sia da parte degli utenti che da parte dei creatori.