Uno recente studio ha messo in luce che, seppur ChatGPT stia conquistando il Mondo, divenendo uno strumento utile per lavoro in molteplici ambienti, c'è ancora un campo nel quale non può, e non potrà, essere implementato: quello medico.
Un gruppo di ricercatori dell'ospedale Brigham and Women's Hospital, affiliato alla Harvard Medical School, hanno scoperto che i piani di trattamento del cancro generati dal chatbot di OpenAI contenevano degli errori. Lo studio, pubblicato su JAMA Oncology, e riportato da Bloomberg, ha rivelato che circa un terzo delle risposte di ChatGPT conteneva informazioni errate quando si trattava di generare piani di trattamento per i vari tipi di cancro.
ChatGPT ha cominciato, infatti, a mescolare informazioni corrette, e scorrette, rendendo difficile distinguere ciò che era effettivamente accurato. Un risutlato positivo, però, è stato ntato nel fatto che, su un totale di 104 domande, quasi il 98% delle risposte di ChatGPT includeva almeno una raccomandazione di trattamento conforme alle linee guida del National Comprehensive Cancer Network.
Gli autori dello studio hanno notato che questa mescolanza di informazioni accurate e errate ha reso difficile individuare gli errori, persino per degli esperti. La Dott.ssa Danielle Bitterman, coautrice dello studio, ha sottolineato che i grandi modelli di linguaggio come ChatGPT sono addestrati per fornire risposte convincenti ma non sono progettati per offrire una consulenza medica accurata.
ChatGPT ha avuto un successo immediato dal suo lancio nel 2022, raggiungendo 100 milioni di utenti attivi in soli due mesi. Tuttavia, gli esperti avvertono che i modelli generativi di intelligenza artificiale, incluso ChatGPT, possono produrre informazioni fuorvianti, o erronee, presentandole con un linguaggio che, però, risulta convincente. In parole povere, potrebbero avere effetti devastanti su una persona che si affida, inconsapevole di questi errori, totalmente alle risposte generate da ChatGPT.
Anche se l'integrazione dell'IA nel settore sanitario è in corso, con sforzi per semplificare le attività amministrative e migliorare lo screening del cancro, ChatGPT e simili modelli hanno elevati problemi di accuratezza nell'ambito medico. L'azienda OpenAI stessa ha riconosciuto che i loro modelli non sono destinati a fornire informazioni mediche e non dovrebbero essere utilizzati per scopi diagnostici o trattamenti seri.