"Me l'ha detto ChatGPT" è il nuovo "l'ho letto su Internet"

Un recente studio suggerisce che i modelli di intelligenza artificiale generativa stanno instillando pregiudizi e stereotipi negativi negli utenti.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Quand’ero bambino a volte la mia nonna diceva cose un po’ strane, e quando glielo si faceva notare spesso ti rispondeva che l’ho visto in TV. Era convinta di citare una fonte così autorevole che si poteva prendere tutto come verità assoluta. Mettici che era anche mezza sorda, e ogni tanto le cose si facevano surreali.

Poi, qualche anno dopo, con altre persone le stupidaggini erano seguite da “l’ho letto su Internet”. Età delle persone e medium erano diversi, ma il concetto era quasi lo stesso. “Quasi”, perché in verità quelle persone sapevano di essere passate dalla TV a Internet, e si erano in qualche modo convinte di aver finalmente superato la fonte inaffidabile, trovando la desiderata fonte della verità.

Il passaggio si è ripetuto più volte, e la voce della verità sono stati i forum, i social media, i blog indipendenti, gli influencer, e tanti altri. Siamo alla costante ricerca di qualcuno che ci dica una verità così vera che non si possa discutere. Solo pochi di noi hanno capito che è una ricerca vana, un po’ meno sensata rispetto al cercare il regno del Prete Gianni.

Prima della TV e della mia nonna c’erano i giornali e la radio, e prima ancora i trovatori che andavano di città in città, gli sciamani, i veggenti. Oggi sta iniziando a succedere con ChatGPT, e abbiamo cominciato a chiamarle “fake news”, scoprendo che ci sono delle differenze anche importanti tra le falsità diffuse per errore e quelle fatte con intenzione.

Proprio così, un recente studio suggerisce che i modelli di intelligenza artificiale generativa stanno instillando pregiudizi e stereotipi negativi negli utenti. Siccome gli algoritmi hanno un più serio problema di bias, dovuto al tipo di dati usati per l’addestramento, creano un output distorto. E l’essere umano che lo riceve, pare, è molto desideroso di crederci - anche e soprattutto se può confermare ciò che già crede (una versione del confirmation bias).

Come la TV per mia nonna, ChatGPT, Google Bard è simili stanno diffondendo idee sbagliate, pregiudizi, persino errori madornali. Errori che si diffondono e in cui finiamo per credere, così che le AI stanno alterando le nostre convinzioni, il nostro modo di pensare, nel peggiore dei modi.

Leggi anche

Avvocato si fida di ChatGPT, finisce per una fare una figuracciaChatGPT colpisce ancora, informazione sbagliata e parte la denunciaBoccia mezza classe per colpa di chatGPT, il prof fa un fail clamoroso

Non sorprende quindi l’appello a psicologi ed esperti di apprendimento automatico affinché comincino a collaborare, o almeno a parlarsi tra di loro, per valutare la portata del problema ed elaborare soluzioni.

Il professor Birhane (Trinity's School of Computer Science and Statistics, Senior Fellow in Trustworthy AI presso la Mozilla Foundation) afferma che "Le persone comunicano regolarmente l'incertezza attraverso frasi come "penso", ritardi nella risposta, correzioni e disfluenze nel discorso. Al contrario, i modelli generativi forniscono risposte sicure e fluide, senza alcuna rappresentazione dell'incertezza. Di conseguenza, ciò può provocare una maggiore distorsione rispetto agli input umani e indurre le persone ad accettare le risposte come se fossero effettivamente accurate. Questi problemi sono esacerbati dagli interessi finanziari e di responsabilità che incentivano le aziende ad antropomorfizzare i modelli generativi come intelligenti, senzienti, empatici o addirittura infantili".

A preoccupare è anche il fatto che ingannare qualcuno, convincere una persona di un pregiudizio, è una cosa relativamente facile. Ma poi convincere quella stessa persona a cambiare idea invece è difficilissimo. Per esempio, se adesso vi dicessi che quella che segue è senza dubbio è una frase di Mark Twain, poi tra un po’ di tempo sarebbe molto difficile convincervi del contrario.

È più facile ingannare le persone che convincerle di essere state ingannate

Ovviamente avere un pensiero critico ed essere preparati può essere di grande aiuto, ma è l’unica risposta. Complottisti e lunatici moderni, infatti, in genere sono più che convinti di aver studiato tutto ciò che c’è da studiare, e di aver fatto tutti i controlli necessari. C’è chi si documenta tanto e male, pur di alimentare la propria convinzione.

E ChatGPT, pare, sta diventando lo strumento perfetto per peggiorare il problema.