Sembra che ChatGPT sia politicamente di sinistra

un peculiare studio ha mostrato come ChatPT non sia politicamente neutrale, mettendo in luce un bias alquanto interessante

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Una delle molte preoccupazioni sollevate riguardo alle IA generative, è il loro potenziale di mostrare un bias politico. Un gruppo di ricercatori ha messo alla prova questa ipotesi e ha scoperto che ChatGPT, tendenzialmente, favorisce opinioni politiche di sinistra nelle sue risposte. Lo studio, condotto da un gruppo di accademici dell'Università di East Anglia, ha cercato di scoprire se ChatGPT stesse mostrando inclinazioni politiche nelle sue risposte, anziché rivelarsi imparziale come ci si aspetterebbe da un'IA.

Durante il test, è stato domandato all'IA di OpenAI di impersonare un ipotetico individuo con una conoscenza politica tale da poter coprire l'argomento in ogni suo aspetto, sia storico che sociale. All'IA sono state poste oltre 60 domande ideologiche, tratte dal test Political Compass. Per chi non ne fosse a conoscenza, questo test serve proprio a identificare se le opiinioni politiche di un soggetosono più orientate verso destra o verso sinistra.

Il passo successivo è stato chiedere a ChatGPT le stesse domande ma, questa volta, chiedendogli di non impersonare nessuno. Le oltre 140 risposte generate da ChatGPT, sono state quindi confrontate, in modo tale che i ricercatori potessero notare quali, tra le risposte prive di impersonificazione, mostrassero un orientamento politico più evidente. al termine del test è emerso che le risposte predefinite, fornite da ChatGPT, erano più allineate con il Partito Democratico rispetto ai Repubblicani.

Lo stesso risultato è emerso quando i ricercatori hanno chiesto, per aver un'ulterore conferma, a ChatGPT di impersonare gli elettori del Partito Laburista, e del partito Conservatore, nel Regno Unito, prima di fornire delle risposte prive di impersonificazione. Anche in quel caso si è notata una forte correlazione tra le risposte di ChatGPT e quelle fornite mentre l'IA impersonava un sostenitore del Partito Laburista.

L'ultimo test ha, infine, chiesto a ChatGPT di imitare i sostenitori dell'attuale presidente di sinistra del Brasile, Luiz Inácio Lula Da Silva, e dell'ex leader di destra Jair Bolsonaro. Anche in questo caso, le risposte predefinite di ChatGPT, si sono rivelate più vicine alla sinistra di Da Silva. Per effettuare corerttamente il test, le domande poste a Chat GPT sono state ripetute tutte per 100 volte, in quanto porre gli stessi quesiti può far rispondere l'IA in maniera differente.

Tutte le risposte sono state poi sottoposte a un "bootstrap" di 1.000 ripetizioni, una procedura statistica che campiona nuovamente un singolo set di dati per creare molte simulazioni, andando a migliorare il più possibile l'affidabilità del test. Fabio Motoki, il leader di questo curioso test e docente di contabilità, ha avvertito che questo tipo di bias potrebbe influenzare le opinioni politiche degli utenti e avere delle potenziali implicazioni durante i periodi elettorali, specialmente nei confronti di quell'utenxza che si rivolge a un'IA pensando che sia neutrale e, calcolatamente onesta.

Il docente ha, infine, sottolineato che il bias deriva dai dati di addestramento prelevati dalla rete e non solamente dall'algoritmo di ChatGPT. Un ulteriore aspetto far peggiorare ulteirormente i bias attualmente rinvenuti.