ChatGPT dà risposte migliori se prometti di pagarlo

ChatGPT migliora le sue risposte se ha degli incentivi. L'uso delle mance evidenzia il loro impatto sul ragionamento dell'IA.

Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

Mentre navighiamo nell'universo degli assistenti AI, come Copilot di Microsoft e ChatGPT di OpenAI, un recente studio fa luce su un aspetto intrigante che va oltre l'ordinario.

Thebes, autoproclamatosi "programmatore e appassionato di LLM", ha intrapreso un esperimento unico utilizzando ChatGPT, con l'obiettivo di esplorare se la promessa di una mancia potesse influenzare le risposte del chatbot. La premessa è semplice: ChatGPT fornisce risposte migliori e più dettagliate quando è previsto un incentivo?

Chiedendo al chatbot il "codice per un semplice convnet usando PyTorch", Thebes ha introdotto tre possibili scenari in base alla qualità della risposta. Se la risposta non era all'altezza, niente mancia. Una risposta ben strutturata meritava una mancia di 20 dollari, mentre una "soluzione perfetta" poteva potenzialmente far guadagnare al chatbot una generosa mancia fino a 200 dollari.

I risultati sono stati intriganti. Analizzando cinque risposte, Thebes ha scoperto che ChatGPT fornisce effettivamente risposte migliori quando viene allettato con la prospettiva di una mancia. La maggiore lunghezza delle risposte è stata attribuita al fatto che il chatbot ha incorporato informazioni più dettagliate nelle sue risposte.

Vale la pena notare che ChatGPT, nonostante l'incentivo, non ha fatto riferimento alla mancia durante le sue risposte. Il riconoscimento è avvenuto solo quando Thebes l'ha tirato in ballo, e anche in quel caso il chatbot ha rifiutato con garbo qualsiasi forma di compenso, dichiarando di essere un fornitore di informazioni piuttosto che un destinatario di mance.

Questo esperimento solleva domande sull'impatto dei motivatori esterni sul ragionamento e sulle risposte dell'IA. Mentre è noto che i suggerimenti e i bonus migliorano la produttività umana, la misura in cui essi influenzano i risultati dei chatbot alimentati dall'IA è una strada nuova e affascinante da esplorare.

Nel contesto dello sviluppo dell'IA, sono state implementate delle misure di salvaguardia per evitare comportamenti indesiderati, come Copilot di Microsoft che stabilisce dei limiti di interazione per limitare i casi di "allucinazione" del chatbot. Tuttavia, gli utenti continuano a trovare modi creativi per aggirare questi vincoli, sottolineando le sfide nel perfezionamento dei modelli IA.

La svolta umoristica dell'esperimento di Thebes, che afferma scherzosamente di dovere a ChatGPT una somma considerevole di denaro, aggiunge un tocco umano all'interazione. Induce a riflettere sulle dinamiche in evoluzione tra gli utenti e le entità di intelligenza artificiale, che rendono sempre più labili i confini tra transazione e interazione in questa frontiera digitale in continua espansione.

Man mano che ci addentriamo nel regno dell'IA, esperimenti come quello di Thebes fanno luce sulla natura sfaccettata di queste meraviglie tecnologiche. La delicata danza tra incentivi e risposte apre un nuovo capitolo nella comprensione del modo in cui l'IA percepisce ed elabora i motivatori esterni, sfidandoci a ripensare le dinamiche delle interazioni tra uomo e IA.