Strumenti come ChatGPT non solo forniscono risposte imprecise, ma alterano profondamente la nostra capacità di autovalutazione. Lo dice una recente ricerca pubblicata su "Computers in Human Behavior", rivista specializzata nello studio del comportamento umano in relazione alle tecnologie, rivela come l'utilizzo dell'IA amplifichi distorsioni cognitive già note alla psicologia, con conseguenze potenzialmente pericolose per individui e organizzazioni.
Gli esperti di intelligenza artificiale risultano essere i più vulnerabili a questo fenomeno. Contrariamente a quanto ci si potrebbe aspettare, proprio chi possiede maggiori competenze tecniche tende a sopravvalutare drammaticamente le proprie capacità quando utilizza sistemi di IA. Il problema non risiede tanto nell'ottenere risultati migliori grazie all'assistenza tecnologica, quanto nel convincersi erroneamente di possedere realmente quelle competenze.
"L'effetto Dunning-Kruger, quella distorsione cognitiva descritta dagli psicologi omonimi secondo cui chi ha scarse competenze in un ambito tende a sopravvalutare le proprie capacità, assume nuove dimensioni nell'era dell'intelligenza artificiale" spiega l'esperto di IA, Fabrizio Degni. "Storicamente, questo fenomeno spiega perché molte persone si sentono autorizzate a pontificare su argomenti complessi con sicurezza inversamente proporzionale alla loro preparazione reale".
La ricerca evidenzia come l'IA non elimini questo bias cognitivo, ma lo trasformi in qualcosa di più insidioso. Durante gli esperimenti, "i partecipanti che hanno utilizzato ChatGPT hanno effettivamente ottenuto performance superiori rispetto al gruppo di controllo. Tuttavia, invece di riconoscere il contributo dello strumento, hanno attribuito il successo esclusivamente alle proprie abilità personali. Una forma di appropriazione indebita della competenza che cancella la consapevolezza dei propri limiti".
Il deficit di metacognizione rappresenta il cuore del problema. Chi utilizza assistenti artificiali perde progressivamente la capacità di distinguere tra conoscenza autentica e risultati ottenuti tramite supporto esterno. Questa erosione della saggezza, intesa come capacità di riconoscere i propri confini, può avere ripercussioni concrete e pericolose. Un caso emblematico emerso dalla ricerca riguarda un esperimento con ChatGPT su consigli alimentari: il sistema ha approvato pasta e fagioli come colazione, seguiti da dolci, giustificando qualsiasi scelta alimentare con argomentazioni apparentemente ragionevoli.
"Le implicazioni nel mondo dell'istruzione risultano particolarmente preoccupanti. Studenti che delegano i compiti a ChatGPT e ottengono voti elevati sviluppano una falsa percezione delle proprie competenze. Questa illusione li accompagnerà nel percorso formativo e professionale, creando una generazione convinta di possedere conoscenze che in realtà non ha mai acquisito. Il meccanismo è subdolo: il rinforzo positivo del voto alto consolida la convinzione errata, impedendo lo sviluppo di vero apprendimento".
Anche coloro che possiedono un'AI literacy avanzata cadono nella trappola, anzi con maggiore intensità. Lo studio dimostra che proprio gli utenti più esperti manifestano una ridotta capacità di autovalutazione in relazione all'aiuto ricevuto dall'intelligenza artificiale. "Questo abbassamento della soglia critica porta a riporre fiducia crescente nello strumento, accettandone le risposte senza il necessario vaglio critico. La confidenza eccessiva sostituisce il sano scetticismo che dovrebbe caratterizzare l'approccio professionale".
Le conseguenze professionali di questo fenomeno potrebbero essere devastanti. Immaginiamo un responsabile della sicurezza informatica di una grande azienda che, supportato dall'AI, si convince di possedere competenze che non ha realmente sviluppato. Una decisione errata potrebbe esporre dati sensibili di migliaia di utenti. Oppure pensiamo a professionisti sanitari, ingegneri, consulenti finanziari che basano scelte critiche su una competenza percepita ma non reale. La casualità potrebbe far passare selezioni proprio a questi individui, scavalcando candidati genuinamente preparati.
"Il rischio a lungo termine riguarda l'intera società: una progressiva perdita di autoconsapevolezza collettiva sull'accuratezza delle nostre conoscenze". La capacità di discernere il valore aggiunto fornito da uno strumento esterno rispetto alle proprie effettive competenze rappresenta una competenza fondamentale che sta erodendosi. Sapere di non sapere, il celebre principio socratico, viene sostituito dall'illusione di sapere alimentata dall'assistenza artificiale.
La soluzione non consiste nell'abbandonare questi strumenti, che rappresentano indubbiamente un progresso tecnologico significativo. Piuttosto occorre sviluppare una cultura dell'uso critico dell'intelligenza artificiale, mantenendo sempre attiva la consapevolezza che lo strumento è un supporto, non un sostituto della competenza umana. La sfida educativa e professionale dei prossimi anni sarà proprio questa: formare individui capaci di integrare l'AI preservando la propria capacità di giudizio critico e, soprattutto, la consapevolezza dei propri limiti reali.