La facilità con cui oggi possiamo ottenere risposte dai grandi modelli linguistici come ChatGPT sta trasformando il modo di apprendere. Un'evoluzione che, sul lungo periodo, potrebbe avere come risvolto un prezzo pesante da pagare. Un team di studiosi della prestigiosa Wharton School dell'Università della Pennsylvania ha condotto una serie di esperimenti su oltre 4.500 persone, scoprendo che quando l'apprendimento diventa troppo semplice, la nostra mente tende a trattenere meno informazioni e a produrre riflessioni meno originali. È come se la comodità dell'intelligenza artificiale stesse gradualmente indebolendo i nostri "muscoli" cognitivi, creando una forma di dipendenza intellettuale che potrebbe avere conseguenze profonde sul futuro dell'educazione e della formazione professionale.
Quando la semplicità diventa un ostacolo all'apprendimento
Gli esperimenti coordinati dalla professoressa di marketing Shiri Melumad hanno messo a confronto due modalità di ricerca: quella tradizionale attraverso Google e quella basata sui modelli linguistici artificiali. I risultati hanno rivelato una dinamica sorprendente: le persone che utilizzavano i motori di ricerca tradizionali dedicavano più tempo alla ricerca, riferivano di aver fatto maggiore sforzo mentale e producevano contenuti più dettagliati e ricchi di riferimenti fattuali. Al contrario, chi si affidava all'intelligenza artificiale mostrava una comprensione più superficiale degli argomenti studiati e generava consigli meno creativi e personali.
La spiegazione di questo fenomeno risiede nella natura stessa dei Large Language Model: questi sistemi presentano le informazioni come sintesi già elaborate, eliminando il processo di esplorazione e scoperta che caratterizza la ricerca tradizionale. Quando navighiamo tra diversi siti web, il nostro cervello è costretto a confrontare fonti diverse, valutare la credibilità delle informazioni e costruire autonomamente una visione d'insieme coerente.
L'esperimento del giardinaggio: una finestra sui meccanismi cognitivi
Nel primo dei quattro esperimenti condotti, oltre 1.100 partecipanti hanno dovuto ricercare informazioni su come piantare un orto, utilizzando alternativamente Google o ChatGPT. Le differenze emerse sono state illuminanti: chi usava il motore di ricerca tradizionale non solo impiegava più tempo nella ricerca, ma produceva anche testi più lunghi e dettagliati, caratterizzati da un linguaggio più originale e da un maggior numero di riferimenti concreti.
Per eliminare ogni dubbio sul fatto che le differenze dipendessero dal contenuto delle informazioni piuttosto che dal modo di presentarle, i ricercatori hanno condotto un secondo esperimento particolarmente ingegnoso. Hanno mostrato a quasi 2.000 partecipanti gli stessi identici consigli di giardinaggio, presentandoli però in due formati diversi: come un'unica sintesi in stile intelligenza artificiale oppure distribuiti su sei pagine web separate, simulando i tipici risultati di Google.
Il paradosso della motivazione nell'era dell'AI
Daniel Oppenheimer, professore di psicologia alla Carnegie Mellon University, offre una chiave di lettura psicologica del fenomeno che va oltre gli aspetti puramente cognitivi. Secondo il suo punto di vista, il problema non è solo nel modo in cui processiamo le informazioni, ma anche nella percezione che abbiamo delle nostre capacità rispetto a quelle dell'intelligenza artificiale. Gli studenti tendono a considerare questi sistemi più intelligenti di loro e, di conseguenza, riducono inconsciamente l'impegno mentale dedicato all'apprendimento.
Questa dinamica ricorda il fenomeno già osservato in ambito educativo, dove gli studenti che utilizzano strumenti di IA per completare i compiti a casa ottengono risultati migliori ma performance peggiori durante gli esami in aula. La differenza cruciale sta nel fatto che stanno ottenendo le risposte corrette senza attraversare il processo di apprendimento che consolida la conoscenza nella memoria a lungo termine.
Ricerca attiva versus assimilazione passiva
La letteratura scientifica sul concetto di "search-as-learning" sottolinea come la ricerca tradizionale sul web non si limiti all'accumulo di informazioni isolate, ma favorisca lo sviluppo di strutture cognitive complesse. Questo processo iterativo - fatto di domande, esplorazione di diverse fonti e sintesi personale - costruisce quello che i ricercatori chiamano "sensemaking": la capacità di attribuire significato alle esperienze in contesti complessi e ambigui.
Quando utilizziamo Google, il nostro cervello deve navigare attraverso tentativi ed errori, valutare la rilevanza dei diversi collegamenti e operare una sintesi critica delle informazioni raccolte. Questo sforzo cognitivo, apparentemente dispendioso, si rivela fondamentale per costruire una comprensione profonda e duratura. I modelli linguistici, progettati per eseguire gran parte di questo lavoro al posto dell'utente, privano paradossalmente il cervello dell'esercizio necessario per sviluppare competenze cognitive robuste.
Strategie per un utilizzo consapevole dell'intelligenza artificiale
La ricerca della Wharton School non condanna l'uso dell'intelligenza artificiale nell'apprendimento, ma invita a una riflessione critica sulle modalità di utilizzo. I Large Language Model possono essere strumenti potentissimi quando vengono impiegati come supporto al pensiero critico piuttosto che come sostituti del processo di apprendimento. L'obiettivo dovrebbe essere quello di mantenere attivo il coinvolgimento cognitivo dell'utente, utilizzando l'AI come un assistente che amplifica le nostre capacità senza sostituirle.
Per educatori e formatori, questo significa ripensare le metodologie didattiche in un'epoca in cui l'accesso alle informazioni è immediato ma la capacità di elaborarle criticamente rischia di atrofizzarsi. Diventa essenziale insegnare ai giovani come sintetizzare e interpretare le informazioni autonomamente, sviluppando quella capacità di apprendimento profondo che rappresenta il vero valore aggiunto del pensiero umano nell'era dell'intelligenza artificiale.