Gli algoritmi di raccomandazione personalizzati potrebbero rappresentare una minaccia per l'apprendimento, molto più insidiosa di quanto si pensasse finora. Una nuova ricerca americana dimostra che questi sistemi, progettati per suggerire contenuti in base alle preferenze dell'utente, finiscono per compromettere la capacità di comprendere davvero un argomento. Il problema più grave è che le persone non si rendono conto di avere una visione distorta della realtà, anzi si sentono sicure delle proprie conoscenze anche quando sbagliano clamorosamente.
Lo studio, pubblicato sul Journal of Experimental Psychology: General, ha coinvolto 346 partecipanti in un esperimento che simulava l'apprendimento di un argomento completamente nuovo. I ricercatori hanno creato delle categorie di alieni immaginari simili a cristalli, ciascuno con sei caratteristiche distintive nascoste dietro riquadri grigi. L'obiettivo era imparare a riconoscere i diversi tipi di creature senza sapere quante categorie esistessero.
In una prima condizione sperimentale, i partecipanti erano obbligati a esaminare tutte le caratteristiche disponibili, costruendo così una comprensione completa. Nella seconda condizione invece, un algoritmo di personalizzazione guidava la loro esplorazione, suggerendo quali elementi studiare in base alle scelte precedenti. Anche se tecnicamente tutto il materiale rimaneva accessibile, l'algoritmo spingeva gli utenti a concentrarsi ripetutamente sulle stesse caratteristiche, permettendo loro di ignorare il resto.
I risultati sono stati allarmanti. Chi si affidava all'algoritmo esaminava molti meno elementi e lo faceva in modo selettivo e ripetitivo. Quando venivano presentati nuovi esempi di alieni mai visti prima, questi partecipanti li classificavano erroneamente con frequenza elevata. Ma il dato più preoccupante emerso dalla ricerca riguarda la percezione soggettiva della propria competenza: le persone si mostravano addirittura più sicure quando sbagliavano rispetto a quando azzeccavano la risposta.
Giwon Bahg, psicologo che ha condotto lo studio durante il dottorato alla Ohio State University e ora ricercatore postdottorale alla Pennsylvania State University, spiega che questo fenomeno è particolarmente insidioso. "Il nostro studio dimostra che anche quando non si sa assolutamente nulla di un argomento, questi algoritmi possono iniziare immediatamente a costruire pregiudizi e portare a una visione distorta della realtà", afferma Bahg. Si tratta di una scoperta che va oltre le ricerche precedenti, che si erano concentrate principalmente su come gli algoritmi influenzano opinioni su temi politici o sociali già conosciuti.
Per rendere più chiaro il meccanismo, i ricercatori propongono un esempio concreto che ricorda da vicino l'esperienza quotidiana di molti utenti delle piattaforme streaming. Immaginiamo una persona che non ha mai visto film di un determinato paese e decide di scoprire questo cinema per la prima volta. La piattaforma le propone una lista di raccomandazioni e la persona sceglie casualmente un action-thriller perché appare per primo. Da quel momento, l'algoritmo continua a suggerire film simili dello stesso genere, che l'utente continua a guardare.
Il risultato, come spiegano gli autori dello studio, è una comprensione completamente distorta. Se l'obiettivo implicito o esplicito era capire il panorama cinematografico di quel paese, la raccomandazione algoritmica finisce per creare un bias grave. La persona probabilmente non scoprirà mai i film più apprezzati di altri generi e potrebbe sviluppare idee imprecise e eccessivamente generalizzate sulla cultura popolare e sulla società di quel paese, basandosi solo su un tipo ristretto di produzione cinematografica.
Brandon Turner, professore di psicologia alla Ohio State University e coautore dello studio, sottolinea che le persone trattano le informazioni limitate e selezionate dall'algoritmo come se rappresentassero il quadro completo. "Le persone perdono informazioni quando seguono un algoritmo, ma pensano che ciò che sanno si generalizzi ad altre caratteristiche e ad altre parti dell'ambiente che non hanno mai sperimentato", spiega Turner. Questo eccesso di fiducia basato su conoscenze parziali rappresenta uno dei rischi più gravi del fenomeno.
Le implicazioni di questa ricerca vanno ben oltre l'ambiente controllato del laboratorio e toccano questioni fondamentali per l'educazione e la società. Turner pone una domanda provocatoria ma necessaria: "Se un bambino sta genuinamente cercando di imparare qualcosa sul mondo e interagisce con algoritmi online che danno priorità al consumo di sempre più contenuti, cosa succederà?" La risposta non è rassicurante. Consumare contenuti simili spesso non coincide affatto con l'apprendimento autentico, e questo può creare problemi sia per gli utenti individuali che per la società nel suo complesso.
La ricerca evidenzia un paradosso preoccupante dei sistemi di raccomandazione: mentre sono progettati per migliorare l'esperienza dell'utente mostrandogli contenuti potenzialmente interessanti, finiscono per costruire bolle informative che limitano l'esplorazione e la comprensione reale. E a differenza di altre forme di limitazione dell'informazione, questo meccanismo opera in modo silenzioso, senza che chi ne è vittima se ne accorga o possa rendersi conto di avere una visione parziale della realtà.