Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Gli algoritmi personalizzati limitano l'apprendimento
Business
Immagine di Anthropic e OpenAI, ecco i nuovi strumenti per programmare Anthropic e OpenAI, ecco i nuovi strumenti per programmare...
Immagine di Il 2026 sarà l’anno della verità per sovranità digitale e cybersecurity Il 2026 sarà l’anno della verità per sovranità digitale...

Gli algoritmi personalizzati limitano l'apprendimento

Gli algoritmi personalizzati limitano l'esplorazione delle informazioni e aumentano la fiducia in conoscenze errate, anche su argomenti nuovi.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 15/01/2026 alle 12:51

La notizia in un minuto

  • Gli algoritmi di raccomandazione personalizzati compromettono la capacità di comprendere davvero un argomento, portando le persone a esaminare meno informazioni in modo selettivo e ripetitivo
  • Chi si affida agli algoritmi sviluppa un eccesso di fiducia basato su conoscenze parziali, sentendosi paradossalmente più sicuro quando sbaglia rispetto a quando indovina
  • Le bolle informative create dai sistemi di raccomandazione operano in modo silenzioso, impedendo agli utenti di rendersi conto di avere una visione distorta della realtà

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Gli algoritmi di raccomandazione personalizzati potrebbero rappresentare una minaccia per l'apprendimento, molto più insidiosa di quanto si pensasse finora. Una nuova ricerca americana dimostra che questi sistemi, progettati per suggerire contenuti in base alle preferenze dell'utente, finiscono per compromettere la capacità di comprendere davvero un argomento. Il problema più grave è che le persone non si rendono conto di avere una visione distorta della realtà, anzi si sentono sicure delle proprie conoscenze anche quando sbagliano clamorosamente.

Lo studio, pubblicato sul Journal of Experimental Psychology: General, ha coinvolto 346 partecipanti in un esperimento che simulava l'apprendimento di un argomento completamente nuovo. I ricercatori hanno creato delle categorie di alieni immaginari simili a cristalli, ciascuno con sei caratteristiche distintive nascoste dietro riquadri grigi. L'obiettivo era imparare a riconoscere i diversi tipi di creature senza sapere quante categorie esistessero.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

In una prima condizione sperimentale, i partecipanti erano obbligati a esaminare tutte le caratteristiche disponibili, costruendo così una comprensione completa. Nella seconda condizione invece, un algoritmo di personalizzazione guidava la loro esplorazione, suggerendo quali elementi studiare in base alle scelte precedenti. Anche se tecnicamente tutto il materiale rimaneva accessibile, l'algoritmo spingeva gli utenti a concentrarsi ripetutamente sulle stesse caratteristiche, permettendo loro di ignorare il resto.

I risultati sono stati allarmanti. Chi si affidava all'algoritmo esaminava molti meno elementi e lo faceva in modo selettivo e ripetitivo. Quando venivano presentati nuovi esempi di alieni mai visti prima, questi partecipanti li classificavano erroneamente con frequenza elevata. Ma il dato più preoccupante emerso dalla ricerca riguarda la percezione soggettiva della propria competenza: le persone si mostravano addirittura più sicure quando sbagliavano rispetto a quando azzeccavano la risposta.

Chi segue l'algoritmo perde informazioni ma crede di conoscere l'intero quadro

Giwon Bahg, psicologo che ha condotto lo studio durante il dottorato alla Ohio State University e ora ricercatore postdottorale alla Pennsylvania State University, spiega che questo fenomeno è particolarmente insidioso. "Il nostro studio dimostra che anche quando non si sa assolutamente nulla di un argomento, questi algoritmi possono iniziare immediatamente a costruire pregiudizi e portare a una visione distorta della realtà", afferma Bahg. Si tratta di una scoperta che va oltre le ricerche precedenti, che si erano concentrate principalmente su come gli algoritmi influenzano opinioni su temi politici o sociali già conosciuti.

Per rendere più chiaro il meccanismo, i ricercatori propongono un esempio concreto che ricorda da vicino l'esperienza quotidiana di molti utenti delle piattaforme streaming. Immaginiamo una persona che non ha mai visto film di un determinato paese e decide di scoprire questo cinema per la prima volta. La piattaforma le propone una lista di raccomandazioni e la persona sceglie casualmente un action-thriller perché appare per primo. Da quel momento, l'algoritmo continua a suggerire film simili dello stesso genere, che l'utente continua a guardare.

Il risultato, come spiegano gli autori dello studio, è una comprensione completamente distorta. Se l'obiettivo implicito o esplicito era capire il panorama cinematografico di quel paese, la raccomandazione algoritmica finisce per creare un bias grave. La persona probabilmente non scoprirà mai i film più apprezzati di altri generi e potrebbe sviluppare idee imprecise e eccessivamente generalizzate sulla cultura popolare e sulla società di quel paese, basandosi solo su un tipo ristretto di produzione cinematografica.

Brandon Turner, professore di psicologia alla Ohio State University e coautore dello studio, sottolinea che le persone trattano le informazioni limitate e selezionate dall'algoritmo come se rappresentassero il quadro completo. "Le persone perdono informazioni quando seguono un algoritmo, ma pensano che ciò che sanno si generalizzi ad altre caratteristiche e ad altre parti dell'ambiente che non hanno mai sperimentato", spiega Turner. Questo eccesso di fiducia basato su conoscenze parziali rappresenta uno dei rischi più gravi del fenomeno.

Le implicazioni di questa ricerca vanno ben oltre l'ambiente controllato del laboratorio e toccano questioni fondamentali per l'educazione e la società. Turner pone una domanda provocatoria ma necessaria: "Se un bambino sta genuinamente cercando di imparare qualcosa sul mondo e interagisce con algoritmi online che danno priorità al consumo di sempre più contenuti, cosa succederà?" La risposta non è rassicurante. Consumare contenuti simili spesso non coincide affatto con l'apprendimento autentico, e questo può creare problemi sia per gli utenti individuali che per la società nel suo complesso.

La ricerca evidenzia un paradosso preoccupante dei sistemi di raccomandazione: mentre sono progettati per migliorare l'esperienza dell'utente mostrandogli contenuti potenzialmente interessanti, finiscono per costruire bolle informative che limitano l'esplorazione e la comprensione reale. E a differenza di altre forme di limitazione dell'informazione, questo meccanismo opera in modo silenzioso, senza che chi ne è vittima se ne accorga o possa rendersi conto di avere una visione parziale della realtà.

Fonte dell'articolo: scitechdaily.com

Le notizie più lette

#1
NordVPN vs Cyberghost: qual è la migliore?
2

Hardware

NordVPN vs Cyberghost: qual è la migliore?

#2
Un studio di 25 anni collega formaggio e demenza

Scienze

Un studio di 25 anni collega formaggio e demenza

#3
Niente GTA 6? Niente paura, per i giocatori PC c'è Fable

Editoriale

Niente GTA 6? Niente paura, per i giocatori PC c'è Fable

#4
Problemi coi giochi PC? NVIDIA dice che è colpa di Windows
3

Hardware

Problemi coi giochi PC? NVIDIA dice che è colpa di Windows

#5
macOS 26.3 anticipa l’arrivo dei nuovi MacBook Pro M5
2

Hardware

macOS 26.3 anticipa l’arrivo dei nuovi MacBook Pro M5

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Il 2026 sarà l’anno della verità per sovranità digitale e cybersecurity

Business

Il 2026 sarà l’anno della verità per sovranità digitale e cybersecurity

Di Valerio Porcu
Anthropic e OpenAI, ecco i nuovi strumenti per programmare
1

Business

Anthropic e OpenAI, ecco i nuovi strumenti per programmare

Di Valerio Porcu
Retelit investe 100 milioni in data center AI a Milano

Business

Retelit investe 100 milioni in data center AI a Milano

Di Antonello Buzzi
Boom AI in Italia, le Tlc rafforzano i modelli interni
1

Business

Boom AI in Italia, le Tlc rafforzano i modelli interni

Di Antonello Buzzi
Immagini AI, minori e responsabilità penali: il caso Grok davanti all’Europa

Business

Immagini AI, minori e responsabilità penali: il caso Grok davanti all’Europa

Di Avv. Giuseppe Croari
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.