image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Ansia, rivelato un deficit chimico nel cervello umano Ansia, rivelato un deficit chimico nel cervello umano...
Immagine di Autismo, mix mirato di nutrienti mostra risultati record Autismo, mix mirato di nutrienti mostra risultati record...

Troppa IA nei sondaggi online, gli scienziati temono dati falsati

Sempre più partecipanti usano chatbot per rispondere ai questionari online, minacciando l’attendibilità degli studi scientifici

Advertisement

Avatar di Patrizio Coccia

a cura di Patrizio Coccia

Editor @Tom's Hardware Italia

Pubblicato il 22/08/2025 alle 09:54

La notizia in un minuto

  • Il 45% dei partecipanti a studi comportamentali online utilizza l'intelligenza artificiale per rispondere automaticamente ai questionari, compromettendo la validità della ricerca scientifica
  • I ricercatori del Max Planck Institute hanno sviluppato test ingegnosi per smascherare l'uso di chatbot, inclusi testi invisibili agli umani e blocchi del copia-incolla
  • La comunità scientifica deve reagire sviluppando nuovi metodi di verifica del coinvolgimento umano o tornare agli approcci tradizionali faccia a faccia

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Le piattaforme online usate dagli accademici per raccogliere dati comportamentali stanno affrontando una nuova minaccia che rischia di minare la credibilità di anni di studi scientifici. Un numero crescente di partecipanti utilizza l’intelligenza artificiale per rispondere automaticamente ai questionari, contaminando una delle fonti più importanti della ricerca psicologica contemporanea. La denuncia arriva da uno studio del Max Planck Institute di Berlino, che getta ombre sulla validità dei dati raccolti via web.

L’inganno digitale dietro i piccoli compensi

Anne-Marie Nussberger e il suo team hanno iniziato a sospettare anomalie dopo aver notato risposte eccessivamente complesse e dal tono artificioso nei loro studi. La piattaforma Prolific, che offre piccoli compensi in denaro a chi partecipa, è risultata particolarmente esposta al fenomeno. L’indagine ha rivelato numeri preoccupanti: il 45% dei soggetti interpellati tramite una singola domanda aperta ha copiato e incollato contenuti nelle risposte, segnale inequivocabile dell’impiego di chatbot IA per completare i test in fretta e ottenere comunque il pagamento.

Per quantificare il problema, i ricercatori hanno sperimentato diversi metodi di rilevazione. Due reCAPTCHA tradizionali hanno individuato lo 0,2% di casi sospetti, mentre una versione più avanzata ha scovato un ulteriore 2,7%. Una strategia più creativa ha previsto l’inserimento di un testo invisibile agli occhi umani ma leggibile dai bot, che chiedeva di inserire la parola “nocciola” nella risposta: il trucco ha smascherato l’1,6% dei partecipanti. Infine, il blocco del copia-incolla ha permesso di identificare un altro 4,7% di risposte generate dall'IA.

Una sfida per l’intera ricerca scientifica

“Non dobbiamo smettere di fidarci della ricerca online, ma reagire con strumenti adeguati”, spiega Nussberger. La responsabilità, secondo lei, riguarda sia i singoli studiosi sia le piattaforme digitali, chiamate a prendere sul serio questa minaccia emergente.

Matt Hodgkinson, consulente indipendente di etica della ricerca, sottolinea che l’integrità degli studi era già minacciata da identità false, bot e risposte inattendibili. L’arrivo dell’AI aggrava dunque un problema preesistente, rendendo urgente lo sviluppo di nuove contromisure.

Le possibili strade, secondo l’esperto, sono due: creare strumenti collettivi per verificare a distanza l’effettivo coinvolgimento umano o tornare, almeno in parte, alla raccolta dati in presenza. Una scelta che potrebbe ridefinire il futuro della ricerca comportamentale nell’era dell’intelligenza artificiale.

Fonte dell'articolo: www.newscientist.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Autismo, mix mirato di nutrienti mostra risultati record
1

Scienze

Autismo, mix mirato di nutrienti mostra risultati record

Di Antonello Buzzi
Ansia, rivelato un deficit chimico nel cervello umano

Scienze

Ansia, rivelato un deficit chimico nel cervello umano

Di Antonello Buzzi
L’IA influenza il voto meglio della propaganda tradizionale
1

Scienze

L’IA influenza il voto meglio della propaganda tradizionale

Di Antonello Buzzi
La Terra primordiale era viva: nuovi dati lo dimostrano

Scienze

La Terra primordiale era viva: nuovi dati lo dimostrano

Di Antonello Buzzi
Scoperto sistema planetario tra i più inclinati mai visti

Scienze

Scoperto sistema planetario tra i più inclinati mai visti

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.