Le piattaforme online usate dagli accademici per raccogliere dati comportamentali stanno affrontando una nuova minaccia che rischia di minare la credibilità di anni di studi scientifici. Un numero crescente di partecipanti utilizza l’intelligenza artificiale per rispondere automaticamente ai questionari, contaminando una delle fonti più importanti della ricerca psicologica contemporanea. La denuncia arriva da uno studio del Max Planck Institute di Berlino, che getta ombre sulla validità dei dati raccolti via web.
L’inganno digitale dietro i piccoli compensi
Anne-Marie Nussberger e il suo team hanno iniziato a sospettare anomalie dopo aver notato risposte eccessivamente complesse e dal tono artificioso nei loro studi. La piattaforma Prolific, che offre piccoli compensi in denaro a chi partecipa, è risultata particolarmente esposta al fenomeno. L’indagine ha rivelato numeri preoccupanti: il 45% dei soggetti interpellati tramite una singola domanda aperta ha copiato e incollato contenuti nelle risposte, segnale inequivocabile dell’impiego di chatbot IA per completare i test in fretta e ottenere comunque il pagamento.
Per quantificare il problema, i ricercatori hanno sperimentato diversi metodi di rilevazione. Due reCAPTCHA tradizionali hanno individuato lo 0,2% di casi sospetti, mentre una versione più avanzata ha scovato un ulteriore 2,7%. Una strategia più creativa ha previsto l’inserimento di un testo invisibile agli occhi umani ma leggibile dai bot, che chiedeva di inserire la parola “nocciola” nella risposta: il trucco ha smascherato l’1,6% dei partecipanti. Infine, il blocco del copia-incolla ha permesso di identificare un altro 4,7% di risposte generate dall'IA.
Una sfida per l’intera ricerca scientifica
“Non dobbiamo smettere di fidarci della ricerca online, ma reagire con strumenti adeguati”, spiega Nussberger. La responsabilità, secondo lei, riguarda sia i singoli studiosi sia le piattaforme digitali, chiamate a prendere sul serio questa minaccia emergente.
Matt Hodgkinson, consulente indipendente di etica della ricerca, sottolinea che l’integrità degli studi era già minacciata da identità false, bot e risposte inattendibili. L’arrivo dell’AI aggrava dunque un problema preesistente, rendendo urgente lo sviluppo di nuove contromisure.
Le possibili strade, secondo l’esperto, sono due: creare strumenti collettivi per verificare a distanza l’effettivo coinvolgimento umano o tornare, almeno in parte, alla raccolta dati in presenza. Una scelta che potrebbe ridefinire il futuro della ricerca comportamentale nell’era dell’intelligenza artificiale.