image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Long COVID: e se il vero colpevole non fosse il virus? Long COVID: e se il vero colpevole non fosse il virus?...
Immagine di Questa pianta ha rinunciato alla fotosintesi (e funziona) Questa pianta ha rinunciato alla fotosintesi (e funziona)...

AI nella peer review: il confine etico è già superato?

Un’indagine su 1.600 ricercatori rivela che oltre il 50% usa strumenti di AI nella peer review, spesso in contrasto con le regole editoriali.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 16/12/2025 alle 08:50

La notizia in un minuto

  • Oltre la metà degli scienziati utilizza strumenti di AI durante la peer review, con il 59% che li impiega per redigere rapporti di valutazione, sollevando questioni critiche su confidenzialità e integrità intellettuale
  • Gli editori come Frontiers hanno lanciato piattaforme AI interne per controllare l'uso responsabile della tecnologia, mentre vietano il caricamento di manoscritti inediti su chatbot esterni per proteggere la proprietà intellettuale
  • Esperimenti indipendenti rivelano che l'AI non riesce a fornire feedback costruttivi e commette errori fattuali, dimostrando l'insostituibilità del giudizio critico umano nella valutazione scientifica

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'intelligenza artificiale sta rapidamente trasformando uno dei pilastri fondamentali del metodo scientifico: la revisione tra pari. Un'indagine condotta dalla casa editrice Frontiers su circa 1.600 ricercatori distribuiti in 111 paesi rivela che oltre la metà degli scienziati utilizza ormai strumenti di AI durante il processo di peer review, una pratica che solleva interrogativi profondi sulla confidenzialità, l'integrità intellettuale e il futuro stesso della validazione scientifica. La diffusione di modelli linguistici come ChatGPT ha reso accessibili tecnologie che possono analizzare manoscritti, identificare lacune metodologiche e persino redigere rapporti di valutazione, ma spesso in violazione delle linee guida stabilite dagli editori.

I risultati dell'indagine, pubblicati l'11 dicembre dalla società editoriale con sede a Losanna, mostrano che quasi un quarto dei ricercatori intervistati ha intensificato l'utilizzo dell'intelligenza artificiale nella revisione dei manoscritti nell'ultimo anno. Secondo Elena Vicario, direttrice dell'integrità della ricerca presso Frontiers, questi dati confermano ciò che molti sospettavano: "È importante confrontarsi con la realtà che le persone stanno usando l'AI nelle attività di peer review", anche se tale utilizzo avviene spesso in contraddizione con le raccomandazioni delle case editrici che vietano di caricare manoscritti non pubblicati su piattaforme di terze parti.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

L'analisi delle modalità d'uso rivela un quadro articolato: tra i revisori che impiegano strumenti di intelligenza artificiale, il 59% li utilizza per redigere i propri rapporti di valutazione, mentre il 29% se ne serve per sintetizzare il contenuto del manoscritto, identificare lacune metodologiche o verificare le referenze bibliografiche. Un ulteriore 28% degli intervistati sfrutta l'AI per individuare potenziali segnali di cattiva condotta scientifica, come plagio o duplicazione di immagini. Queste pratiche si inseriscono in un contesto in cui la maggior parte degli editori, inclusa Frontiers, consente un uso limitato dell'intelligenza artificiale nella peer review, ma richiede ai revisori di dichiararlo esplicitamente.

Il 59% dei revisori che utilizzano AI la impiegano per scrivere i propri rapporti di valutazione, una pratica che ridefinisce il confine tra assistenza tecnologica e delega della responsabilità scientifica

Le preoccupazioni relative alla confidenzialità e alla protezione della proprietà intellettuale degli autori hanno spinto la maggior parte degli editori a vietare categoricamente il caricamento di manoscritti inediti su siti web di chatbot. Per rispondere a questa "nuova realtà", come definita nel rapporto dell'indagine, Frontiers ha lanciato una piattaforma AI interna per i revisori di tutte le sue riviste. "L'AI dovrebbe essere utilizzata nella peer review in modo responsabile, con linee guida molto chiare, con responsabilità umana e con la giusta formazione", sottolinea Vicario.

Non tutti gli editori concordano sull'entità del fenomeno. Un portavoce di Wiley, casa editrice con sede a Hoboken nel New Jersey, ha dichiarato che un'indagine simile condotta dalla loro società quest'anno ha rilevato che "i ricercatori hanno un interesse e una fiducia relativamente bassi nei casi d'uso dell'AI per la peer review". Tuttavia, Wiley riconosce che gli editori possono e devono "comunicare proattivamente e in modo robusto le migliori pratiche, in particolare i requisiti di divulgazione che rafforzano la trasparenza per supportare un uso responsabile dell'AI".

Mohammad Hosseini, ricercatore specializzato in etica e integrità della ricerca presso la Northwestern University Feinberg School of Medicine di Chicago, considera l'indagine di Frontiers "un buon tentativo di valutare l'accettabilità dell'uso dell'AI nella peer review e la prevalenza del suo utilizzo in diversi contesti". La questione ha spinto alcuni scienziati a condurre esperimenti indipendenti per verificare l'affidabilità di questi strumenti.

Un caso emblematico è quello di Mim Rahimi, ingegnere dell'Università di Houston in Texas, che il mese scorso ha sottoposto a un test rigoroso il modello linguistico GPT-5. Rahimi ha chiesto all'AI di revisionare un articolo che aveva co-firmato su Nature Communications, utilizzando quattro configurazioni diverse: da prompt basilari senza contesto aggiuntivo fino a impostazioni complesse che fornivano al modello articoli di letteratura scientifica per valutare la novità e il rigore della ricerca. Confrontando gli output generati dall'intelligenza artificiale con le revisioni reali ricevute dalla rivista, l'esperimento ha rivelato limiti significativi: sebbene GPT-5 potesse imitare la struttura di un rapporto di peer review e utilizzare un linguaggio sofisticato, non riusciva a fornire feedback costruttivi e commetteva errori fattuali. Paradossalmente, le impostazioni più complesse hanno prodotto le revisioni più deboli.

Un altro studio ha confermato che le revisioni generate dall'AI su 20 manoscritti tendevano a corrispondere a quelle umane in termini generali, ma risultavano carenti nell'offrire critiche dettagliate e specifiche. Come conclude Rahimi dopo il suo esperimento, gli strumenti di intelligenza artificiale "potrebbero fornire alcune informazioni, ma se qualcuno si affidasse solo a quelle informazioni, sarebbe molto dannoso".

Fonte dell'articolo: www.nature.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Questa pianta ha rinunciato alla fotosintesi (e funziona)
4

Scienze

Questa pianta ha rinunciato alla fotosintesi (e funziona)

Di Antonello Buzzi
Long COVID: e se il vero colpevole non fosse il virus?

Scienze

Long COVID: e se il vero colpevole non fosse il virus?

Di Antonello Buzzi
Leucemia aggressiva: un composto naturale sorprende i ricercatori

Scienze

Leucemia aggressiva: un composto naturale sorprende i ricercatori

Di Antonello Buzzi
Questo pianeta ultracaldo non segue le regole dell’universo

Scienze

Questo pianeta ultracaldo non segue le regole dell’universo

Di Antonello Buzzi
Non fu un collasso improvviso: la Valle dell’Indo morì di sete
1

Scienze

Non fu un collasso improvviso: la Valle dell’Indo morì di sete

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.