Sappiamo riconoscere i contenuti generati dalla AI?

Siamo in grado di distinguere un testo scritto da un uomo da quello scritto da una IA? Oggi è praticamente impossibile.

Avatar di Francesco Daghini

a cura di Francesco Daghini

L'IA, l'Intelligenza Artificiale, è progredita in modo molto rapido grazie all'apprendimento automatico e all'abbondanza di dati disponibili, consentendo a modelli linguistici di grandi dimensioni (LLM) come ChatGPT e BERT di generare contenuti che assomigliano in modo quasi indistinguibile a testi creati dall'uomo. Tuttavia, le preoccupazioni verso le possibilità di plagio e furto di contenuti hanno sollevato la necessità di sistemi di rilevazione per distinguere i contenuti generati dall'IA dal materiale creato dall'uomo.

Gli attuali rilevatori di IA sono abbastanza inaffidabili, e si lasciano ingannare facilmente da tecniche molto semplici come la parafrasi. Gli errori di rilevamento possono accusare erroneamente un individuo di utilizzare l'IA o non identificare il testo generato dall'IA, e anche gli i sistemi basati sul watermarking possono essere aggirati, mettendo a rischio la reputazione e la proprietà intellettuale.

Non tutti sono d'accordo sulla possibilità di riuscire a distinguere questi testi in modo efficace: c'è chi ritiene che i rilevatori faranno sempre fatica a identificare in modo affidabile i contenuti generati dall'IA, mentre altri ricercatori sono ottimisti sul fatto che un maggior numero di esempi di testo creato dall'uomo possa migliorare il rilevamento. Gli approcci olistici, che analizzano interi paragrafi o documenti, possono migliorare l'accuratezza considerando le caratteristiche umane distintive, come i modelli grammaticali e le scelte di parole.

Su un aspetto però i ricercatori concordano: vietare le LLM non è la soluzione ed è invece fondamentale sostenere un'integrazione responsabile degli strumenti di IA. I ricercatori sottolineano la necessità di proteggere dalle conseguenze dell'abuso di LLM, in particolare per le comunità emarginate che devono affrontare pregiudizi sociali. La multimodalità e gli strumenti di verifica secondaria possono aiutare il rilevamento dell'IA e sono essenziali discussioni aperte sull'uso etico.

Sono necessari sforzi proattivi, che prevedano la collaborazione tra ricercatori, responsabili politici e terze parti interessate. È fondamentale stabilire regolamenti, sviluppare migliori rilevatori e prevenire l'abuso dell'IA, massimizzando al contempo i vantaggi delle LLM. L'obiettivo è trovare un equilibrio, abbracciando il potenziale degli strumenti di IA e garantendo al contempo applicazioni etiche e affidabili in campi come l'istruzione e la prevenzione della disinformazione.