Open AI ha l'intelligenza artificiale per sostituire gli scrittori, ma non pubblicherà i risultati

Open AI, una startup non profit di ricerca sull'intelligenza artificiale co finanziata anche da Elon Musk ha sviluppato un'IA così brava a scrivere testi che non ne pubblicherà lo studio per paura di possibili usi errati o fraudolenti.

Avatar di Alessandro Crea

a cura di Alessandro Crea

Che robot e intelligenze artificiali ci sostituiranno prima o poi al lavoro è ormai assodato ed è solo una questione di tempo, ma solitamente si è portati a pensare che questo accadrà soprattutto per i lavori manuali e non per quelli più "alti" o di concetto. Almeno fino ad oggi. Open AI, una startup non profit di ricerca nel campo dell'intelligenza artificiale, finanziata tra gli altri anche da Elon Musk ha infatti annunciato di aver messo a punto un'IA così brava a scrivere testi credibili per coerenza contenutistica e formale, da aver deciso di non pubblicare lo studio come invece fa solitamente, per paura che i risultati possano essere impiegati nella maniera sbagliata.

GPT2, questo il nome dell'IA, riesce infatti a produrre testi che sembrano scritti da un essere umano, a partire semplicemente da poche righe di un testo reale, che sia un articolo del Guardian sulla Brexit o 1984 di Orwell.

‎Dal punto di vista della ricerca pura, GPT2 è all'avanguardia per almeno due motivi. Uno per le sue dimensioni: come spiega infatti il direttore della ricerca di Open AI, Dario Amodei, "i modelli usati sono 12 volte più grandi, e il dataset 15 volte più grande e molto più ampio" rispetto allo stato dell'arte dei modelli precedenti. L'IA infatti è stata addestrata con un dataset di circa 10 milioni di articoli, selezionati scegliendo i link con più di tre voti presenti su Reddit. Una collezione così vasta da occupare circa 40 GB, sufficienti ad ospitare ad esempio circa 35.000 copie di Moby Dick.‎

Ovviamente poi tale quantità ha anche portato a un livello qualitativo del risultato mai raggiunto prima, tanto appunto da spingere i ricercatori a tenere sostanzialmente segreti i dettagli della ricerca, almeno fino a quando non si saranno fatti tutti gli esperimenti possibili per capire cosa si può e cosa non si può fare con questo strumento. Sono in molti infatti potenzialmente a poter utilizzare le capacità di questa IA in modo sbagliato, sfruttandola ad esempio per realizzare false recensioni e giudizi positivi di un prodotto o di un locale, ma anche produrre spam e fake news.

Ovviamente non bisogna fraintendere: serviranno ancora anni, forse decenni, prima che le IA siano in grado di scrivere interi libri, e non soltanto perché è difficile mantenere una certa coerenza di stile e contenuti per testi lunghi, ma anche perché in quel caso subentra la creatività umana e la capacità di creare metafore, ossia livelli di discorso gerarchizzati dove il primo rimanda a quello più ampio e profondo. Tuttavia la strada ormai è aperta e i ricercatori fanno bene e volerne investigare prima tutte le possibili implicazioni.