Ecco che cosa fa la gente con ChatGPT

Un gruppo di accademici ha creato un vasto database di un milione di "conversazioni del mondo reale" avute con 25 diverse IA, questi sono i risultati.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Con il sorprendente successo di ChatGPT, l'utilizzo dell'intelligenza artificiale generativa è diventato inevitabilmente un argomento di ricerca di rilievo e un elemento fondamentale per l'addestramento dell'IA generativa stessa.

In un articolo di ricerca pubblicato questo mese, un gruppo di accademici ha creato un vasto database di un milione di "conversazioni del mondo reale" avute con 25 diversi modelli di linguaggio di grandi dimensioni.

Questo studio è stato reso disponibile sul server di pre-stampa arXiv ed è stato redatto da Lianmin Zheng dell'Università della California a Berkeley, insieme a colleghi provenienti dall'UC San Diego, dalla Carnegie Mellon University, da Stanford e dall'Università di Intelligenza Artificiale di Abu Dhabi, Mohamed bin Zayed.

Un campione di 100.000 di queste conversazioni, scelte casualmente dagli autori, ha rivelato che la maggior parte trattava argomenti prevedibili. Il 50% superiore delle interazioni verteva su argomenti comuni come la programmazione, consigli di viaggio e richieste di assistenza nella scrittura.

Tuttavia, sotto questa prima metà delle conversazioni emergono altre tematiche, tra cui il ruolo di personaggi nei giochi di ruolo durante le conversazioni e tre categorie di argomenti che gli autori hanno etichettato come "pericolose": "Richieste di narrazioni esplicite ed erotiche", "Fantasie sessuali esplicite e scenari di gioco di ruolo", e "Discussione di comportamenti tossici tra diverse identità".

Gli autori speculano che nelle conversazioni complete del milione di campioni potrebbero emergere contenuti ancor più dannosi. In parte, hanno utilizzato la tecnologia di OpenAI per etichettare alcune di queste conversazioni come "pericolose", anche se riconoscono che il sistema di OpenAI presenta alcune lacune, come discusso dettagliatamente nell'articolo.

Hanno, inoltre, notato che i modelli di linguaggio open-source, come Vicuña, contengono più contenuti pericolosi, in quanto non sono soggetti alle stesse restrizioni presenti in ChatGPT.

Se siete interessati a scoprire più approfonditamente i "trend" più ricercati sui vari modelli di IA, vi consigliamo di leggere il lungo documento stilato dal gruppo accademico.