ChatGPT potrebbe "cessare le operazioni" in tutta Europa

OpenAI dice che potrebbe "cessare di operare" nell'UE, se le nuove regole dovessero rivelarsi troppo difficili da rispettare.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Sam Altman, fondatore e CEO di OpenAI, mette le mani avanti e avvisa che la sua società - e quindi il popolare ChatGPT - potrebbero uscire dal mercato europeo. Tutto dipende dalle regole che l’Europa approverà, e sulle quali il dirigente nutre "molte preoccupazioni".

La Commissione Europea è aperta alla collaborazione delle aziende coinvolte, e nelle ultime ore infatti Google ha deciso di cogliere l’occasione - sperando probabilmente di favorire l’approvazione di norme meno fastidiose.

Ma c’è un nodo in particolare che potrebbe rivelarsi troppo duro da sciogliere, cioè quello sulla trasparenza: nelle intenzioni dei regolatori, infatti, dovrebbe sempre essere possibile spiegare perché un algoritmo ha generato un certo risultato. Dovrebbe essere possibile comprendere il loro modo di pensare, le loro fonti, il sistema di addestramento che ha portato a un esito invece che a un altro.

Secondo Altman, questo principio di trasparenza potrebbe essere un problema, perché forzerebbe la sua azienda (ma anche altre in teoria) a divulgare segreti industriali. C’è anche un problema tecnico, noto come problema della black box: una volta addestrato il sistema, non c’è modo di sapere con precisione che cosa succede al suo interno. Almeno, non con i sistemi come sono progettati oggi. E ci sono anche possibili ricadute legali.

"I dettagli sono davvero importanti", ha dichiarato Altman, secondo quanto riportato dal Financial Times. "Cercheremo di adeguarci, ma se non potremo farlo cesseremo di operare".

Altman ha spiegato che la preoccupazione è che sistemi come ChatGPT vengano definiti "ad alto rischio" ai sensi della normativa UE. In tal caso scatterebbe l’obbligo di soddisfare una serie di requisiti di sicurezza e trasparenza. "Saremo in grado di risolvere questi requisiti oppure no", ha detto Altman. "Ci sono limiti tecnici a ciò che è possibile fare".

C’è anche il fatto che le aziende dovrebbero comunicare se sono stati usati materiali protetti da copyright per l’addestramento degli algoritmi, specificando quali. Una rivelazione che sarebbe doverosa anche verso i consumatori, ma già oggi queste aziende sono oggetto di diverse denunce su basi ipotetiche. Se l’uso di materiale protetto dovesse diventare evidente, sarebbero così inguaiate da dover chiudere in quattro e quattr’otto.

In passato, nota The Verge, OpenAI condivideva questo tipo di informazioni, ma ha smesso di farlo perché i suoi strumenti hanno acquisito sempre più valore commerciale.