OpenAI chiede regole per l'IA, ma in realtà non le vuole

Con quello che sembra un brusco dietrofront, OpenAI ha cercato di mitigare le leggi europee relative all'intelligenza artificiale.

Avatar di Luca Rocchi

a cura di Luca Rocchi

Managing Editor

Poco meno di una settimana fa l'Unione Europea ha approvato l'AI Act, ovvero una legge che punta a regolamentare l'Intelligenza Artificiale e le organizzazioni, le aziende e i centri di ricerca che ne fanno uso. Si tratta, sostanzialmente, di una legge nata per limitare l'uso indiscrimano dell'intelligenza artificiale e sembra che OpenAI, uno dei maggiori player, tuttavia, abbia cercato di influenzare Bruxelles affinchè la legge avesse dei contenuti più morbidi e meno limitanti rispetto a quelli previsti.

Secondo quanto riportato dal Time, OpenAI avrebbe svolto attività di lobby a livello europeo, chiedendo ai politici delle istituzioni comunitarie di proporre emendamenti prima che venisse approvata dal Parlamento Europeo il 14 giugno. Sempre secondo l'editoriale, alcune delle modifiche richieste da OpenAI sarebbero state incluse nella legislazione europea.

Una strategia curiosa che si pone in totale controtendenza con le precedenti dichiarazioni di OpenAI stessa, che si era dichiarata favorevole a una regolamentazione dell'IA, anche severa. Inoltre, in seguito all'approvazione della AI Act, OpenAI avrebbe fornito i dati dei suoi modelli di IA al governo britannico, violando quindi uno dei principi fondamentali della sua politica di trasparenza, che prevedeva la massima riservatezza nella diffusione dei suoi modelli al fine di evitare una concorrenza sleale.

In particolare, sembra che OpenAI abbia cercato di ridurre il livello di rischio associato a ChatGPT e DALL-E, che nella bozza originale dell'AI Act erano considerati "ad alto rischio". Nella versione finale, invece, la scala di rischio è più segmentata, presumibilmente grazie all'attività di lobby della startup di OpenAI. I fornitori dei modelli IA dovranno solo attuare misure per prevenire la generazione di contenuti illegali, indicare se il sistema è stato addestrato con materiale protetto dal diritto d’autore ed effettuare una valutazione dei rischi. Per il The Verge, anche Google e Microsoft, avrebbero esercitato pressioni sull'Unione Europea per una legislazione meno severa nei loro confronti.