Intelligenza Artificiale: sette colossi si sono riuniti per regolarizzarla

Sette colossi del tech si sono riuniti per discutere dell’Intelligenza Artificiale e di come regolarizzarne l’uso per proteggere l’utenza

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Sette aziende si sono riunite per discutere dei contenuti generati attraverso l’uso dell’intelligenza artificiale, con l'obiettivo di garantire maggiore sicurezza e autenticità nelle informazioni condivise online.

Durante questo incontro, OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, si sono impegnate nella creazione di tecnologie avanzate atte a riconoscere, e ad applicare dei watermark ben visibili, sui contenuti generati da intelligenza artificiale, siano essi testi, video, audio o immagini.

L'iniziativa, ovviamente, è stata ben accolta dall'amministrazione Biden, la quale auspica che l’applicazione di watermark nei contenuti generati dalle IA, aiuti a prevenire inganni e manipolazioni, garantendo maggiore chiarezza agli utenti nel momento in cui condivideranno informazioni provenienti da fonti automatizzate.

Sebbene ancora non sia chiaro il funzionamento preciso di questo, al momento embrionale, watermark, si presume che verrà incorporato nel contenuto stesso, permettendo agli utenti di risalire a quale intelligenza artificiale sia stata usata per generarlo. In tal modo, si potrà stabilire l'autenticità delle informazioni, in modo da ridurre il rischio di diffondere contenuti falsi o manipolati.

Tra le preoccupazioni più concrete, legate all'uso delle IA, sono emersi i cosiddetti "deepfake", i quali rappresentano una delle maggiori preoccupazioni per gli utenti e i legislatori. Il recente caso delle false immagini dell'arresto di Donald Trump, generate con l'intelligenza artificiale di Midjourney e diventate immediatamente virali, ha messo in luce la necessità di adottare misure di protezione contro la manipolazione delle informazioni.

L'amministrazione Biden ha condiviso l'importanza di affrontare tempestivamente questa questione e ha programmato una serie di incontri con le sette aziende per condividere una serie di informazioni chiave. L'obiettivo è quello di sviluppare un ordine esecutivo, e una legislazione bipartisan, che permetta di mantenere un controllo efficace sulle tecnologie, in continua evoluzione, legate alle IA.

Bisognerà vedere come questi incontri riusciranno a rendere la creazione di contenuti attraverso l’intelligenza artificiale più sicura per l’utenza, evitando la diffusione di informazioni false che possano generare episodi analoghi a quello che ha coinvolto Donald Trump.