Come l’UE vuole regolamentare l’Intelligenza Artificiale Perché l’UE vuole regolamentare l’AI

L'intelligenza artificiale è ovviamente il futuro in moltissimi campi, ma è anche uno sviluppo scientifico e tecnologico assai delicato, che epr sua natura coinvolge molti aspetti cruciali e nevralgici. Per questo l'Unione europea vorrebbe sviluppare una regolamentazione ad hoc per quest'ambito. Ce ne illustrano tutti i dettagli i nostri consulenti legali.

Avatar di Redazione Diritto dell’Informatica

a cura di Redazione Diritto dell’Informatica

L’intelligenza artificiale – ancora non oggetto di una definizione univoca e davvero esaustiva – consiste nell’attitudine e abilità di una macchina a compiere attività tipiche dell’essere umano impiegando strumenti come il ragionamento logico e la propensione all’apprendimento.

L’Unione Europea, sul delicato tema dell’utilizzo dell’intelligenza artificiale, ha mostrato la volontà di essere “un passo avanti a tutti”, sia in termini di tempistiche, che in termini di regolamentazione.

Nasce da questa unione di intenti la bozza di regolamento sull’intelligenza artificiale, presentata dalla Commissione Europea il 21 aprile 2021.

I motivi alla base della scelta dell’Unione Europea di iniziare questo percorso - con un obiettivo tutt’altro che semplice e che si inserisce in un progetto europeo più ampio - sono legati a diversi fattori: è certo che l’intensificarsi dell’uso dell’IA nella vita comune degli individui e i conseguenti rischi connessi alla mancata regolamentazione di queste attività hanno, in maniera complementare, spinto verso la proposta di regolamento arrivata ora dalla Commissione Europea.

I due elementi che hanno guidato la redazione di questa bozza sono, da un lato, la tutela dei diritti e delle libertà dei cittadini, dall’altro, il favore verso lo sviluppo di tecnologie che possano consentire all’Europa di non sopperire nel confronto con realtà come quella Statunitense o Cinese.

La chiave del ragionamento è sicuramente il bilanciamento di interessi e diritti tra loro contrapposti: risiede proprio qui la complessità e l’ambiziosità del progetto regolatorio promosso dalla Commissione, per analizzare e regolare gli aspetti più delicati e controversi del tema dell’Intelligenza Artificiale.

I rischi delle applicazioni IA a danno degli utenti

Intelligenza artificiale e privacy: due mondi che sembrano non poter convivere, rappresentando sicuramente uno dei temi più complessi quando si parla di applicazione dell’intelligenza artificiale.

Si potrebbe quasi dire che la normativa sulla protezione dei dati personali funga da “limite” ad un uso sconsiderato dell’IA, ponendo condizioni più stringenti ogni qualvolta vengono messi a rischio i diritti e le libertà dei cittadini.

È di questo parere il Garante Privacy italiano, che si è espresso positivamente in merito allo sviluppo dell’IA, ma ponendo allo stesso tempo come primaria “l’esigenza di una regolazione europea che preveda l’intervento umano per correggere eventuali pregiudizi dell’IA e garantire sicurezza, trasparenza e diritto di ricorso contro i bias e rispetto della privacy”.

Proprio sotto il profilo del controllo umano sulle attività dell’IA si inseriscono le problematiche legate al rispetto della normativa sulla protezione dei dati personali.

Se, infatti, un trattamento dei dati viene svolto dall’IA inizialmente per una specifica finalità e, quindi, secondo una determinata base giuridica (che ricordiamo essere il presupposto che rende lecito un trattamento), nulla vieta che l’attitudine dell’IA ad adattarsi all’ambiente circostante, operando anche autonome scelte, possa poi portare a compiere quello stesso trattamento per finalità diverse da quelle inizialmente previste e consentite. Non è questa un’ipotesi di lesione dei diritti e delle libertà di un soggetto?

Oltre a ciò, anche la divisione dei ruoli – e dei rispettivi compiti – in materia di privacy diventa impresa ardua quando si parla di intelligenza artificiale.  Infatti, una dimensione che esula dalla presenza umana pone sotto i riflettori anche il problema della “responsabilità”. Chi è davvero responsabile per l’attività svolta da una macchina? A chi poter dare la colpa nel caso in cui un nostro diritto sia stato violato?

Questi ed altri profili di criticità fanno emergere con grande evidenza quanto l’applicazione dell’IA necessiti di limiti e condizioni ben definite, per quanto rappresenti un’opportunità da non perdere per compiere passi da giganti nell’utilizzo del progresso tecnologico, come chiave per il miglioramento per diversi settori e per l’economia europea in generale.

I livelli di rischio e le multe proposte dal regolamento UE sull’intelligenza artificiale

Uno degli aspetti peculiari della proposta di Regolamento UE è l’essere prevalentemente improntato alla gestione e regolamentazione delle situazioni potenzialmente più rischiose nell’applicazione ed utilizzo dell’intelligenza artificiale.

La struttura scelta è, per questo, basata sulla diversificazione del livello di rischio che l’uso dell’intelligenza artificiale può comportare.

Partendo dalle applicazioni più delicate, viene individuato un livello di rischio “inaccettabile”, che non permette un bilanciamento di diritti, ma si pone come inevitabilmente lesivo delle libertà e del libero arbitrio delle persone. Un esempio ne sono i dispositivi che, utilizzati in giocattoli, mediante la funzione dell’assistenza vocale, possono arrivare ad influenzare a tal punto il comportamento del bambino da portarlo a compiere attività estremamente pericolose; oppure i sintetizzatori vocali che possono simulare la voce di una persona conosciuta per perpetrare truffe o violazioni. Altro caso eclatante è rappresentato da quei sistemi – in uso in alcune parti del mondo – che tramite l’intelligenza artificiale permettono di attribuire un “punteggio” ad ogni soggetto, basandosi sull’intervento dell’IA per analizzare e valutare i diversi aspetti della vita di una persona.

Subito dopo, il livello di “rischio alto” riguarda i casi in cui l’utilizzo di sistemi di IA potrebbe ripercuotersi in maniera incisiva sulla sicurezza e sui diritti delle persone fisiche. In questo caso non troviamo un divieto assoluto, bensì il loro utilizzo è assoggettato ad una serie di condizioni e requisiti assai stringenti, che servono per garantirne un uso conforme alla corretta salvaguardia dei diritti dei cittadini.

A scalare, viene menzionato il c.d. “rischio limitato”, attribuito a tutti quei sistemi di IA per i quali sono previsti specifici obblighi in materia di trasparenza: lo scopo infatti è di rendere consapevoli gli utenti della loro interazione con una macchina, e non – differenza non di poco conto - con una persona fisica che utilizza una macchina. Un esempio calzante è quello dei bot impiegati per rendere servizi di assistenza online: il loro utilizzo non è considerato ad alto rischio, purché sia davvero possibile per l’utente avere la consapevolezza di non avere a che fare con un umano, ma con una macchina che lo sostituisce in determinate attività.

Il meno restrittivo è il caso del rischio di livello “minimo”, categoria di cui fanno parte la gran parte dei sistemi di IA attualmente più diffusi ed utilizzati. Basti pensare, infatti, ai filtri antispam impostati nelle caselle di posta elettronica, oppure alla miriade di videogiochi sviluppati grazie all’utilizzo dell’intelligenza artificiale.

Sulla base di questa divisione sono state poi previste sanzioni parametrate all’effettivo grado di lesività di un’attività compiuta grazie all’utilizzo dell’IA, che potrebbero arrivare fino a 30 milioni di euro o al 6% del fatturato globale annuo per le aziende che non si allineassero alle prescrizioni del regolamento europeo.

Il riconoscimento facciale e la sorveglianza con l’intelligenza artificiale

Il riconoscimento facciale mediante l’utilizzo dell’intelligenza artificiale rientra a pieno titolo tra le attività considerabili ad alto rischio, quindi che potenzialmente sono più lesive per i diritti e le libertà dei cittadini. Questi sistemi, infatti, consentono di utilizzare l’IA per individuare un soggetto attraverso l’analisi di caratteristiche biologiche captate da sensori e poi incrociate con altri dati già acquisiti e conservati in database.

Sul punto vi è stata quindi una stretta da parte della Commissione, che ha previsto un generale divieto di utilizzo di strumenti di riconoscimento facciale nei luoghi pubblici, salvo però prevedere alcune eccezioni. Quello che rileva è la volontà di sfruttare le potenzialità dell’IA come strumento chiave per la gestione di attività particolarmente delicate e di interesse elevato. Infatti, saranno utilizzabili applicazioni dell’IA per il riconoscimento biometrico di minori scomparsi, oppure per scongiurare minacce di attacchi terroristici. Sempre, però, con l’autorizzazione di un organo giudiziario o altra autorità competente, a testimonianza del fatto che l’identificazione biometrica deve rappresentare un’opzione da prendere in considerazione solo in casi di estrema necessità e con le dovute cautele.

Il rischio alto, in sostanza, è determinato dalla possibilità di utilizzare mezzi così invasivi per operare un vero e proprio controllo sui soggetti coinvolti, senza alcuna base giuridica a sostegno e soprattutto nell’inconsapevolezza di chi potrebbe risultare in qualche modo sorvegliato. Sul tema la polemica si è accesa in Italia per quanto riguarda i sistemi di identificazione biometrica utilizzati da soggetti pubblici nei confronti dei lavoratori, incontrando anche la forte perplessità dell’Autorità Garante privacy sul punto. I mesi a venire, sicuramente, saranno determinanti per avere un quadro più chiaro della situazione a livello europeo, così da poter orientare le scelte in tema di intelligenza artificiale anche in ambito interno. La sfida rimane ardua, ma rappresenta comunque un passo decisivo verso l’utilizzo consapevole e regolamentato di una grande innovazione dell’era moderna.

Consulenza sull’intelligenza artificiale: ha senso?

Approcciarsi all’utilizzo dell’intelligenza artificiale senza gli opportuni strumenti e conoscenze di base sicuramente rappresenta un rischio che non vale la pena di correre. Questo non vuol dire, però, dover rinunciare ai vantaggi, in termini di progresso tecnologico e opportunità, che questi sistemi offrono.

Proprio per questo è necessario farsi guidare da professionisti, come il nostro partner Studio Legale FCLEX, che, grazie alla loro consulenza legale sull’intelligenza artificiale, possono aiutarti a godere degli aspetti positivi di questi sistemi altamente tecnologici, non tralasciando, però, la tutela dei propri diritti e di quelli altrui.