Tom's Hardware Italia
e-Gov

Le prime leggi UE sulla robotica, la Commissione ha pubblicato la bozza

Il documento indica i punti chiave su cui costruire le regole etiche e sociali per lo sviluppo di Intelligenze Artificiali.

Il gruppo di 52 esperti nominato dalla Commissione Europea ha pubblicato la prima bozza di linee guida per la sicurezza dell’Intelligenza Artificiale. È il primo passo verso un documento che dovrà stabilire le regole da seguire nello sviluppo degli algoritmi in territorio europeo.

L’iniziativa nasce nell’ambito del progetto Digital Single Market, che abbraccia una moltitudine di tematiche, inclusi il copyright, il blocco geografico dei contenuti, la privacy e molto altro – e almeno su alcuni temi le critiche non sono mancate.

Limitandosi al tema dell’Intelligenza Artificiale i nodi riguardano da una parte i diritti del cittadino, la sicurezza delle operazioni (individuale e di massa) e i possibili abusi. Dall’altra la possibilità per le aziende di operare sfruttando al massimo le capacità offerte dalle nuove tecnologie. Le linee guida cercano dunque di fondare e guidare un dibattito che non è tecnologico, ma etico, sociologico e politico.

La bozza elenca dunque alcuni principi etici fondamentali su cui si dovrebbe costruire il dibattito, e cerca di stabilire poi quali siano i “requisiti per un’AI di cui ci si possa fidare“. La bozza propone dieci punti fondamentali.

  1. Responsabilità: l’uso di questi strumenti deve sempre permettere di individuare responsabilità in caso di errori o abusi, e prevedere un sistema sanzionatorio. Se un algoritmo provoca un problema, per esempio non riconoscendo il diritto a un rimborso medico, o provocando un incidente stradale, deve esserci un sistema compensatorio.
  2. Controllo dei dati. Gli algoritmi di machine learning si nutrono di dati, e i dataset possono contenere elementi critici – famosi sono gli esempi di algoritmi che amplificano le discriminazioni, proprio in virtù dei dati usati. La bozza suggerisce l’adozione di sistemi che permettano il controllo e la pulitura dei dati prima che vengano usati. Similmente, si sottolinea l’importanza del controllo sui dati per misurare le prestazioni AI e garantire la piena anonimizzazione degli utenti. Si suggeriscono inoltre sistemi di registrazione dei dati per i sistemi ad apprendimento continuo, per prevenire possibili manipolazioni.
  3. Design democratico. “I sistemi dovrebbero essere progettati in un modo che permettano a tutti i cittadini di usare i prodotti e i servizi, senza discriminazioni di età, disabilità o stato sociale”. In altre parole, si auspica lo sviluppo di sistemi largamente accessibili a tutti i cittadini europei, secondo i principi di equità che costituiscono l’ossatura stessa della UE.
  4. Controllo umano dell’autonomia AI. I sistemi AI sono progettati per funzionare in modo del tutto autonomo, dopo il periodo di training. Valgano come esempio le automobili a guida autonoma, che potranno muoversi per le strade senza un guidatore. La bozza suggerisce estesi periodi di test per questi sistemi, e che i sistemi di controllo e monitoraggio si facciano più rigidi al crescere del livello di autonomia. Sarà necessaria, almeno in alcuni casi, la supervisione umana. “Ciò è rilevante per molte applicazioni AI, in particolare per quelle AI che suggeriscono o prendono decisioni sugli individui o le comunità”.
  5. Non Discriminazione. Negli ultimi anni sono stati molti gli esempi di discriminazione “implicita” nei sistemi AI, un problema legato sempre al dataset usato per l’addestramento (vedi punto 2). Il gruppo di esperti riconosce che le AI possono rendere i problemi di discriminazione ancora più gravi di quanto siano oggi, e che è possibile anche una manipolazione volontaria in questo senso – per quanto nella maggior parte dei casi si tratti di errori da correggere.
  6. Rispetto (e miglioramento) dell’autonomia umana. I sistemi AI dovrebbe essere progettati “anche per proteggere i cittadini nella loro diversità dagli abusi, governativi e privati, resi possibili dalle tecnologie AI”. In altre parole, questi sistemi rendono possibili abusi molto gravi, e dovrebbero contenere in sé stessi le contromisure. È uno dei principi non rispettati dall’Art. 13 della normativa europea sul copyright, per esempio.

“I sistemi con il compito di aiutare gli utenti, devono offrire un supporto esplicito alla promozione delle preferenze personali, e definire i limiti all’intervento del sistema, assicurando che il benessere dell’utente, definito dall’utente stesso, sia centrale per la funzionalità del sistema”.

  1. Rispetto della privacy. I sistemi AI dovranno naturalmente rispettare il recente GDPR e garantire il rispetto della privacy in ogni fase del funzionamento. Vanno tutelati i dati forniti dall’utente all’inizio, ma anche quelli che genera nel corso del tempo (per esempio la cronologia di ricerca).

“I registri digitali sul comportamento umano possono svelare dati molto sensibili, non solo in termini di preferenze ma anche riguardo l’orientamento sessuale, l’età, il sesso, le preferenze religiose e politiche. La persona con il controllo di queste informazioni potrebbe usarle a proprio vantaggio”.

  1. Robustezza. Un sistema di Intelligenza Artificiale affidabile deve essere resistente agli errori, sia in fase di sviluppo che di produzione. E deve essere in grado di gestire risultati errati. I risultati devono dunque essere sempre riproducibili in modo indipendente, una condizione che oggi non è possibile soddisfare con la maggior parte dei sistemi; che sono opachi (da qui il concetto di black-box).
    Devono essere precisi nel classificare le informazioni, nel fare previsioni e valutazioni.
    E devono naturalmente essere resistenti agli attacchi informatici.
  2. Sicurezza. I sistemi AI dovranno garantire l’incolumità degli esseri umani, il che è molto importante in contesti industriali e lavorativi in genere, delle risorse e dell’ambiente. E minimizzare eventuali effetti collaterali negativi, integrando dunque sistemi per la gestione degli incidenti.
  3. Trasparenza. Oggigiorno i sistemi AI sono poco o per nulla trasparenti. Una volta terminato l’addestramento, è spesso impossibile sapere che cosa ha portato a un certo risultato. I 52 esperti, in armonia con il GDPR, suggeriscono di cambiare questa realtà con sistemi AI che possano spiegare sé stessi e il proprio agire. Non è semplice, ma si può fare.

Il lungo documento integra diversi passaggi sui ragionamenti che hanno portato a questi dieci punti, insieme a suggerimenti per la loro realizzazione. Ancora più importante, i commenti sono aperti a tutti fino al prossimo 18 gennaio. Il gruppo di esperti presenterà la versione finale del documento a marzo 2019, e sarà poi il turno della Commissione analizzarlo e proporre come proseguire i lavori.