Tom's Hardware Italia
Spazio e Scienze

Intelligenza artificiale in Europa? Solo se rispetta regole e principi etici

La Commissione UE ha stabilito una roadmap per l'implementazione di linee guida europee caratterizzate da orientamenti etici condivisi.

L’Intelligenza artificiale europea segna un primo passo verso l’implementazione di linee guida caratterizzate da orientamenti etici condivisi. La Commissione UE oggi ha presentato una vera e propria tabella di marcia che parte dal lavoro svolto dai massimi esperti (indipendenti) europei in questi ultimi 10 mesi – in conformità con la strategia AI stabilita nell’aprile 2018. Com’è risaputo l’anno scorso Bruxelles ha stabilito strategie per consentire al privato e al pubblico un investimento di almeno 20 miliardi di euro all’anno per il prossimo decennio.

“L’intelligenza artificiale può avvantaggiare un’ampia gamma di settori, come l’assistenza sanitaria, il consumo di energia, la sicurezza delle automobili, l’agricoltura, i cambiamenti climatici e la gestione dei rischi finanziari”, si legge nella nota ufficiale. “L’intelligenza artificiale può anche aiutare a rilevare le frodi e le minacce alla cibersicurezza e consentire alle autorità di combattere la criminalità in modo più efficiente”.

Il problema è che l’AI alimenta nuovo sfide per il futuro del lavoro e “solleva questioni legali ed etiche“, motivo per cui industria, istituti di ricerca e autorità pubbliche dovranno confrontarsi per definire linee guida da applicare.

La Commissione ha stabilito un approccio in tre fasi: definizione dei requisiti chiave per un’intelligenza artificiale affidabile, avvio di una fase pilota su vasta scala per il feedback delle parti interessate ed elaborazione di un consenso internazionale per l’intelligenza artificiale umana-centrica.

Immagine: depositphotos

Intelligenza artificiale affidabile

Un’intelligenza artificiale affidabile potrà essere tale, secondo la Commissione, se rispetterà tutte le leggi, i regolamenti stabiliti e una serie di requisiti verificabili tramite:

  • La consapevolezza e la supervisione umana: i sistemi di IA dovrebbero consentire una società equa sostenendo la consapevolezza e i diritti fondamentali e non diminuire, limitare o fuorviare l’autonomia umana.
  • Robustezza e sicurezza: l’IA degna di fiducia richiede che gli algoritmi siano sicuri, affidabili e robusti per affrontare errori o incoerenze durante tutte le fasi del ciclo di vita dei sistemi di Intelligenza Artificiale.
  • Privacy e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati, mentre i dati che li riguardano non devono essere utilizzati per danneggiarli o discriminarli.
  • Trasparenza: la tracciabilità dei sistemi di IA dovrebbe essere garantita.
  • Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero considerare l’intera gamma di capacità, abilità e requisiti umani e garantire l’accessibilità.
  • Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per migliorare i cambiamenti sociali positivi e migliorare la sostenibilità e la responsabilità ecologica.
  • Responsabilità: dovrebbero essere messi in atto meccanismi per garantire responsabilità e “accountability” per i sistemi di IA e le loro azioni.

Progetto pilota su larga scala con partner

Durante l’estate 2019, la Commissione UE coinvolgerà aziende, amministrazioni pubbliche e organizzazioni sia direttamente che tramite il programma Alleanza Europea AI. Inoltre i membri del team di esperti che sta lavorando alle linee guida dall’anno scorso contribuiranno nel presentarle alle parti interessate di ogni Stato membro.

Costruire un consenso internazionale per l’intelligenza artificiale umana-centrica

La Commissione UE vuole trasmettere a livello globale questo tipo di approccio etico legato all’IA affinché “tecnologie, dati e algoritmi non conoscono frontiere”.

“A tal fine, la Commissione rafforzerà la cooperazione con partner affini come il Giappone, il Canada o Singapore e continuerà a svolgere un ruolo attivo nelle discussioni e nelle iniziative internazionali, tra cui il G7 e il G20. La fase pilota coinvolgerà anche aziende di altri paesi e organizzazioni internazionali”, conclude la Commissione.