Il comitato etico sull'IA di Google è morto sul nascere

L'ATEAC, il consiglio esterno formato da Google per analizzare i problemi etici legati all'intelligenza artificiale e altre tecnologie emergenti, chiude subito i battenti. Caos attorno alla figura di Kay Coles James.

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Dietrofront di Google
. L'azienda ha annunciato lo scioglimento del consiglio esterno formato la scorsa settimana per analizzare i problemi etici legati all'intelligenza artificiale
e altre tecnologie emergenti.

L'ATEAC (Advanced Technology External Advisory Council) avrebbe dovuto "riflettere su alcune delle sfide più complesse legate all'intelligenza artificiale, tra cui il riconoscimento facciale e il bilanciamento del machine learning, al fine di evitare il diffondersi e radicarsi di stereotipi culturali, che in maniera anche involontaria potrebbero passare dagli uomini alle macchine".

Il consiglio però si è subito imbattuto in una contesa legata alla presenza al suo interno di Kay Coles James, presidente della Heritage Foundation, figura nota negli Stati Uniti per essere conservatrice, anti-LGBTQ, contrario all'estensione dei diritti agli individui transgender e scettico sui cambiamenti climatici. Diversi altri membri del consiglio, tra cui il professor Alessandro Acquisti della Carnegie Mellon, hanno minacciato di abbandonare o abbandonato il consiglio, criticando la decisione di integrare James.

Google non ha fornito informazioni sulla scelta dei membri, ma secondo molti la decisione di integrare Kay Coles James potrebbe essere stata influenzata dal desiderio di placare i legislatori repubblicani e di avere dei favori in caso di regolamentazione sulla ricerca relativa all'IA e la sua applicazione in prodotti e servizi reali.

L'obiettivo d'istituire un comitato era nobile, specie dopo che lo scorso anno emerse che Google stava lavorando con il Pentagono sul progetto di alcuni droni che usavano la sua tecnologia di apprendimento automatico. Google, dopo le forti proteste di migliaia di suoi dipendenti, accantonò il progetto e s'impegnò a non sviluppare armi artificiali e lavorare su alcun progetto o applicazione di intelligenza artificiale che violasse norme accettate a livello internazionale o principi ampiamente accettati del diritto internazionale e dei diritti umani.

"È diventato evidente che nell'ambiente attuale, ATEAC non può funzionare come volevamo", ha affermato un portavoce di Google. "Quindi stiamo terminando il consiglio e tornando al tavolo delle idee. Continueremo a essere responsabili nel nostro lavoro sugli importanti problemi sollevati dall'intelligenza artificiale, e troveremo strade diverse per avere opinioni esterne su queste tematiche".