Tom's Hardware Italia
Spazio e Scienze

Elon Musk e DeepMind alleate contro le armi autonome

‎"Non sosterremo, né parteciperemo a sviluppo, fabbricazione, commercio o uso di armi letali autonome". Questo, sinteticamente, è l'impegno annunciato oggi dal Future Of Life Institute e sottoscritto durante la Joint Conference on Artificial Intelligence da Elon Musk, dal team di Google sull'intelligenza artificiale DeepMind e da altre 160 aziende e 2400 individui, in rappresentanza di […]

‎"Non sosterremo, né parteciperemo a sviluppo, fabbricazione, commercio o uso di armi letali autonome". Questo, sinteticamente, è l'impegno annunciato oggi dal Future Of Life Institute e sottoscritto durante la Joint Conference on Artificial Intelligence da Elon Musk, dal team di Google sull'intelligenza artificiale DeepMind e da altre 160 aziende e 2400 individui, in rappresentanza di 90 Paesi. L'organizzazione chiede inoltre a tutti i governi di impegnarsi nel produrre leggi che regolamentino il settore stesso.

Non è la prima volta che Elon Musk e altre figure o aziende dell'hi-tech, unitamente a scienziati di tutto il mondo, lanciano l'allarme sul tema, cercando di sensibilizzare opinione pubblica e istituzioni. Lo scorso anno ad esempio diversi scienziati firmarono un appello all'ONU sull'argomento.

824full hardware screenshot

‎"Migliaia di ricercatori attivi nel settore dell'intelligenza artificiale concordano che rimuovendo il rischio, la difficoltà e l'assunzione di responsabilità nel sopprimere vite umane [sottraendo cioè la decisione ad altri esseri umani e affidandola a macchine intelligenti N.d.R.], le armi autonome letali potrebbero diventare potenti strumenti di violenza e oppressione, specialmente se utilizzate unitamente a sistemi di sorveglianza e analisi dei dati", si legge nel documento sottoscritto oggi. "La decisione di spegnere una vita umana non dovrebbe mai essere delegata ad una macchina".

Leggi anche: Project Maven, Google realizzerà l'IA dei droni militari

Le preoccupazioni sorgono dai recenti episodi che hanno visto il tentativo di impiegare tecnologie sviluppate in ambito civile, piegandole alle esigenze e alle logiche di agenzie governative, forze dell'ordine e militari.

Leggi anche: Tecnologia Amazon alla Polizia, dipendenti in rivolta

Due esempi recenti sono rappresentati dal tentativo di utilizzare l'IA di Google per aiutare i droni militari a interpretare i dati raccolti in ricognizione, conosciuto come Project Maven, e dai test condotti dalla Polizia di Orlando con il software di riconoscimento facciale di Amazon, che in entrambi i casi hanno sollevato le proteste degli stessi dipendenti.

1458316460 terminator 2

Google da parte sua ha sospeso Project Maven e ha anche esteso i suoi principi etici per la guida dell'azienda nell'utilizzo delle tecnologie di intelligenza artificiale, che prevedono l'impossibilità di utilizzare le proprie soluzioni per la realizzazione di armi, strumenti di sorveglianza o qualsiasi altra cosa il ‎cui scopo contravvenga ai principi universalmente accettati del diritto internazionale e dei diritti umani. Elon Musk invece nel 2015 ha versato proprio al Future Of Life Institute 10 milioni di dollari per finanziare un progetto focalizzato sull'assicurare che lo sviluppo dell'IA porti benefici all'umanità. Basterà? ‎


Tom's Consiglia

Volete avere un'idea di cosa potrebbe fare l'essere umano ad altri suoi simili per mezzo di sofisticate armi "intelligenti"? Guardatevi Hardware di Richard Stanley.