Elon Musk spende milioni di dollari per rendere sicura l'Intelligenza Artificiale

Le Intelligenze Artificiali saranno una minaccia per l'uomo? Elon Musk finanzia la ricerca per metterci al riparo dai rischi e farci godere solo i benefici.

Avatar di Elena Re Garbagnati

a cura di Elena Re Garbagnati

Elon Musk e l'associazione no-profit Open Philanthropy Project hanno destinato 7 milioni di dollari di finanziamenti al Future of Life Institute (FLI) di Boston, a cui è affidato il compito di trovare il modo per garantire che l'intelligenza artificiale non diventi una minaccia per l'uomo. FLI ripartirà la cifra fra 37 gruppi di ricerca che potranno così sviluppare le proprie idee per fare che l'AI resti per l'uomo una risorsa "forte e benefica".

Elon Musk
Elon Musk

La maggior parte del capitale proviene proprio da Elon Musk, l'imprenditore miliardario patron di SpaceX e di Tesla Motors, che a più riprese in passato ha espresso i suoi timori circa i pericoli costituiti dalle intelligenze artificiali, unendosi ad altri personaggi pubblici come Bill Gates, Stephen Hawking e molti altri.

Leggi anche: Bill Gates come Hawking e Musk: l'IA è pericolosa

A gennaio 2015 Musk, Stephen Hawking e altri 150 scienziati hanno sottoscritto una lettera aperta chiedendo alle aziende che sviluppano le IA una maggiore cautela nell'impiego dell'intelligenza artificiale. In quell'occasione Musk promise una donazione di 10 milioni di dollari a sostegno della ricerca in questo senso, e a quanto pare la prima tranche è arrivata.

I 37 gruppi che riceveranno i finanziamenti del FLI sono stati selezionati tra quasi 300 candidati che hanno presentato progetti che vanno dall'informatica alla legge, passando per l'economia. Vediamo alcune delle idee proposte.

I ricercatori dell'Università della California, di Berkeley e dell'Università di Oxford intendono sviluppare algoritmi che consentano alle IA di imparare le preferenze umane, in modo che possano comportarsi sempre più come esseri umani e meno come macchine razionali.

Un gruppo della Duke University vuole sfruttare tecniche di informatica, filosofia e psicologia per costruire un sistema di intelligenza artificiale capace di esprimere giudizi morali e prendere decisioni in scenari realistici.

terminators

Nick Bostrom, filosofo della Oxford University e autore del libro "Superintelligence: Paths, Dangers, Strategies" si è posto invece l'obiettivo di creare un centro di ricerca congiunto Oxford-Cambridge per definire le politiche che potrebbero essere applicate da governi, aziende leader del settore, e altri, per ridurre al minimo i rischi e massimizzare i benefici a lungo termine delle AI.

I ricercatori dell'Università di Denver propongono di sviluppare tecniche per assicurare che gli esseri umani non perdano il controllo delle armi robotiche – scenario su cui sono tessute le trame di molti film di fantascienza.

Un altro ricercatore di Stanford vuole cercare di capire che cosa accadrà quando la maggior parte dell'economia sarà automatizzata, per prevedere eventuali scenari di massiva disoccupazione. Uno degli esponenti di Oxford vuole scrivere un codice etico per le AI, prendendo ispirazione da quello usato dalla comunità medica, che stabilisca quali ricerche debbano essere finanziate.

Intelligenza artificiale. Un approccio moderno: 1 Intelligenza artificiale. Un approccio moderno: 1
A.I. - Intelligenza Artificiale A.I. - Intelligenza Artificiale
Intelligenza artificiale: 2 Intelligenza artificiale: 2
L'intelligenza artificiale. Una guida filosofica L'intelligenza artificiale. Una guida filosofica
A.I. - Intelligenza Artificiale / L' Uomo Che Fuggi Dal Futuro (2 Dvd) A.I. - Intelligenza Artificiale / L' Uomo Che Fuggi Dal Futuro (2 Dvd)

Infine un gruppo del Machine Intelligence Research Institute vuole costruire modellini di potenti sistemi di IA per vedere come si comportano.

Che abbiate paura o meno delle Intelligenze Artificiali, il lavoro di questi gruppi potrebbe essere utile per definire regole in un settore che al momento non è regolamentato, con i pro e i contro che ne seguono.