Stephen Hawking: l'Intelligenza Artificiale è un pericolo

Il fisico britannico mette in guardia contro l'Intelligenza Artificiale: potrebbe essere l'ultimo grande evento della storia umana se non riusciremo a controllarla.

Avatar di Elena Re Garbagnati

a cura di Elena Re Garbagnati

Il successo dell'Intelligenza Artificiale potrebbe essere il più grande evento nella storia umana. Ma potrebbe anche essere l'ultimo, se non impariamo come evitare i rischi. A dirlo sono stati Stephen Hawking, l'informatico Stuart Russell e i fisici Max Tegmark e Frank Wilczek in un articolo pubblicato sull'Independent a commento del film Transcendence, con Johnny Depp e Morgan Freeman.

La pellicola è appunto uno spunto di riflessione sull'AI e sulle conseguenze da affrontare, e proprio a queste si riferiscono Hawking e gli altri scienziati nelle loro considerazioni. "I potenziali benefici potrebbero essere enormi - scrivono - ma non possiamo prevedere quello che potremmo ottenere quando l'AI si espanderà, nel bene e nel male".

Stepen Hawking

Hawking, infatti, sembra non fidarsi degli esperti di AI e avvisa: sia nel breve sia nel lungo termine, ci sono molti possibili incubi in agguato. "Gli esperti stanno sicuramente facendo tutto il possibile per garantire il miglior risultato, giusto o sbagliato", ma si stanno impegnando poco nella ricerca per esaminare i potenziali rischi e benefici.

In particolare, i benefici si preannunciano enormi, pensiamo per esempio alle auto che si guidano da sole, ai computer capaci di vincere a Jeopardy! e agli assistenti vocali come Siri, Google Now e Cortana. In passato lo scienziato britannico però aveva già cercato di ricordare alla gente che il fascino della fantascienza ci può accecare e che può mascherare il fatto che la conseguenza potrebbe essere il disastro totale. Adesso coglie l'occasione per ribadire il concetto.

Quello che offre la civiltà di oggi - spiega - è prodotto dall'intelligenza umana, ma non possiamo prevedere quello che potremmo ottenere quando questa intelligenza sarà amplificata dagli strumenti che può fornire l'AI. I risultati attuali sono infatti solo minimi segnali di quello che potrebbe succedere nei prossimi dieci anni: c'è già una corsa alle armi informatiche alimentate da investimenti senza precedenti, e si stanno già progettando armi capaci di scegliere e colpire bersagli in autonomia.

Non solo: nel medio termine, come sottolineato da Erik Brynjolfsson e Andrew McAfee, l'AI potrebbe trasformare la nostra economia e portare sia grandi ricchezze sia la povertà più assoluta. Guardando ancora più avanti, gli scienziati prevedono che potrebbero essere eliminati i limiti fondamentali di ciò che può essere raggiunto, fino ad arrivare a una transizione esplosiva ancora più potente di quella contemplata nel film.

Si possono immaginare tecnologie in grado di tenere in pugno i mercati finanziari, i leader politici, le armi e tutto il resto. Insomma, se l'impatto a breve termine dell'AI dipende da chi la controlla, l'impatto a lungo termine dipenderà dal fatto che possa essere controllata.