Hot topics:
News su Black Friday 2017

Intelligenza Artificiale più pericolosa della Corea del Nord

Elon Musk è tornato a parlare di Intelligenza Artificiale e pericolo di estinzione. Affidando a Twitter la proprio opinione, il fondatore di Tesla ha affermato che l'AI rappresenta una minaccia più grande della Corea del Nord.

Intelligenza Artificiale più pericolosa della Corea del Nord

"Se non siete preoccupati dall'Intelligenza Artificiale, dovreste esserlo. È un rischio molto più grande della Corea del Nord". A dirlo è Elon Musk, fondatore e AD di Tesla e SpaceX. Un semplice Tweet accompagnato da un'immagine, con il quale Musk ha voluto riprendere un tema molto sentito in questi giorni e riportarlo a uno degli argomenti che gli sono più cari.

È innegabile infatti che negli ultimi giorni nel mondo c'è un rinnovato timore per uno scontro nucleare, di cui certamente di è parlato anche nelle riunioni familiari e tra amici di Ferragosto. Molti di noi temono che sia un pericolo reale, che Donald Trump e Kim Jong-un finiscano davvero per usare armi nucleari.

Leggi anche La vera minaccia non è perdere tutti i posti di lavoro

Sarebbe una catastrofe planetaria, è proprio per questo l'affermazione di Musk risulta altrettanto forte. Come si può pensare che l'intelligenza artificiale possa rappresentare una minaccia ancora più grande? La domanda è la porta per un dibattito complesso, che richiede una buona preparazione su tutti i fronti. E sono ben poche le persone al mondo che possono dirsi esperte di AI, di politica internazionale e di armamenti nucleari.

Se la minaccia nucleare è qualcosa di comprensibile a tutti o quasi, tuttavia, è forse opportuno ricordare qual è la minaccia ipotizzata da Musk. Si tratta del rischio esistenziale legato allo sviluppo di macchine pensanti, vale a dire che provochino l'estinzione del genere umano.

Leggi anche Elon Musk, regole per le IA o ci stermineranno

Oggi abbiamo Intelligenze Artificiali definite come Narrow AI: algoritmi molto evoluti che possono imparare e automigliorarsi, ma fanno una cosa sola. Le conoscenze acquisite non si possono riciclare da una macchina all'altra - non completamente almeno. Per ogni nuova attività, bisogna dunque ricominciare - i lettori esperti vorranno perdonare la sintesi estrema.

L'obiettivo verso cui ci stiamo muovendo è invece a General AI, vale a dire un'intelligenza artificiale in grado di svolgere più compiti diversi in modo simile alla mente umana. Le stiamo sviluppando usando le macchine stesse, vale a dire AI progettate per creare altre AI. Sarà poi il momento del livello umano - Human Level AI - e successivamente della Superintelligenza, che alcuni amano chiamare singolarità.

5b234f6039a37e2b455e337b8421aa5688a098e4 2880x1620[1]

Il problema è che anche un piccolo errore di programmazione potrebbe avere conseguenze drammatiche, fino all'estinzione del genere umano. Vogliamo creare una macchina dal potere infinito, praticamente una divinità, e dobbiamo dunque essere assolutamente certi che non ci farà del male né volontariamente né perché qualcuno ha sbagliato a programmarla.

Può sembrare una cosa da poco ma non lo è affatto. I maggiori esperti di AI del mondo sono divisi su questo tema e sono pochi quelli certi che l'AI sarà esclusivamente positiva. Musk stesso ha fondato OpenAI con l'esplicito obiettivo di sviluppare un'AI sicura. E ancora nel 2013 disse di aver investito in DeepMind (Alphabet, all'epoca Google) perché preoccupato da "scenari alla Terminator".


Tom's Consiglia

Per cominciare a esplorare il mondo dell'AI senza essere specialisti, il primo passo è La Singolarità è Vicina di Ray Kurzweill.

 

AREE TEMATICHE
Vuoi ricevere aggiornamenti su #Intelligenza Artificiale?
Iscriviti alla newsletter!