Intelligenza Artificiale più pericolosa della Corea del Nord

"Se non siete preoccupati dall'Intelligenza Artificiale, dovreste esserlo. È un rischio molto più grande della Corea del Nord". A dirlo è Elon Musk, fondatore e AD di Tesla e SpaceX. Un semplice Tweet accompagnato da un'immagine, con il quale Musk ha voluto riprendere un tema molto sentito in questi giorni e riportarlo a uno degli argomenti che gli sono più cari.

È innegabile infatti che negli ultimi giorni nel mondo c'è un rinnovato timore per uno scontro nucleare, di cui certamente di è parlato anche nelle riunioni familiari e tra amici di Ferragosto. Molti di noi temono che sia un pericolo reale, che Donald Trump e Kim Jong-un finiscano davvero per usare armi nucleari.

Leggi anche La vera minaccia non è perdere tutti i posti di lavoro

Sarebbe una catastrofe planetaria, è proprio per questo l'affermazione di Musk risulta altrettanto forte. Come si può pensare che l'intelligenza artificiale possa rappresentare una minaccia ancora più grande? La domanda è la porta per un dibattito complesso, che richiede una buona preparazione su tutti i fronti. E sono ben poche le persone al mondo che possono dirsi esperte di AI, di politica internazionale e di armamenti nucleari.

Se la minaccia nucleare è qualcosa di comprensibile a tutti o quasi, tuttavia, è forse opportuno ricordare qual è la minaccia ipotizzata da Musk. Si tratta del rischio esistenziale legato allo sviluppo di macchine pensanti, vale a dire che provochino l'estinzione del genere umano.

Leggi anche Elon Musk, regole per le IA o ci stermineranno

Oggi abbiamo Intelligenze Artificiali definite come Narrow AI: algoritmi molto evoluti che possono imparare e automigliorarsi, ma fanno una cosa sola. Le conoscenze acquisite non si possono riciclare da una macchina all'altra - non completamente almeno. Per ogni nuova attività, bisogna dunque ricominciare - i lettori esperti vorranno perdonare la sintesi estrema.

L'obiettivo verso cui ci stiamo muovendo è invece a General AI, vale a dire un'intelligenza artificiale in grado di svolgere più compiti diversi in modo simile alla mente umana. Le stiamo sviluppando usando le macchine stesse, vale a dire AI progettate per creare altre AI. Sarà poi il momento del livello umano - Human Level AI - e successivamente della Superintelligenza, che alcuni amano chiamare singolarità.

5b234f6039a37e2b455e337b8421aa5688a098e4 2880x1620[1]

Il problema è che anche un piccolo errore di programmazione potrebbe avere conseguenze drammatiche, fino all'estinzione del genere umano. Vogliamo creare una macchina dal potere infinito, praticamente una divinità, e dobbiamo dunque essere assolutamente certi che non ci farà del male né volontariamente né perché qualcuno ha sbagliato a programmarla.

Può sembrare una cosa da poco ma non lo è affatto. I maggiori esperti di AI del mondo sono divisi su questo tema e sono pochi quelli certi che l'AI sarà esclusivamente positiva. Musk stesso ha fondato OpenAI con l'esplicito obiettivo di sviluppare un'AI sicura. E ancora nel 2013 disse di aver investito in DeepMind (Alphabet, all'epoca Google) perché preoccupato da "scenari alla Terminator".


Tom's Consiglia

Per cominciare a esplorare il mondo dell'AI senza essere specialisti, il primo passo è La Singolarità è Vicina di Ray Kurzweill.

 

Pubblicità

AREE TEMATICHE