Perché il futuro potrebbe essere il nostro incubo peggiore

Lo sviluppo dell'intelligenza artificiale è forse la ricerca più importante della nostra epoca, e avrà con ogni probabilità effetti mai visti prima sul genere umano.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Perché il futuro potrebbe essere il nostro incubo peggiore

Una delle ragioni per cui ho voluto informarmi sulla AI è che l'argomento "robot cattivi" mi ha sempre confuso. Tutti i film sul tema sembrano grossolanamente irrealistici, e non riuscivo davvero a immaginare una situazione realistica in cui una AI potesse essere davvero pericolosa. Siamo noi che facciamo i robot, e allora perché dovremmo progettarli in modo che possa accadere qualcosa di negativo? Non ci metteremmo moltissime misure di sicurezza? Non potremmo semplicemente staccare la spina a un sistema AI e spegnerla in ogni momento? Perché un robot dovrebbe "desiderare" qualcosa, prima di tutto? Ero molto scettico, ma ho continuato ad ascoltare persone molto preparate che ne parlano …

Queste persone tendono a stare più o meno qui:

Square42

Le persone su Viale dell'Ansietà non abitano in Corso Panico né si sono trasferite in Piazza Senza Speranza (sono entrambe zone all'estrema sinistra del grafico) ma sono tese e nervose. Trovarsi in una posizione centrale nel grafico non significa credere che la ASI sarà neutrale (i neutrali hanno una loro zona), significa che consideri ugualmente plausibili tanto l'esito estremamente positivo quanto quello negativo, ma non hai certezze riguardo a quale dei due si verificherà.

Una parte di queste persone è molto eccitata riguardo a ciò che la Superintelligenza Artificiale potrebbe fare, ma sono un po' preoccupati perché potrebbe saltar fuori che è come l'inizio de I Predatori dell'Arca Perduta e la razza umana è questo tizio:

raiders1

Se ne sta lì tutto contento con la sua frusta e il suo idolo, convinto di aver capito tutto, ed è così orgoglioso di sé stesso che dice "Adios Señor", ma subito dopo è un po' meno contento perché succede questo:

500px Satipo death

(scusate)

Intanto, Indiana Jones, che ne sa molto di più ed è prudente, capisce i pericoli e come evitarli, e così riesce a uscire dalla caverna tutto intero. E quando sento quello che le persone di Anxious Avenue hanno da dire riguardo alla AI, spesso mi sembra che sia qualcosa come "Uhm, al momento siamo come il primo tizio e invece dovremmo cercare con tutti i mezzi di essere Indiana Jones".

Allora, esattamente cos'è che rende ansiosi gli abitanti di Viale dell'Ansietà?

Prima di tutto, in senso generale, quando si tratta di sviluppare una AI superintelligente, stiamo creando qualcosa che probabilmente cambierà ogni cosa, ma in territorio completamente inesplorato, e non abbiamo idea di ciò che succederà quando ci arriveremo. Lo scienziato Danny Hillis confronta ciò che sta accadendo con quel momento "in cui gli organismi monocellulari si stavano trasformando in organismi pluricellulari. Noi siamo amebe e non possiamo immaginare che diavolo è ciò che stiamo creando[1]".   Nick Bostrom si preoccupa perché creare qualcosa più intelligente di noi è fondamentalmente un errore darwiniano, e confronta l'eccitazione a riguardo a passeri in un nido che decidono di adottare un giovane gufo, convinti che li aiuterà e li proteggerà quando saranno grandi – e ignorando le lamentele di pochi altri passeri che si chiedono se sia necessariamente una buona idea[2]

E quando si unisce "territorio inesplorato e non ben compreso" con "questa cosa dovrebbe avere un impatto enorme quando accadrà" si apre la porta alle due parole più spaventose che esistano:

Rischio esistenziale.

Un rischio esistenziale è qualcosa che può avere un effetto devastante e permanente sull'umanità. In genere rischio esistenziale significa estinzione. Diamo un'occhiata a questo grafico preso da una presentazione di Bostrom (c'è anche un curioso scambio di battute e sguardi tra lui e Kurzweil, che ovviamente non è d'accordo):

Existential Risk Chart

Si può vedere che la casella "Rischio Esistenziale" (Existential Risk) è riservata a ciò che supera le specie e le generazioni (quindi è permanente) ed è devastante o porta a conseguenze mortali. Trovo interessante che Bostrom abbia collocato l'invecchiamento (aging) in una posizione tanto elevata, ma nella visione secondo cui la morte è curabile, come abbiamo detto sopra, è una scelta sensata. 

Se riusciamo a sconfiggere la morte, l'invecchiamento degli esseri umani che hanno vissuto fino a quel momento ci sembrerà la più grande delle tragedie, qualcosa che ha ucciso chiunque finché non si è trovata la soluzione. Tecnicamente, il grafico include una situazione in cui tutti gli esseri umani sono in uno stato permanente di sofferenza o tortura (il riquadro arancione con la X), ma stiamo sempre parlando di estinzione. Ci sono tre cose che possono causare una catastrofe esistenziale per il genere umano:

1)      Natura: la collisione con un grande asteroide, un cambio climatico che rende la Terra inospitale per gli umani, un'epidemia virale o batterica che ci uccide tutti, e così via.

2)      Alieni: questo è ciò che Stephen Hawking, Carl Sagan e tanti altri temono (è il paradosso di Fermi), e per questo suggeriscono al METI (che è cosa diversa dal SETI, N.d.T) di interrompere l'invio di segnali nello spazio. Non vogliono che il genere umano si trovi nella posizione dei Pellerossa, e che si faccia sapere a tutti i potenziali conquistatori europei dove siamo.

3)      Umani: terroristi che riescono a impossessarsi di un'arma in grado di causare la nostra estensione, una catastrofica guerra globale, esseri umani che creano qualcosa più intelligente di loro troppo di corsa e senza averci riflettuto sopra abbastanza …

Bostrom sottolinea che se i punti #1 e #2 non ci hanno ancora spazzato via, nei nostri primi 100.00 anni di storia, e improbabile che accada nel prossimo secolo.

Il punto #3 tuttavia lo terrorizza. Usa la metafora di un contenitore pieno di biglie: diciamo che la maggior parte di esse sono bianche, alcune rosse e ancora meno sono nere. Ogni volta che un essere umano inventa qualcosa di nuovo, equivale a estrarre una biglia. La maggior parte delle invenzioni sono neutrali o utili all'umanità – sono le biglie bianche. Alcune sono dannose per l'umanità, come le armi di distruzione di massa, ma non causano una catastrofe esistenziale; sono le biglie rosse. Se inventassimo qualcosa capace di portarci all'estinzione, sarebbe una delle pochissime biglie nere. Non abbiamo ancora estratto una biglia nera; lo sapete perché siete vivi e state leggendo questo articolo. Ma Bostrom non crede che sia impossibile trovarne una nel prossimo futuro. Se le armi nucleari, per esempio, fossero facili da costruire invece che estremamente difficili e complesse, i terroristi avrebbero già potuto bombardare l'intero pianeta riportandoci all'età della pietra. Le bombe nucleari non erano una biglia nera, ma non erano nemmeno troppo lontane dell'esserlo. Bostrom crede che la ASI sia il nostro candidato migliore per essere una biglia nera

Eccoci quindi a sentir parlare di tutti i potenziali pericoli che potrebbero arrivare con la ASI, come per esempio:

  • Impennata della disoccupazione (la ASI potrebbe prendere la maggior parte dei nostri lavori, ma forse non c'è problema. Secondo Bostrom a un certo punto a tutti sarà dovuta una paga sociale, perché tutti saremo esposti ai rischi impliciti nella ASI).
  • La popolazione umana esploderà se davvero risolviamo il problema dell'invecchiamento. Se dovesse succedere, significherebbe che la ASI ha fatto tanti altri passi e anche in questo caso il problema potrebbe essere già risolto. La ASI sarà in grado di capire come produrre cibo per tutti, e probabilmente troverebbe il modo di farci colonizzare altri pianeti.

L'unica cosa che dovrebbe davvero farci preoccupare a un livello ossessivo e la prospettiva di un rischio esistenziale.

Questo ci riporta indietro alla domanda fondamentale, vale a dire quando la ASI arriverà, chi o cosa controllerà il suo vasto potere, e quali saranno le sue motivazioni?