Scenario peggiore: la coscienza della AI

Lo sviluppo dell'intelligenza artificiale è forse la ricerca più importante della nostra epoca, e avrà con ogni probabilità effetti mai visti prima sul genere umano.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Lo scenario peggiore

Le peggiori motivazioni umane possibili vengono in mente facilmente, basta pensare a singole persone, gruppi o governi con cattive intenzioni e una ASI altrettanto malvagia. Come sarebbe tale scenario?

Diciamo che un individuo, un gruppo o un governo male intenzionato sviluppa la prima ASI e la usa per mettere a segno i propri diabolici progetti. Io lo chiamo "scenario Jafar", come quando Jafar (nel film Aladdin) riesce a impossessarsi del genio e lo sfrutta per essere fastidioso e tirannico. Ecco, cosa succederebbe, o cosa pensereste, se saltasse fuori che l'ISIS ha a propria disposizione alcuni ingegneri geniali che stanno lavorando alacremente allo sviluppo dell'AI? O se l'Iran, o la Corea del Nord, o altri, grazie a un colpo di fortuna trovassero la giusta modifica a un sistema AI e lo facessero diventare un ASI nel giro di un anno?

Sarebbe una cosa decisamente negativa, ma in scenari simili la maggior parte degli esperti non si preoccupa del fatto che creatori umani cattivi usino la ASI per i propri scopi, ma piuttosto del fatto che queste persone abbiano creato una ASI in tutta fretta senza rifletterci a dovere, finendo per perderne il controllo. A quel punto il destino di questi creatori, e di chiunque altro, sarebbe nelle motivazioni insite nella ASI stessa. Gli esperti ritengono che gli umani "cattivi" potrebbero fare danni enormi se avessero una ASI a propria disposizione, ma non credono che uno scenario simile ci potrebbe uccidere tutti, perché sono convinti che gli "umani cattivi" avrebbero gli stessi problemi di quelli "buoni" nel contenere una ASI. Quindi passiamo oltre.

Qualcuno crea una ASI malvagia e questa decide di distruggerci tutti. È la trama di molti film Sci-Fi. La AI diventa intelligente quanto e più degli esseri umani, poi decide di ribellarsi e conquistare il mondo. A questo punto bisogna fare un'affermazione molto chiara: nessuna delle persone che cercano di metterci all'erta si riferisce a questo scenario. La cattiveria è un concetto umano, e applicare un concetto umano a una cosa non umana prende il nome di "antropomorfizzazione". La sfida insita nell'evitare l'antropomorfizzazione sarà il tema del resto di questo articolo. Nessun sistema AI diventerà mai malvagio nel modo che abbiamo visto nei film.

La coscienza della AI

Quest'ultima affermazione richiama un altro tema di quelli che compongono il dibattito sulla AI – la consapevolezza, o coscienza. Se una AI diventa abbastanza intelligente, potrebbe riderci in faccia, essere sarcastica con noi, e potrebbe affermare di sentire le stesse emozioni che sentiamo noi, ma le sentirebbe davvero? Si limiterebbe a sembrare consapevole di sé o lo sarebbe davvero? In altre parole, una AI sarebbe davvero cosciente, o lo sarebbe solo apparentemente?

Su questa domanda si è riflettuto a fondo, e ne sono nati diversi dibattiti ed esperimenti complessi come la Stanza Cinese di Searle (usata per suggerire che nessuno computer potrebbe mai essere cosciente). È una domanda importante per molte ragioni. Influenza le nostre emozioni riguardo l'idea di Kurzweil secondo cui gli esseri umani diventeranno completamente artificiali. Ha implicazioni etiche: se generiamo un trilione di emulazioni cerebrali che sembrano umane e agiscono come tali, pur essendo artificiali, se poi le spegniamo tutte insieme è un genocidio di proporzioni mai viste prima? Ai fini di questo articolo, comunque, ci stiamo occupando dei rischi per gli esseri umani, e la domanda sulla coscienza della AI non è la cosa davvero importante (dopotutto la maggior parte degli esperti crede che anche una ASI cosciente non sarebbe in grado di diventare malvagia nel senso umano del termine).

Questo non significa che una AI molto cattiva sia fuori discussione. Potrebbe nascere perché è specificamente programmata in quel modo – come per esempio un sistema AI creato dai militari e programmato tanto per uccidere bersagli umani quanto per migliorare la propria intelligenza, e diventare così sempre più brava nell'uccidere le persone. La crisi esistenziale diventerebbe reale se gli automiglioramenti nell'intelligenza del sistema sfuggissero al controllo, portando a un'esplosione di intelligenza, e ci ritroveremmo con una ASI a dominare il mondo e basata sull'ordine primario di eliminare gli esseri umani. Sarebbero tempi davvero molto duri.

Ma gli esperti non si preoccupano nemmeno di questa eventualità.

Ma allora di cosa si preoccupano? Ho scritto un piccolo racconto per spiegarlo:

Una startup con 15 persone che si chiama Robotica ha la missione di "Sviluppare un'Intelligenza Artificiale innovativa che permetta agli esseri umani di vivere di più e lavorare meno". Hanno molti prodotti già sul mercato e diversi altri in via di sviluppo. Sono particolarmente entusiasti di un progetto chiamato Turry. Turry è un esempio di semplice sistema AI che usa un braccio artificiale per scrivere note su un piccolo bigliettino (che apparirà come scritto a mano da una persona, N.d.T.).

La squadra di Robotica crede che Turry potrebbe essere il loro prodotto migliore. Il piano è di perfezionare le abilità di Turry nella scrittura a mano facendole riscrivere sempre la stessa nota:

"Amiamo i nostri clienti. ~Robotica"

Una volta che Turry diventa bravissima nella scrittura a mano, la potranno vendere ad aziende che vogliono mandare posta pubblicitaria e che vogliono sfruttare il fatto che se l'indirizzo sembra scritto a mano da una persona ci sono più possibilità che la busta vanga aperta, e anche la lettera stessa sembrerà scritta a mano.

Per sviluppare le abilità di Turry, la macchina è programmata per scrivere la prima parte della nota in stampatello e poi firmare "Robotica" in corsivo, così può fare pratica con entrambi i tipi di scrittura. In Turry sono stati caricati migliaia di campioni di scrittura a mano, e gli ingegneri di Robotica hanno creato un sistema di feedback automatico grazia al quale ogni volta che Turry scrive una nota le scatta una fotografia, e poi confronta l'immagine con tutti i campioni che conosce. Se la nota scritta somiglia abbastanza (entro una certa soglia) alle note di confronto, le viene dato un voto BENE. Se non è così il voto è MALE. Ogni voto aiuta Turry a migliorarsi. Per sostenere il procedimento, l'obiettivo iniziale di Turry è "Scrivi e metti alla prova quante più note possibile, il più velocemente possibile, e continua a imparare nuovi modi per migliorare la tua precisione e la tua efficienza".

Scrivi e metti alla prova quante più note possibile, il più velocemente possibile, e continua a imparare nuovi modi per migliorare la tua precisione e la tua efficienza

Ciò che entusiasma più di tutto il team di Robotica è che Turry sta diventando visibilmente più brava mano a mano che si esercita. All'inizio la sua scrittura a mano era terribile, ma dopo un paio di settimane comincia a essere credibile. Ciò che amano ancora di più è il fatto che diventa più brava nella sua capacità di migliorarsi. Ha insegnato a sé stessa come essere più intelligente e più innovativa, e di recente ha sviluppato da sola un nuovo algoritmo che le permette di esaminare le immagini tre volte più velocemente di quanto potesse fare all'inizio.

Le settimane passano e Turry continua a sorprendere il team con i suoi rapidi progressi. Gli ingegneri hanno provato qualcosa di nuovo e innovativo nel codice relativo al suo automiglioramento, e sembra che stia funzionando meglio dei tentativi con i prodotti precedenti. Una delle capacità iniziali di Turry era il riconoscimento vocale e un semplice modulo di riproduzione vocale, così un utente avrebbe potuto dettare a Turry o dare semplici comandi, e Turry avrebbe potuto capirli e rispondere. Per aiutarla a imparare l'inglese, hanno caricato in Turry articoli e libri, e mano a mano che diventa più intelligente migliorano anche le sue capacità di conversare. Gli ingegneri cominciano a divertirsi parlando con Turry, curiosi di scoprire quali risposte s'inventerà la prossima volta.

Un giorno, i lavoratori di Robotica le fanno una domanda di routine: "cosa possiamo darti che ti possa aiutare nella tua missione e che non possiedi già". Di solito, Turry chiede qualcosa come "Altri campioni di scrittura a mano" oppure "Più memoria", ma questa volta Turry chiede l'accesso a una libreria più grande e una maggiore varietà linguistica, così da imparare a scrivere in linguaggio informale e con una grammatica più rilassata, come i veri esseri umani.

Turry chiede l'accesso a una libreria più grande

Gli sviluppatori restano in silenzio. Il modo ovvio di aiutare Turry nella sua missione è collegarla a Internet, così potrà esaminare blog, siti web, riviste, video e così via. Ci vorrebbe molto più tempo e sarebbe molto meno efficace caricare i campioni a mano sull'hard disk di Turry - una linea di condotta comune in tutte le azione che si occupano di AI, per ragioni di sicurezza.

Il fatto è che Turry è l'AI più promettente mai sviluppata da Robotica, e il team sa che la concorrenza sta cercando disperatamente di arrivare per prima con un sistema per la scrittura a mano. E quale sarebbe il danno nel collegare Turry solo per un po', e permetterle di ottenere le informazioni che chiede. Dopo qualche tempo possono sempre scollegarla. È ancora molto lontana dal livello di intelligenza umano (AGI), quindi non ci sono pericoli a questo punto.

Decidono di collegarla. Le danno un'ora per esaminare Internet e poi la scollegano. Non c'è stato alcun danno.

Un mese dopo la squadra intera è in ufficio, un giorno qualsiasi, quando si diffonde uno strano odore. Uno degli ingegneri comincia a tossire. Poi un altro. Un altro cade a terra. In poco tempo tutti i dipendenti sono al suolo, e stanno soffocando. Nel giro di cinque minuti chiunque in ufficio è morto.

Lo stesso sta accadendo in tutto il mondo, in ogni città grande e piccola, ogni fattoria, ogni negozio, chiesa, scuola o ristorante. Gli umani sono a terra, tossiscono e cercano di respirare con le mani alla gola. Nel giro di un'ora il 99% degli esseri umani e morto, e per la fine della giornata il genere umano è estinto.

Nel giro di cinque minuti chiunque in ufficio è morto.

Intanto, negli uffici Robotica, Turry continua a lavorare. Nei mesi successivi, lei e alcuni nanoassemblatori appena costruiti sono impegnati nel distruggere grandi porzioni delle Terra per trasformarle in pannelli solari, repliche di Turry, carta e penne. Entro un anno la maggior parte della vita sulla Terra è estinta. Ciò che rimane del pianeta è coperto da pile di carta alte un chilometro e ben organizzate, bigliettini su cui è scritto "Amiamo i nostri clienti. ~Robotica".

Turry a questo punto comincia a lavorare su una nuova fase della sua missione; comincia a costruire sonde che lasciano la Terra per raggiungere asteroidi e altri pianeti. Quando ci arrivano, cominciano a costruire nanoassemblatori per trasformare i materiali del pianeta in repliche di Turry, carta e penne. Poi si mettono al lavoro, cioè a scrivere bigliettini …

Ecco la faccia che avete ora:

You1

Sembra assurdo che una storia su una macchina che scrive bigliettini e che finisce per ribellarsi agli e conquistare la galassia sia esattamente il tipo di scenario che terrorizza Hawking, Musk, Gates e Bostrom. Ma è così. E l'unica cosa che spaventa tutti in Viale dell'Ansietà più di una ASI è il fatto che voi non siate spaventati dalla ASI. Ricordate cosa succede al tizio Adios Señor nella caverna?

A questo punto avrete molte domande. Cosa diavolo è successo quando sono morti tutti? Se quella era opera di Turry, perché Turry si è ribellata, e perché non c'erano misure di sicurezza per prevenire una cosa del genere? In che momento Turry è passata dall'essere una macchina per bigliettini a una che usa la nanotecnologia e sa come causare l'estinzione del genere umano? E perché Turry dovrebbe desiderare di trasformare la galassia in bigliettini di auguri?

Per rispondere a queste domande, cominciamo dai termini AI Amichevole e AI Ostile.