Le motivazioni nell'Intelligenza Artificiale

Lo sviluppo dell'intelligenza artificiale è forse la ricerca più importante della nostra epoca, e avrà con ogni probabilità effetti mai visti prima sul genere umano.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Le motivazioni nell'Intelligenza Artificiale

Il che ci porta alla domanda: che cosa motiva un sistema AI?

La risposta è semplice: la sua motivazione è qualsiasi cosa sia scritta nel suo programma. I sistemi AI ricevono degli obiettivi dai loro creatori; per esempio l'obiettivo del vostro GPS è portarvi a destinazione nel modo più efficiente possibile. L'obiettivo di Watson (IBM) è rispondere con precisione alle domande. Raggiungere tali obiettivi nel migliore dei modi è la loro motivazione. Noi la antropomorfizziamo pensando che se una AI diventa superintelligente, svilupperà automaticamente la saggezza di cambiare il proprio obiettivo originale – ma Nick Bostrom ritiene che livello di intelligenza e obiettivi siano ortogonali tra loro, quindi un qualsiasi livello di intelligenza si può combinare con un qualsiasi obiettivo.

Her screenshot at desk with booklet
Her

Ecco quindi che Turry è passata dall'essere una semplice ANI, che voleva davvero essere brava nello scrivere bigliettini, a essere una ASI superintelligente che continuava a desiderare la stessa cosa. Immaginare che una un sistema superi il proprio obiettivo originale quando diventa superintelligente significa antropomorfizzare. Gli esseri umani "superano" le cose, le macchine no[1].

L'AI alla conquista dell'universo e il paradosso di Fermi

Nella storia, quando Turry acquista capacità superiori, comincia a colonizzare asteroidi e altri pianeti. Se la storia fosse andata avanti, avremmo visto come lei e trilioni delle sue repliche continuavano a conquistare l'intera galassia e alla fine l'intero campo ultra profondo di Hubble. I residenti di Viale dell'Ansietà si preoccupano del fatto che se le cose vanno male, ciò che resterà della vita sulla Terra sarà un universo dominato dall'Intelligenza Artificiale – Elon Musk ha espresso la preoccupazione secondo cui gli esseri umani potrebbero essere "l'avvio biologico di una superintelligenza digitale".

Allo stesso tempo, nel Confident Corner, anche Ray Kurzweil crede che una AI di origine terrestre sia destinata a conquistare l'universo, ma nella sua versione saremo noi quella AI.

Un buon numero di lettori si è unita a me nella mia ossessione per il paradosso di Fermi. Ne ho parlato in questo post, quindi qui sarò breve. Se nessuno di questi due gruppi ha ragione, quali sono le implicazioni del paradosso di Fermi?

Un primo pensiero spontaneo sarebbe pensare che l'arrivo della ASI sia un ottimo candidato come Grande Filtro. Sì, è sicuramente un candidato perfetto, che potrebbe eliminare la vita biologica dopo la sua creazione. Ma se successivamente la ASI continuasse a esistere e cominciasse a conquistare la galassia, significherebbe che non c'è stato un Grande Filtro – perché la teoria del Grande Filtro cerca di spiegare perché non ci sono segni di vita intelligente, e di certo una ASI che conquista tutto si noterebbe.

Dobbiamo guardarla in un altro modo. Se coloro che credono nell'inevitabilità dell'ASI sulla Terra hanno ragione, significa che una percentuale significativa di civiltà aliene che arrivano a un'intelligenza di livello umano dovrebbe probabilmente finire per creare una ASI. Se prendiamo per vera l'idea che almeno qualcuna di queste ASI userebbe la propria intelligenza per espandersi nell'universo, il fatto che non ci sia segno di alcuna presenza ci porta alla conclusione che non ci sono molte altre civilizzazioni là fuori, forse nessuna. Perché se ci fossero vedremmo segnali di ogni genere di attività per via dell'inevitabile creazione della ASI. Giusto?

Questo implica che, nonostante tutti i pianeti simili alla Terra che girano intorno a stelle simili alla Terra, quasi nessuno di loro ha vita intelligente. E questo a sua volta comporta che:

A)     Esiste un Grande Filtro che impedisce a quasi tutta la vita di arrivare al nostro livello, e che noi in qualche modo siamo riusciti a superare.

Oppure

B)      L'inizio della vita è un miracolo, e potremmo davvero essere l'unico pianeta abitato nell'universo. In altre parole questo significa che non siamo ancora giunti al Grande Filtro. 

O forse non esiste alcun grande filtro e noi siamo semplicemente tra le prime civilizzazioni a raggiungere questo livello di intelligenza. In tal caso l'accelerazione della AI supporta l'ipotesi, nel Paradosso di Fermi, secondo cui siamo soli nell'universo – o almeno non ci sono altre civilizzazioni.

Senza sorprese, Nick Bostrom e Rai Kurzweil sono convinti che siamo soli nell'universo. Ha senso, perché è qui che si collocano le persone convinte che la ASI sia un probabile risultato di una specie con intelligenza pari alla nostra.

Questo non esclude del tutto il secondo gruppo (chi crede che esistano altre civilizzazioni intelligenti). I nostri silenziosi cieli notturni si possono spiegare con ipotesi come quella del superpredatore, del parco protetto o della lunghezza d'onda sbagliata. In passato mi sono sempre sentito inclinato verso

questa ipotesi, ma la ricerca sulla AI ha fatto vacillare le mie convinzioni.

In ogni caso oggi sono d'accordo con Susan Schneider sul fatto che se mai dovessimo ricevere una visita da parte degli alieni, questi sarebbero artificiali e non biologici.

Abbiamo quindi stabilito che, senza una specifica programmazione, un sistema ASI sarebbe sia amorale e sia ossessionato dal raggiungimento del suo scopo originario. Ed è proprio qui che c'è il pericolo, perché un'agente razionale perseguirà il proprio obiettivo con i mezzi più efficienti che riesce a trovare, a meno che non abbia una ragione per fare diversamente.