Concludendo, potremmo anche non morire

Lo sviluppo dell'intelligenza artificiale è forse la ricerca più importante della nostra epoca, e avrà con ogni probabilità effetti mai visti prima sul genere umano.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Concludendo, potremmo anche non morire

Arrivati a questo punto, sento emozioni contrastanti.

Da una parte, pensando alla nostra specie, sembra che avremo un solo tentativo a disposizione per fare le cose nel modo giusto. La prima ASI che realizzeremo sarà probabilmente anche l'ultima, e considerato la quantità di bug che ha la maggior parte dei prodotti 1.0, è una prospettiva terrificante. D'altra parte Nick Bostrom sottolinea un grande vantaggio su cui possiamo contare: abbiamo la prima mossa. Abbiamo il potere di procedere con la dovuta cautela e darci buone probabilità di successo. Quanto sono alti i rischi?

Se la ASI dovesse nascere davvero in questo secolo, e se l'esito è davvero tanto estremo (e permanente) come credono molti esperti, abbiamo un'enorme responsabilità sulle nostre spalle. Il prossimo milione di anni di esistenza umana ci guarda in silenzio, sperando che non facciamo stupidaggini. Abbiamo l'occasione di essere gli umani che danno il dono della vita a tutti i futuri esseri umani, persino il dono di un'esistenza eterna e senza doloro. Oppure saremo quelli che hanno distrutto tutto, che hanno permesso a questa incredibile specie, con la musica, l'arte, la curiosità, le risate e le invenzioni, di giungere a una fine triste e spicciola.

Outcome Spectrum

Quando rifletto su queste cose, l'unica cosa che desidero è che ci prendiamo il tempo necessario, con una prudenza incredibile. Niente è tanto importante quanto fare questa cosa per bene, non importa quanto tempo ci vorrà o quanto dovremo spendere.

Ma poi penso alla possibilità di non morire.

Non morire.

E lo schema del possibile esito all'improvviso mi sembra questo:

Outcome Spectrum 2

Potrei pensare che la musica e l'arte del genere umano sono una buona cosa, ma non poi così buona, e una buona parte è in effetti una porcheria. E un sacco di gente ha una risata fastidiosa, e quei milioni di persone del futuro in verità non sperano nulla perché non esistono. E forse non dobbiamo essere troppo cauti, perché dopotutto nessuno lo desidera davvero, no?

Perché, diciamolo, sarebbe un'immensa fregatura se il genere umano riuscisse a curare la morte appena dopo che sono morto io.

Al momento ho in testa un sacco di questi su e giù.

Ma non importa per chi o cosa facciate il tifo, questo tema è probabilmente qualcosa su cui tutti dovremmo riflettere e di cui tutti dovremmo parlare, sforzandoci di più rispetto a quanto stiamo facendo ora.

Mi ricorda un po' Il Trono di Spade, dove le persone sono sempre troppo prese a combattersi tra loro, ma dovrebbero concentrarsi su ciò che proviene dalle terre a nord del Muro. Stiamo nella nostra fascia di equilibrio (dell'esistenza, N.d.T.), e litighiamo su ogni possibile problema al suo interno e sottolineandoli tutti come fossero il più importante, quando c'è una buona probabilità che tra poco saremo buttati fuori.

E quando accadrà, nessuno di quei problemi avrà più importanza. Dipenderà da quale lato andremo a finire: i nostri problemi saranno risolti facilmente oppure non avremo più alcun problema, perché i morti non hanno problemi.

Ecco perché le persone che capiscono cosa sia una AI superintelligente la chiamano l'ultima invenzione che faremo, l'ultima sfida che affronteremo.

Parliamone.