Un'esplosione di intelligenza

Lo sviluppo dell'intelligenza artificiale è forse la ricerca più importante della nostra epoca, e avrà con ogni probabilità effetti mai visti prima sul genere umano.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Un'esplosione di intelligenza

Spero che vi siate goduti la normalità, perché ora l'argomento diventa strano e spaventoso, e resterà così da ora in poi. Voglio soffermarmi un momento per ricordarvi che ogni cosa che dirò è scienza – scienza vera e previsioni future prese da molti tra i più rispettabili pensatori e scienziati. Tenetelo sempre a mente.

A ogni modo, come dicevo prima la maggior parte delle idee attuali per arrivare alla AGI prevedono che la AI ci arrivi tramite l'automiglioramento. E una volta che arriva allo stato di AGI, anche i sistemi che si sono formati e sono cresciuti con metodi diversi dall'automiglioramento sarebbero abbastanza intelligenti da cominciare ad automigliorarsi se lo desiderassero (nelle prossime pagine vedremo più in dettaglio cosa significa o potrebbe significare "desiderare" per un computer).

A questo punto introduciamo un concetto complesso e importante: automiglioramento ricorsivo. Funziona più o meno così:

Un sistema AI a un certo livello – diciamo scemo del villaggio – è programmato per migliorare la propria intelligenza. Quando lo fa è più intelligente – magari è al livello di Einstein – così quando lavora per migliorare la propria intelligenza, con un intelletto come quello di Einstein – la fa più facilmente e può compiere salti maggiori. Questi salti lo rendono molto più intelligente di qualsiasi essere umano e gli permettono avanzamenti ancora più grandi. Mano a mano che questi salti diventano maggiori e più frequenti, la AGI cresce sempre di più e raggiunge velocemente la superintelligenza di un sistema ASI. È quello che si definisce un'Esplosione di Intelligenza (termine usato la prima volta nel 1965 da Irving John Good, tra i più rilevanti pensatori in ambito AI). È l'esempio definitivo della Legge dei Ritorni Accelerati.

C'è un certo dibattito su quanto presto la AI arriverà a un'intelligenza di livello umano. Un sondaggio fatto su centinaia di scienziati chiedeva quando credevano che avremmo raggiunto la AGI, e mediamente la risposta era 2040[1]. Sono solo 25 anni da oggi, il che non sembra granché finché non si considera che molti esperti in questo campo ritengono probabile che il passaggio da AGI ad ASI sarà molto veloce. Potrebbe succedere qualcosa del genere:

Ci vogliono decenni affinché il primo sistema AI arrivi a un basso livello di intelligenza generale, ma alla fine succede. Un computer può comprendere il mondo che lo circonda bene quanto un umano di quattro anni. All'improvviso, entro un'ora da tale risultato, il sistema produce la grande teoria fisica che armonizza la meccanica quantistica e la relatività generale, qualcosa che nessun essere umano è riuscito a fare. 90 minuti dopo, la AI è diventata una ASI, 170.000 volte più intelligente di un essere umano.

Una superintelligenza di tale magnitudine va al di là della nostra comprensione, non possiamo capirla più di quanto un calabrone capisca l'economia keynesiana. Nel nostro mondo, intelligente significa un QI di 130 e stupido significa 85, non abbiamo una parola per definire un QI di 12.952.

Ciò che sappiamo che il dominio degli essere umani sulla Terra suggerisce una cosa: l'intelligenza porta il potere. Il che significa che la ASI, quando la creeremo, sarà l'essere più potente nella storia della vita sulla Terra, e tutti gli esseri viventi, inclusi gli umani, saranno soggetti ai suoi capricci – e questo potrebbe accadere nel giro di qualche decennio.

Se i nostri piccoli cervelli sono stati in grado di inventare il Wi-Fi, allora qualcosa che è 100, 1000 un miliardo di volte più intelligente non dovrebbe avere alcun problema nel controllare la posizione di ogni atomo al mondo nel modo che preferisce, in ogni momento – ogni cosa che consideriamo magia, ogni potere che immaginiamo nelle mani di un dio supremo sarà roba all'ordine del giorno per la ASI, così come lo è per noi premere un interruttore. Creare la tecnologia per invertire l'invecchiamento, curare malattie, eliminare la fame e persino la mortalità, riprogrammare il clima per proteggere la vita futura sulla terra – tutto all'improvviso è possibile. Per quanto ci riguarda, se dovesse nascere una ASI, sarebbe un onnipotente divinità sulla Terra – e la domanda più importante per noi è:

Sarà una divinità buona?

È l'argomento della prossima parte

Riferimenti bibliografici: i riferimenti saranno pubblicati in calce all'ultima parte di questo articolo.