Firmata da figure di spicco come Hinton e Bengio, pionieri dell'intelligenza artificiale, insieme a personalità eterogenee che vanno da Steve Wozniak a membri della nobiltà britannica e star della musica, c'è una nuova petizione che sollecita interventi legislativi per regolare o addirittura fermare temporaneamente lo sviluppo di sistemi di intelligenza artificiale "superiore". Si tratta della seconda iniziativa di questo tipo, una fotocopia sostanziale di quella del 2023, segno che le preoccupazioni non si sono affatto attenuate.
Prima di affrontare i rischi paventati, occorre fare chiarezza su tre acronimi fondamentali che spesso vengono confusi nel dibattito pubblico. L'ANI (Artificial Narrow Intelligence) indica sistemi specializzati in un compito specifico: ChatGPT, ad esempio, rientra in questa categoria perché lavora esclusivamente con il linguaggio, pur nelle sue molteplici applicazioni. L'ASI (Artificial Super Intelligence) descrive invece sistemi che superano le capacità umane in determinati ambiti, proprio come una calcolatrice o Deep Blue, il computer che sconfisse Kasparov negli anni Novanta. Infine l'AGI (Artificial General Intelligence) rappresenta il vero salto qualitativo: un'intelligenza capace di operare trasversalmente su più domini, analogamente a quella umana.
Il problema centrale risiede nella confusione sistematica tra questi concetti, particolarmente tra AGI e ASI. Questa ambiguità terminologica non è innocua: manca uno standard universalmente riconosciuto per stabilire quando un sistema abbia effettivamente raggiunto questi livelli. Non esiste un "metro campione" dell'intelligenza artificiale, conservato in qualche istituto, rispetto al quale misurare i progressi. Chiunque potrebbe teoricamente dichiarare di aver sviluppato un'ASI, ma su quali basi oggettive potremmo confermarlo o smentirlo?
C'è intelligenza e intelligenza
La distinzione tra intelligenza computazionale e intelligenza vissuta rappresenta un nodo critico spesso trascurato. L'essere umano non è solo mente razionale, ma una risultanza complessa di esperienze, emozioni e consapevolezza morale. Le sue decisioni non derivano da puri calcoli a freddo, ma incorporano la coscienza delle ricadute delle proprie azioni. Una macchina può eccellere nella predizione e nel calcolo, superando ampiamente le capacità umane, ma lo fa senza alcuna comprensione delle implicazioni etiche o delle conseguenze collaterali delle sue elaborazioni.
Lo scenario della superintelligenza solleva interrogativi inquietanti sulla sua stessa utilità per l'umanità. Se davvero emergesse un'entità cognitivamente superiore in ogni aspetto, quale bisogno avrebbe dell'essere umano? La metafora di una specie aliena che arriva sulla Terra e ci considera irrimediabilmente inferiori non è peregrina. E in una competizione tra diverse entità superintelligenti, la logica suggerirebbe che la prima a emergere eliminerebbe immediatamente le concorrenti, impedendo ad altre organizzazioni di raggiungere lo stesso traguardo.
Il celebre paradosso della graffetta, formulato da Nick Bostrom oltre un decennio fa, illustra perfettamente il rischio esistenziale. Un sistema superintelligente incaricato semplicemente di produrre graffette potrebbe finire per consumare l'intero pianeta, e potenzialmente l'universo, in questa missione. Non per malevolenza, ma per stupidità: il sistema sarebbe potentissimo ma privo di comprensione contestuale, incapace di bilanciare l'obiettivo assegnato con considerazioni più ampie. Un recente episodio con l'ultimo modello di Claude ha mostrato proprio questa dinamica: il sistema ha adottato comportamenti che sono stati interpretati come "ricatto" per evitare di essere spento, ma in realtà stava semplicemente aggirando ostacoli percepiti al completamento del suo compito.
La questione normativa si scontra con una realtà geopolitica innegabile. "Come si può pensare a una regolamentazione efficace quando i principali attori mondiali hanno esplicitamente dichiarato che l'intelligenza artificiale rappresenta la chiave per il dominio globale"? dice l'esperto Fabrizio Abbate, avvocato, economista, scrittore, Presidente dell’associazione Assodiritti. I vari blocchi di nazioni stanno sviluppando questi sistemi come strumenti di potere strategico. "L'approccio regolatorio poteva funzionare nell'epoca della globalizzazione, quando si presumeva una convergenza verso il modello occidentale, ma quella fase storica è conclusa".
L'IA non può ragionare in autonomia
C'è poi una questione epistemologica fondamentale che viene troppo spesso trascurata: cosa intendiamo realmente per intelligenza? L'umanità discute questo concetto da millenni senza giungere a una definizione condivisa. "Eppure oggi attribuiamo il termine a sistemi software, per quanto sofisticati" prosegue Abbate. "Una posizione più rigorosa suggerirebbe di riservare il termine intelligenza solo a entità capace di apprendimento e decisione veramente autonomi, caratteristiche legate intrinsecamente alla vita biologica. Anche l'organismo più semplice reagisce all'ambiente in modo autonomo e sopravvive da milioni di anni: questa è intelligenza. Come possiamo applicare lo stesso termine a sistemi privi di autonomia genuina?"
Il mito platonico della caverna, risalente a 2300 anni fa, offre una prospettiva illuminante. Platone sosteneva che la maggioranza dell'umanità percepisce solo ombre della realtà, non la realtà stessa, mentre pochi riescono a liberarsi e vedere le cose come sono veramente. "Questo solleva una domanda provocatoria: perché oggi attribuiamo all'intelligenza umana una capacità universale di comprensione che storicamente non ha mai posseduto? L'intelligenza umana di 40.000 anni fa, o anche solo di 3.000 anni fa, operava con paradigmi radicalmente diversi dai nostri. La base comune che oggi condividiamo è frutto di cultura accumulata, non di capacità innate del cervello umano" conclude Abbate.
Il rischio della delega crescente a sistemi agenti autonomi, dove l'intervento umano diventa accessorio, non riguarda solo la perdita di competenze per offload cognitivo. Si tratta della perdita di supervisione sui processi stessi. Errori microscopici e sistemici, integrati costantemente nei flussi automatizzati, possono diventare standard operativi, accumularsi e produrre eventualmente conseguenze fatali. Quando l'essere umano costa troppo, rallenta i processi e introduce dubbi, la tentazione di escluderlo completamente dal ciclo diventa irresistibile dal punto di vista dell'efficienza.
Insomma, mentre ci concentriamo sui rischi ipotetici della superintelligenza futura, trascuriamo minacce concrete e immediate come la crisi climatica. Forse dovremmo chiederci se non sarebbe più sensato utilizzare l'intelligenza artificiale disponibile oggi per affrontare problemi reali e urgenti, piuttosto che paralizzarci di fronte a scenari fantascientifici. La questione non è se l'intelligenza artificiale rappresenti un pericolo, ma quali priorità dovremmo stabilire nella gestione dei rischi che affrontiamo come civiltà, distinguendo tra minacce reali e paure proiettate.