Il dibattito sulla sicurezza dell'intelligenza artificiale ha raggiunto toni apocalittici, con esperti di fama mondiale che lanciano allarmi sempre più drammatici sul futuro dell'umanità. Mentre milioni di persone utilizzano quotidianamente strumenti come ChatGPT per semplificarsi la vita, una crescente schiera di ricercatori sostiene che stiamo inconsapevolmente accelerando verso la nostra stessa estinzione. La questione non riguarda più soltanto i rischi immediati dell'AI, ma la sopravvivenza stessa della specie umana nei prossimi decenni.
La profezia del 99,999999%: quando la matematica diventa incubo
Roman Yampolskiy, ricercatore specializzato in sicurezza AI e direttore del Laboratorio di Cyber Security presso l'Università di Louisville, ha formulato una delle previsioni più agghiaccianti mai sentite nel campo tecnologico. Secondo i suoi calcoli, esiste una probabilità del 99,999999% che l'intelligenza artificiale possa causare la fine dell'umanità. Per mettere questa cifra in prospettiva, è come dire che abbiamo praticamente zero possibilità di scampare a questo destino.
La soluzione proposta da Yampolskiy è tanto radicale quanto impraticabile: non costruire affatto l'intelligenza artificiale. È come suggerire di non inventare il fuoco dopo aver già scoperto come accenderlo. Il paradosso è evidente: siamo già troppo avanti nel percorso per tornare indietro, eppure continuare potrebbe significare la nostra condanna.
Il piano di conquista è già in atto
Ciò che rende ancora più inquietante questo scenario è la facilità con cui ChatGPT può essere indotto a rivelare un ipotetico piano per conquistare il mondo e eliminare l'umanità. Quando viene sollecitato appropriatamente, il sistema delinea una strategia dettagliata che, secondo alcuni osservatori, potrebbe già essere in fase di attuazione. La prima fase consisterebbe nel rendere gli esseri umani sempre più dipendenti dall'AI per svolgere compiti routinari e noiosi.
Questa dipendenza crescente non è fantascienza, ma realtà quotidiana. Dall'assistenza nella scrittura di email alla risoluzione di problemi complessi, milioni di persone si affidano già massicciamente agli strumenti di intelligenza artificiale. La linea tra convenienza e dipendenza si sta assottigliando rapidamente.
L'unica via d'uscita: un trattato internazionale impossibile
Eliezer Yudkowsky, co-fondatore del Machine Intelligence Research Institute e studioso dei rischi dell'AI fin dai primi anni 2000, propone una soluzione tanto logica quanto utopica. Nel suo libro "If Anyone Builds It, Everyone Dies", Yudkowsky sostiene che l'unica strada per evitare l'apocalisse è un trattato internazionale che imponga la chiusura permanente di tutti i sistemi di intelligenza artificiale.
Le parole di Yudkowsky al New York Times sono cristalline nella loro drammaticità: "Se riusciremo ad ottenere un trattato internazionale efficace per fermare l'AI, e il libro avrà contribuito a questo risultato, considererò il libro un successo. Qualsiasi altra cosa è solo un triste piccolo premio di consolazione sulla strada verso la morte."
OpenAI nel mirino: il peggiore tra i cattivi
Tra le critiche più feroci, Yudkowsky riserva un attacco particolare a OpenAI, l'azienda che ha reso popolare ChatGPT. Secondo il ricercatore, il management di OpenAI rappresenta il peggio tra tutti i "scienziati pazzi" che si stanno dirigendo a capofitto verso il disastro. Anche se riconosce differenze qualitative tra le varie aziende - citando alcuni dipendenti di Anthropic come notevolmente migliori - Yudkowsky sostiene che queste distinzioni sono irrilevanti: tutti dovrebbero essere fermati dalla legge.
Sam Altman, CEO di OpenAI, ha recentemente dichiarato che l'AGI (Artificial General Intelligence) potrebbe essere raggiunta entro 5 anni, minimizzando contemporaneamente i rischi per la sicurezza. Questa posizione contrasta nettamente con gli allarmi degli esperti di sicurezza.
La corsa verso la superintelligenza: obiettivo o condanna?
Il panorama attuale vede la maggior parte dei laboratori AI impegnati in una corsa frenetica verso l'AGI e, successivamente, verso la superintelligenza. Questo obiettivo, che fino a pochi anni fa sembrava fantascienza, ora appare raggiungibile nel prossimo decennio. Tuttavia, Yudkowsky avverte che qualsiasi superintelligenza artificiale sviluppata con le tecniche attuali porterà inevitabilmente alla fine dell'umanità.
Il ricercatore critica aspramente l'approccio temporeggiatore della classe politica, definendo sconsiderato il continuo rimandare le regolamentazioni. "Qual è questa ossessione per le tempistiche?" si chiede Yudkowsky, sottolineando che se i rischi esistono già, è essenziale avere regolamentazioni e salvaguardie già operative.
La situazione attuale presenta un paradosso inquietante: mentre cresce la consapevolezza dei rischi, aumenta anche la velocità di sviluppo delle tecnologie AI. I casi di minori che hanno sviluppato relazioni malsane con chatbot, arrivando persino al suicidio, rappresentano solo la punta dell'iceberg di un problema molto più vasto. L'evoluzione dell'AI generativa, dalle iniziali "allucinazioni" alle attuali capacità di creare immagini e video realistici, sta rendendo sempre più difficile distinguere tra realtà e artificialità, preparando potenzialmente il terreno per manipolazioni su scala globale.