Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

C'è un concreto pericolo di ripercussioni pubbliche contro l'Intelligenza Artificiale, simili a quelle che ci furono con la genetica, all'inizio del millennio". Ad affermarlo è Jim Al-Khalili, fisico, prossimo presidente della British Science Association e noto divulgatore - i suoi libri sono tradotti anche in italiano.

Secondo Al-Khalili c'è una doppia minaccia. Da una parte le preoccupazioni, spesso infondate, dell'opinione pubblica potrebbero spingere la politica a frenare gli investimenti pubblici. E qui c'è il rischio di perdere il potenziale rivoluzionario dell'AI.

Dall'altra, in mancanza di un'azione concertata tra università, istituzioni e industrie, il settore potrebbe evolversi in modo incontrollato e sregolato sotto l'unico controllo di alcune potenti aziende. Che finirebbero per acquisire una "potenza di fuoco" ingestibile per qualunque governo, andando a generare uno scenario degno di un romanzo cyberpunk.

Jim Al-Khalili
Jim Al-Khalili (Wikipedia)

La comunicazione sul tema AI, infatti, può innescare paura nelle persone, sopratutto quando - capita spesso e volentieri - la comunicazione scientifica è accostata a immagini prese dalla fantascienza. Nulla da dire su Terminator o Her o Ex Machina, ma hanno poco a che vedere con la realtà dei fatti - per quanto l'ultimo film citato tenti in effetti di riportare l'attuale discorso sul tema. I film che parlano di Intelligenza Artificiale sono molti, ma nessuno di essi spiega come stanno effettivamente le cose.

Secondo Al-Khalili, però, parlando di AI in questi termini si rischia di stigmatizzare tutto il settore, così come accadde qualche anno fa con l'ingegneria genetica - ancora oggi la distribuzione di fondi è viziata da pregiudizi poco fondati. Gli amministratori spesso preferiscono non legarsi a progetti eticamente delicati, o semplicemente ignorano quelli che sembrano non destare più l'interesse immediato del pubblico.

"C'è bisogno di regolamentazioni ma potrebbero arrivare troppo tardi. Come minimo, questo impedirà di sfruttare il pieno potenziale della tecnologia nel settore pubblico, e porterà potenzialmente ad aumentare le diseguaglianze nella società".

Al-Khalili è sicuramente uno scienziato influente che cerca, in modo indiretto, di stimolare i finanziamenti pubblici per i ricercatori. Ma il suo discorso non si può liquidare come un semplice batter cassa. Le sue preoccupazioni sono condivisibili e il rischio paventato è di quelli da prendere seriamente. Già oggi abbiamo davanti agli occhi un'anteprima di come l'AI possa effettivamente mettere un'azienda in posizione di potere rispetto non solo ai suoi clienti, ma anche alle istituzioni. L'esempio più ovvio sono Facebook o Google o Apple, ma ci sono anche assicurazioni, banche, servizi per la televisione e il settore alberghiero; la lista è piuttosto lunga. E siamo solo all'inizio.

"L'AI trasformerà le nostre vite nelle prossime decadi ancora più di quanto ha fatto Internet negli ultmi anni", commenta Al-Khalili, "assicuriamoci di essere pronti".

Una rivoluzione di cui siamo a malapena consapevoli - poco più di quanto un neonato lo sia dell'ambiente che ha intorno. Eppure sta già accadendo, l'AI sta già influenzando le nostre vite (quando chiediamo un prestito, prenotiamo una vacanza, compriamo un medicinale, etc.). C'è il potenziale per fare del bene ma anche per ferire e danneggiare le persone.

Ci sono gli errori involontari, come per esempio i pregiudizi che finiscono per contaminare gli algoritmi (ci sono già diversi esempi a riguardo). E ci potrebbero essere anche le manipolazioni volontarie fatte da qualcuno con il potere di manipolare le AI stesse. L'AI, come ogni tecnologia, si può usare per fare del bene o fare del male, ma come ci ricorda il notevole saggio Superintelligenza. Tendenze, pericoli, strategie (Nick Bostrom, BollatiBoringhieri, 2018), il pericolo potenziale è il più grande che abbiamo mai affrontato, e include anche il rischio di estinzione.

Dobbiamo essere pronti, come dice Khalili. E non possiamo esserlo finché ragioniamo in termini di robot assassini e ladri di lavoro.