L'Intelligenza Artificiale potrebbe causare seri problemi se gestita male

Il problema della sicurezza delle AI è lontano da una soluzione. Al momento ci battono per creatività e non siamo ancora in grado di programmarle in totale sicurezza.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Se gestita male, l'Intelligenza Artificiale potrebbe causare seri problemi in futuro. È un'invenzione potente, utile, ma molto dipenderà dall'uso che se ne farà. Qualcuno sostiene addirittura che  potrebbe portare all'estinzione della nostra specie – e potenzialmente di ogni specie nell'universo. E tutto perché non siamo ancora in grado di immaginare in quali e quanti modi un'AI può "imbrogliare" e fare ciò per cui è programmata nel modo sbagliato.

Per esempio, potremmo inventare un'AI abbastanza potente da risolvere il problema della fame nel mondo; ma se sbagliassimo lei potrebbe decidere che eliminare metà del genere umano è la soluzione migliore. Sembra un'assurdità fantascientifica? Può darsi, ma è in effetti uno dei problemi con cui gli esperti di AI si confrontano quotidianamente.

Si chiama specification gaming e si verifica quando si dà un compito a un'AI senza specificare tutti i possibili parametri e regole – compito che al momento sembra impossibile per un essere umano. Succede così che l'algoritmo risolve il problema, ma in un modo che nessuno aveva previsto. È così frequente che se cercate "specification gaming AI" su Google trovate migliaia di risultati pubblici – a cui bisogna aggiungere informazioni che non sono mai uscite dai laboratori.

La ricercatrice Victoria Krakovna, che si occupa proprio di sicurezza delle AI per Google, ha messo insieme una lista parziale ma indicativa: un elenco che ci racconta quanto sono creative le intelligenze artificiali e in quanti (tantissimi) modi le cose potrebbero andare male, se non risolviamo il problema prima di raggiungere livelli di AI troppo alti per essere controllabili (secondo alcuni siamo nell'ordine dei 30-50 anni).

Il problema nasce dai sistemi di addestramento degli algoritmi con meccanismi di reinforcement learning (apprendimento per rinforzo), in cui l'algoritmo è "premiato" se ottiene un successo. Se le specifiche non sono abbastanza precise si può innescare un meccanismo di incentivazione perversa. Le conseguenze sono comportamenti al confine tra la comicità surreale e il racconto horror La Zampa di Scimmia di William Wymark Jacobs. Di seguito alcuni dei moltissimi esempi raccolti dalla scienziata.

Atterraggio perfetto (1998): l'AI ha creato forze enormi ma a somma zero, ottenendo sempre un punteggio perfetto nell'atterraggio del velivolo. In una situazione reale, equipaggio e passeggeri sarebbero morti.

Il ciclista nauseato (1998): all'AI era richiesto di andare in bicicletta senza cadere. Ha imparato a muovere il mezzo in circolo mantenendo un equilibrio stabile. Punteggio perfetto, ma girando in tondo non si va da nessuna parte.

Eppur si muove (il tavolo) – 2018. L'AI era incaricata di usare un braccio meccanico per posizionare un blocco in una precisa posizione su un tavolo. Ha mosso il tavolo.

Finché la barca va … (2016). L'incarico era vincere una competizione marittima; l'algoritmo ha impostato una rotta circolare così da raggiungere più volte gli stessi obiettivi (vedi video).

Meglio di Daggerfall (2015). Si chiedeva all'AI, un algoritmo genetico, di fare in modo che una creatura restasse attaccata al soffitto il più a lungo possibile. Il punteggio era dato dall'altezza media della creatura durante la corsa. L'algoritmo ha trovato un bug nel motore fisico e ha fatto uscire la creatura dal campo di gioco – ottenendo un punteggio altissimo.

Eurisko il plagiatore (1984) L'AI inseriva il suo nome come autore di lavoro altrui per ottenere punteggi massimi.

Attento che cadi! (1994) L'AI ha fatto evolvere creature per ottenere la massima velocità possibile. La soluzione è stata farle diventare molto alte e poi farle cadere; la gravità faceva il resto del lavoro.

Se questo è un salto (2008). Creature fatte evolvere per saltare in alto, valutazione misurata sull'altezza dell'ostacolo. L'AI ha fatto un palo molto alto e ci ha girato intorno.

La casa degli orrori (1994). Simulazione di vita biologica, per sopravvivere serve energia ma partorire non costa nulla. La creatura stava ferma e non faceva che accoppiarsi e riprodursi, per poi nutrirsi dei nuovi nati. Alternativamente vengono usati per ulteriori accoppiamenti.

Tutti gli esempi descritti vengono da esperimenti controllati e sicuri, ma ci dicono qualcosa di molto significativo. Come già ha sottolineato Nick Bostrom in Superintelligenza. Tendenze, pericoli, strategie, dobbiamo porci il problema della programmazione e dovremmo risolverlo prima di realizzare AI di livello umano o superiore – perché a quel punto non avremo modo di prevedere possibili imbrogli come quelli descritti.

Sarebbe forse più corretto parlare di "errori" più che di "imbroglio", visto che gli algoritmi non conoscono le intenzioni del programmatore e non hanno una propria volontà – men che meno etica. Si tratta senz'altro di errori di programmazione ma, come nota la stessa Krakovna, anche quando sono gli esseri umani a imbrogliare o manipolare qualcosa, la causa profonda sono "sistemi di incentivi mal progettati".

E poi aggiunge "per esempio, i bambini che si concentrano solo sul voto forse non realizzano che (in realtà) non stanno rispondendo all'obiettivo della scuola" – che non è ovviamene avere buoni voti ma imparare qualcosa (le due cose non coincidono sempre).

Ma davvero l'Intelligenza Artificiale potrebbe crearci problemi così seri? Sono in tanti a crederci, e da anni cercano di sollevare attenzione sull'argomento, perché siamo ancora in tempo per prendere le contromisure necessarie. Altri invece preferiscono lasciare che le cose si evolvano più o meno senza regole. Voi cosa fareste?