Tom's Hardware Italia Tom's Hardware
Spazio e Scienze

Quando l’Intelligenza Artificiale imbroglia è una minaccia?

L'Intelligenza Artificiale bara. O meglio, un sistema di Deep Learning a cui viene chiesto so svolgere un compito, potrebbe trovare soluzioni che non sono mai venute in mente prima a un essere umano. Lo abbiamo visto con i videogiochi, con il gioco Go e in tanti altri casi in cui alla macchina è chiesto di imparare da sola come fare una certa cosa.  

Il linea di principio non c'è nulla di male, per quanto lasciare che un robot decida al posto nostro può sollevare notevoli questioni etiche. Tuttavia le nuove soluzioni create dagli algoritmi non sono necessariamente positive, e in alcuni casi un "imbroglio" può rivelarsi anche pericoloso. È una delle grandi questioni al centro del dibattito sull'AI e sui pericoli potenziali (ce ne siamo occupati in questa serie di articoli).

Per esempio c'è stato un bot che, affrontato un suo simile a Tris, ha sviluppato una tecnica che invece che alla vittoria puntava, con successo, all'uccisione dell'avversario (mandando in crash il sistema). Sono casi relativamente comuni nello sviluppo delle AI, e uno degli obiettivi è evitare che incidenti simili si verifichino anche nelle applicazioni reali.

Non vogliamo aspettare che queste cose inizino a succedere nel mondo reale.

Viktor Krakovna 

Krakovna, che si occupa di ricerca presso Deepmind, ha collezionato diversi casi in cui le AI hanno trovato soluzioni impreviste e potenzialmente pericolose. È molto difficile prevedere che cosa potrebbe inventarsi la macchina ma è necessario, perché vogliamo prevenire conseguenze negative. "Insegnate a pescare a un'AI, e potrebbe semplicemente prosciugare il lago", suggerisce Tom Simonite su Wired. Finché capita con i videogames non è un problema, anzi può essere divertente vedere un'AI che sfrutta un bug per avere punti infiniti. Ma nel mondo vero potrebbe essere un problema rilevante.

cheat AI 01
Cadere con stile

Potremmo affidare all'AI la gestione dell'impatto ambientale di un edificio per esempio, ma non vogliamo che spenga i riscaldamenti in pieno inverno. Potremmo chiederle di eliminare la povertà dal mondo, ma dovremmo assicurarsi che le soluzioni non includano eliminare chiunque abbia un basso reddito. Il problema è che la nostra immaginazione è limitata rispetto a quella di una rete neurale; ed è quindi difficile se non impossibile immaginarsi tutti i possibili incidenti e programmare la macchina per evitarli.

"Vedere come queste macchine sono creative, come fanno cose che non avresti mai immaginato, ti fa capire quanto sono potenti e pericolose", aggiunge Jeff Clune (Uber, AI Lab), cofirmatario di un documento che esamina questi casi. Ecco alcuni esempi:  

  • Negli studi del movimento, per esempio, le AI hanno capito che è più semplice creare una struttura che cade in modo controllato e conserva il momento, piuttosto che sviluppare un sistema di locomozione.
  • Un programma sviluppato per correggere bug in altri software, in un'occasione ha deciso che era meglio saltare del tutto il programma difettoso e fornire una lista vuota – che secondo i parametri era comunque ordinata.
  • La ricerca automatizzata di bug nel software spesso e volentieri si è trasformata nello sfruttamento automatico di tali bug. Cioè in attacchi informatici non previsti.
  • Nello sviluppo di un sistema migliore per l'atterraggio su una portaerei, l'AI ha trovato preferibile aggirare il sistema di calcolo delle forze in gioco, ottenendo quasi immediatamente un risultato perfetto.
  • Nel videgioco NeuroEvolving Robotic Operatives, l'AI ha trovato il modo di far camminare il robot sui muri. Cosa che dovrebbe essere impossbile.
  • Nello sviluppo di una mano robotica, il sistema ha sviluppato un'illusione ottica. Dal punto di vista della videocamera, sembrava che riuscisse sempre ad afferrare la palla. Anche quando non la toccava nemmeno.

Il documento citato è una lettura divertente che mi sento di consigliare a chiunque voglia intrattenersi qualche decina di minuti, o iniziare ad approfondire l'argomento. È interessante il fatto che in molti casi le soluzioni alternative proposte dalla AI hanno fatto emergere problemi nell'ambiente di simulazione, e questo ha facilitato lo sviluppo di AI nel ruolo di "cacciatori di bug". Ma come abbiamo visto da lì all'attacco informatico il passo è breve.

La questione tuttavia resta aperta: un'Intelligenza Artificiale indipendente a cui venga assegnato il compito di risolvere un problema potrebbe generare soluzioni dannose, persino letali. E al momento non abbiamo davvero modo di evitarlo, che è grossomodo il tema portante del libro Superintelligenza. Tendenze, pericoli, strategie di Nick Bostrom. Una ragione più che sufficiente per muoversi con cautela in questo affascinante campo di studi.