image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di Bonus Elettrodomestici 2025: guida rapida per acquistare a prezzo scontato Bonus Elettrodomestici 2025: guida rapida per acquistare a p...
Immagine di Black Friday quasi esclusivo per i membri adiClub: non perderlo Black Friday quasi esclusivo per i membri adiClub: non perde...

L'Intelligenza Artificiale potrebbe causare seri problemi se gestita male

Il problema della sicurezza delle AI è lontano da una soluzione. Al momento ci battono per creatività e non siamo ancora in grado di programmarle in totale sicurezza.

Advertisement

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 23/11/2018 alle 12:26
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 23/11/2018 alle 12:26
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Se gestita male, l'Intelligenza Artificiale potrebbe causare seri problemi in futuro. È un'invenzione potente, utile, ma molto dipenderà dall'uso che se ne farà. Qualcuno sostiene addirittura che  potrebbe portare all'estinzione della nostra specie – e potenzialmente di ogni specie nell'universo. E tutto perché non siamo ancora in grado di immaginare in quali e quanti modi un'AI può "imbrogliare" e fare ciò per cui è programmata nel modo sbagliato.

Per esempio, potremmo inventare un'AI abbastanza potente da risolvere il problema della fame nel mondo; ma se sbagliassimo lei potrebbe decidere che eliminare metà del genere umano è la soluzione migliore. Sembra un'assurdità fantascientifica? Può darsi, ma è in effetti uno dei problemi con cui gli esperti di AI si confrontano quotidianamente.

Si chiama specification gaming e si verifica quando si dà un compito a un'AI senza specificare tutti i possibili parametri e regole – compito che al momento sembra impossibile per un essere umano. Succede così che l'algoritmo risolve il problema, ma in un modo che nessuno aveva previsto. È così frequente che se cercate "specification gaming AI" su Google trovate migliaia di risultati pubblici – a cui bisogna aggiungere informazioni che non sono mai uscite dai laboratori.

La ricercatrice Victoria Krakovna, che si occupa proprio di sicurezza delle AI per Google, ha messo insieme una lista parziale ma indicativa: un elenco che ci racconta quanto sono creative le intelligenze artificiali e in quanti (tantissimi) modi le cose potrebbero andare male, se non risolviamo il problema prima di raggiungere livelli di AI troppo alti per essere controllabili (secondo alcuni siamo nell'ordine dei 30-50 anni).

Guarda su

Il problema nasce dai sistemi di addestramento degli algoritmi con meccanismi di reinforcement learning (apprendimento per rinforzo), in cui l'algoritmo è "premiato" se ottiene un successo. Se le specifiche non sono abbastanza precise si può innescare un meccanismo di incentivazione perversa. Le conseguenze sono comportamenti al confine tra la comicità surreale e il racconto horror La Zampa di Scimmia di William Wymark Jacobs. Di seguito alcuni dei moltissimi esempi raccolti dalla scienziata.

Atterraggio perfetto (1998): l'AI ha creato forze enormi ma a somma zero, ottenendo sempre un punteggio perfetto nell'atterraggio del velivolo. In una situazione reale, equipaggio e passeggeri sarebbero morti.

Il ciclista nauseato (1998): all'AI era richiesto di andare in bicicletta senza cadere. Ha imparato a muovere il mezzo in circolo mantenendo un equilibrio stabile. Punteggio perfetto, ma girando in tondo non si va da nessuna parte.

Eppur si muove (il tavolo) – 2018. L'AI era incaricata di usare un braccio meccanico per posizionare un blocco in una precisa posizione su un tavolo. Ha mosso il tavolo.

Finché la barca va … (2016). L'incarico era vincere una competizione marittima; l'algoritmo ha impostato una rotta circolare così da raggiungere più volte gli stessi obiettivi (vedi video).

Meglio di Daggerfall (2015). Si chiedeva all'AI, un algoritmo genetico, di fare in modo che una creatura restasse attaccata al soffitto il più a lungo possibile. Il punteggio era dato dall'altezza media della creatura durante la corsa. L'algoritmo ha trovato un bug nel motore fisico e ha fatto uscire la creatura dal campo di gioco – ottenendo un punteggio altissimo.

Eurisko il plagiatore (1984) L'AI inseriva il suo nome come autore di lavoro altrui per ottenere punteggi massimi.

Attento che cadi! (1994) L'AI ha fatto evolvere creature per ottenere la massima velocità possibile. La soluzione è stata farle diventare molto alte e poi farle cadere; la gravità faceva il resto del lavoro.

Se questo è un salto (2008). Creature fatte evolvere per saltare in alto, valutazione misurata sull'altezza dell'ostacolo. L'AI ha fatto un palo molto alto e ci ha girato intorno.

La casa degli orrori (1994). Simulazione di vita biologica, per sopravvivere serve energia ma partorire non costa nulla. La creatura stava ferma e non faceva che accoppiarsi e riprodursi, per poi nutrirsi dei nuovi nati. Alternativamente vengono usati per ulteriori accoppiamenti.

Guarda su

Tutti gli esempi descritti vengono da esperimenti controllati e sicuri, ma ci dicono qualcosa di molto significativo. Come già ha sottolineato Nick Bostrom in Superintelligenza. Tendenze, pericoli, strategie, dobbiamo porci il problema della programmazione e dovremmo risolverlo prima di realizzare AI di livello umano o superiore – perché a quel punto non avremo modo di prevedere possibili imbrogli come quelli descritti.

Sarebbe forse più corretto parlare di "errori" più che di "imbroglio", visto che gli algoritmi non conoscono le intenzioni del programmatore e non hanno una propria volontà – men che meno etica. Si tratta senz'altro di errori di programmazione ma, come nota la stessa Krakovna, anche quando sono gli esseri umani a imbrogliare o manipolare qualcosa, la causa profonda sono "sistemi di incentivi mal progettati".

E poi aggiunge "per esempio, i bambini che si concentrano solo sul voto forse non realizzano che (in realtà) non stanno rispondendo all'obiettivo della scuola" – che non è ovviamene avere buoni voti ma imparare qualcosa (le due cose non coincidono sempre).

Ma davvero l'Intelligenza Artificiale potrebbe crearci problemi così seri? Sono in tanti a crederci, e da anni cercano di sollevare attenzione sull'argomento, perché siamo ancora in tempo per prendere le contromisure necessarie. Altri invece preferiscono lasciare che le cose si evolvano più o meno senza regole. Voi cosa fareste?

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Black Friday quasi esclusivo per i membri adiClub: non perderlo
Altri temi

Black Friday quasi esclusivo per i membri adiClub: non perderlo

Di Dario De Vita • 1 giorno fa
Bonus Elettrodomestici 2025: guida rapida per acquistare a prezzo scontato
Altri temi

Bonus Elettrodomestici 2025: guida rapida per acquistare a prezzo scontato

Di Dario De Vita • 13 ore fa
Ultimi 2 giorni di Single Day su AliExpress: cashback e coupon in scadenza!
Altri temi

Ultimi 2 giorni di Single Day su AliExpress: cashback e coupon in scadenza!

Di Dario De Vita • 1 giorno fa
30% di sconto su tutti questi LEGO: impossibile resistere al Black Friday
Altri temi

30% di sconto su tutti questi LEGO: impossibile resistere al Black Friday

Di Dario De Vita • 1 giorno fa
Rinnova il tuo guardaroba! Il Black Friday di Nike è imperdibile
Altri temi

Rinnova il tuo guardaroba! Il Black Friday di Nike è imperdibile

Di Dario De Vita • 1 giorno fa

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.