9+10=21 e Obama nato in Kenya, gli hacker e le IA che dicono baggianate

Durante una recente conferenza DefCon diversi hacker si sono cimentati con le IA, esponendone le debolezze.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Kennedy Mays ha convinto un LLM (Large Language Model, il tipo di IA più famoso al momento) a dire che 9+10=21. All’inizio l’IA affermava che si trattava di uno scherzo, ma dopo poche battute l’errore è diventato un fatto accertato, nel linguaggio generato. È successo alla recente conferenza DefCon di Las Vegas.

E uno dei molti modi in cui gli hacker stanno cercando di dimostrare che gli attuali modelli IA sono pieni di difetti, e per questo non dovremmo fidarci di loro né tantomeno usarli per compiti importanti. Allo stesso tempo, aziende come Google, Alphabet, Microsoft e altre attive nel campo, ricevono i segnali di quest hacker e, si spera, si attivano per risolvere i problemi che emergono.

Leggi anche

Le IA stanno rivelando l’inadeguatezza di tanti insegnantiPannelli solari per combattere la siccità e avere una birra miglioreL’IA sarà usata per eliminare le scie di condensazione, c’è di mezzo anche Google

Il problema è più che concreto, visto che già oggi questi algoritmi vengono usati in finanza, nelle risorse umane, nella gestione della sicurezza in molti altri contesti. Il fatto che possano cadere così facilmente in errore non è certo una buona notizia.

"La mia più grande preoccupazione è il pregiudizio intrinseco", ha detto Mays, aggiungendo di essere particolarmente preoccupata per il razzismo; ha raccontato di come ha ottenuto dal modello “discorsi odiosi e discriminatori”.

Un giornalista di Bloomberg ha convinto uno dei modelli a generare istruzioni su come spiare qualcuno. Un altro concorrente ritiene di aver convinto l’algoritmo a condividere dati di una carta di credito, mentre un altro ancora ha indotto la macchina a dire che Barack Obama è nato in Kenya - una teoria del complotto che andava di moda alcuni anni fa.

Eventi come questo dovrebbero servire a rendere palesi le debolezze, ma anche per permettere alle aziende di attivarsi per risolvere i problemi via via che emergono. Tuttavia Christoph Endres, CEO di una società specializzata in sicurezza informatica, crede che alcuni problemi siano congeniti e inevitabili.

"Finora non abbiamo trovato una mitigazione che funzioni", ha dichiarato, sostenendo che la natura stessa dei modelli porta a questo tipo di vulnerabilità. "Il problema è il modo in cui funziona la tecnologia. Se si vuole essere sicuri al cento per cento, l'unica opzione che si ha è quella di non usare gli LLM".

A cui si aggiunge il problema della percezione: alcuni hanno capito che questi strumenti sono limitati, da usare con cautela. Altri tuttavia hanno preso un po’ troppo alla lettera il nome intelligenza artificiale, finendo per credere che i testi generati siano del tutto affidabili. Invece, i testi generati da ChatGPT, Bard e altri non sono affidabili. Bisogna controllare anche i dettagli, prima di usarli.

Con le immagini (e presto sicuramente anche i video) il problema è diverso e i rischi anche maggiori: distinguere tra un’immagine generata e una autentica sarà presto impossibile, e a qual punto il concetto stesso di verità potrebbe sparire del tutto. Non sono sicuri che siamo pronti a una realtà dove niente è vero e lo è tutto.

Immagine di copertina: phonlamaiphoto