Le AI non sono un pericolo, gli umani sì (forse)

La ricercatrice dell'IA Meredith Whittaker avverte che il rischio più grande dell'IA non è che diventi consapevole, ma che venga usata per esacerbare le disuguaglianze e crearne di nuove.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

In una 
recente intervista a Fast Company, la ricercatrice Meredith Whittaker ha avvertito che il rischio maggiore dell'intelligenza artificiale non è che diventi cosciente, ma che venga controllata da aziende
 poco attente al benessere e alla sicurezza delle persone. 

Whittaker, ex Google e attuale presidente di Signal AI, ha affermato che dobbiamo preoccuparci maggiormente di come l'IA e “venga usata per esacerbare le disuguaglianze esistenti e crearne di nuove". Un problema che tra l’altro è già piuttosto serio di per sé, al momento. 

Whittaker ha citato l'esempio della tecnologia di riconoscimento facciale che, negli USA, “viene usata per sorvegliare le persone di colore e altri gruppi emarginati". L’esperta ricorda nuovamente come le AI stiano effettivamente riducendo la quantità di lavoro disponibile globalmente. 

"Dobbiamo assicurarci che l'IA sia sviluppata in modo tale che tutti possano trarne beneficio", ha affermato. "Dobbiamo assicurarci che sia usata per il bene e non per il male".

Sicuramente sono parole sensate, ma a ben guardare forse la voce autorevole di Whittaker non ci dice nulla di davvero nuovo. Da una parte si ripropone lo stantio discorso “sono le pistole o le persone che uccidono la gente”.

Per quanto Whittaker abbia le sue ragioni, è preferibile e doveroso focalizzarsi sulla pistola, e nel caso delle AI le ragioni sono relativamente semplici da capire. Oggi potremmo pensare di avere governi democratici e tutto sommato inclini a rispettare le libertà individuali, a tutelare i diritti, a preservare il benessere dei cittadini. E se pensiamo di avere governi simili (li abbiamo in un buon numero di paesi), allora possiamo anche pensare che certi strumenti siano un bene per tutti.

Solo che i governi e le persone cambiano, e non possiamo sapere a chi consegneremo strumenti di tracciamento facciale, di tracciamento finanziario, di geolocalizzazione, di analisi sanitaria e così via. Anzi un po’ lo sappiamo, perché in giro per il mondo non sono mancati casi di AI usate in modo distorto da governi autoritari

Meglio essere prudenti quindi, e fare il possibile affinché la pistola abbia un sistema di sicurezza, come sta cercando di fare il governo europeo. E già così non è che sia una garanzia.

Immagine di copertina: quickshooting