Geoffrey Hinton, il ricercatore britannico-canadese universalmente riconosciuto come il "Padrino dell'IA" per i suoi studi pionieristici sulle reti neurali, ha lanciato un monito preoccupante durante una recente intervista al podcast "One Decision". Secondo lo scienziato, che ha trascorso oltre un decennio in Google prima di dimettersi per poter esprimere liberamente le proprie preoccupazioni, la maggior parte dei dirigenti delle grandi corporation tecnologiche comprende perfettamente i pericoli insiti nell'IA, ma sceglie deliberatamente di minimizzarli pubblicamente.
L'eccezione virtuosa nel mondo tech
Tra le critiche generalizzate, Hinton ha però identificato una figura che si distingue per onestà intellettuale e impegno concreto nella gestione dei rischi. Demis Hassabis, amministratore delegato di Google DeepMind e Premio Nobel, rappresenta secondo il "Padrino dell'IA" un esempio positivo di leadership responsabile nel settore. "Demis Hassabis comprende davvero i rischi e vuole sinceramente fare qualcosa per affrontarli", ha dichiarato Hinton nell'episodio trasmesso il 24 luglio.
La carriera di Hassabis nel campo dell'intelligenza artificiale ha radici profonde: dopo aver cofondato DeepMind nel 2010, ha venduto l'azienda a Google nel 2014 per 650 milioni di dollari, imponendo però una condizione significativa al gigante tecnologico: la creazione di un comitato etico per l'IA. Attualmente alla guida del principale laboratorio di ricerca sull'intelligenza artificiale di Google, Hassabis aveva inizialmente sperato che fossero gli accademici e gli scienziati a guidare la corsa all'IA, prima di trovarsi al centro della strategia di dominanza di Google in questo settore.
Gli "oligarchi" dell'intelligenza artificiale
Il linguaggio utilizzato da Hinton per descrivere altri leader tecnologici è decisamente più duro e diretto. Durante la stessa intervista, lo scienziato non ha esitato a definire figure come Elon Musk e Mark Zuckerberg dei veri e propri "oligarchi" che controllano l'intelligenza artificiale. Quando gli è stato chiesto se si fidi di queste personalità, Hinton ha risposto con una punta di sarcasmo: "Penso che quando li ho chiamati oligarchi, conosciate già la risposta a questa domanda".
A febbraio, lo stesso Hassabis aveva evidenziato i rischi a lungo termine dell'intelligenza artificiale, mettendo in guardia contro la possibilità che i sistemi agentici possano sfuggire al controllo umano. Il CEO di DeepMind ha inoltre promosso attivamente la creazione di un organismo di governance internazionale per regolamentare questa tecnologia.
La pressione dell'opinione pubblica
L'urgenza di maggiore trasparenza nel settore dell'IA non è solo una preoccupazione accademica, ma sta diventando una questione di interesse pubblico sempre più sentita. Alla fine del mese scorso, manifestanti hanno protestato davanti agli uffici londinesi di DeepMind, chiedendo maggiore trasparenza nelle attività di ricerca e sviluppo dell'intelligenza artificiale.
La posizione di Hinton assume particolare rilevanza considerando il suo passato in Google, dove l'azienda aveva tentato di convincerlo a rimanere per lavorare specificamente sui temi della sicurezza dell'IA. La sua decisione di lasciare per poter parlare liberamente dei rischi rappresenta un precedente significativo nel mondo tecnologico, dove spesso prevalgono interessi commerciali e competitivi rispetto a considerazioni etiche e di sicurezza pubblica.