Potremmo davvero estinguerci per colpa dell'IA, arriva un nuovo messaggio

I migliori ricercatori e amministratori delegati di IA mettono in guardia dal "rischio di estinzione" in una dichiarazione di 22 parole

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

L’Intelligenza Artificiale (IA) forse è davvero ciò che ci ucciderà tutti. Non sappiamo come di preciso, con le “opzioni” che vanno da scenari alla Terminator fino a una macchina che ci elimina perché ostacoliamo il suo desiderio di fabbricare graffette (vedi Nick Bostrom, Superintelligenza. Tendenze, pericoli, strategie).

Qualunque sia lo scenario, gli esperti in AI di tutto il mondo stanno lanciando allarmi sempre più frequenti, arrivando persino a chiedere regole che potrebbero andare contro i loro interessi immediati. Un segno che la minaccia è tutt’altro che immaginaria, si potrebbe pensare.

L’ultimo sforzo arriva da un gruppo di ricercatori e dirigenti di alto livello del settore, che stavolta hanno scelto la via della sintesi: il messaggio è di sole 22 parole, così da poter raggiungere ed essere compreso da quante più persone possibile.

"Mitigare il rischio di estinzione da parte dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare".

A pubblicare il messaggio è stata la no-profit Center for AI Safety (San Francisco) e tra i firmatari troviamo personalità come Demis Hassabis, amministratore delegato di Google DeepMindSam Altman, amministratore delegato di OpenAI e Geoffrey Hinton e Youshua Bengio, due dei tre ricercatori di IA che hanno vinto il Premio Turing 2018 (talvolta definito il "Premio Nobel dell'informatica") per il loro lavoro sull'IA.

Questo brevissimo messaggio è solo l’ultimo in ordine di tempo, ma sono ormai anni che sentiamo allarmi del genere. Ma, almeno finora, nessun governo ha prestato molta attenzione.

Solo l’Unione Europea sembra avere intenzione di mettere qualche regola, il che porta a una considerazione curiosa. Sam Altman, CEO di OpenAI e tra i firmatari del messaggio, ha detto che la sua azienda potrebbe cessare le operazioni in Europa, casomai le regole dovessero rivelarsi sgradite. Ci troviamo forse di fronte al classico esempio del piede in due scarpe? Chissà, forse dovrei domandare a ChatGPT cosa ne pensa.

Dan Hendrycks, direttore esecutivo del Center for AI Safety, ha dichiarato al New York Times che la brevità della dichiarazione odierna - che non suggerisce alcun modo potenziale per mitigare la minaccia posta dall'IA - è intesa a evitare possibili disaccordi. L’obiettivo era mandare un messaggio preciso, che potesse mettere tutti d’accordo - o se non altri la maggior parte delle voci interessate.

Hendrycks ha descritto il messaggio come un "coming out" per le figure del settore preoccupate dal rischio dell'IA. "C'è un'idea sbagliata molto comune, anche nella comunità dell'IA, secondo la quale ci sono solo una manciata di catastrofisti", ha detto Hendrycks al Times. "Ma, in realtà, molte persone in privato esprimono preoccupazioni su queste cose".

Il problema è di difficile soluzione, se non del tutto impossibile: si tratterebbe infatti, in teoria, di prevedere il momento di svolta nella crescita esponenziale delle capacità delle IA. Qualcosa che è difficile anche solo da descrivere (c’è chi ci ha provato scrivendo interi libri).

Il dilemma è che finché ci troviamo lungo la linea prima che s’impenni, va tutto bene e non sembra che ci siano ragioni per allarmarsi. Quando però la curva comincia a diventare verticale, è già troppo tardi. Un ottimo esempio per descrivere il paradigma e le difficoltà della prevenzione, qualcosa di cui purtroppo si è parlato molto anche in italia, di recente. Finché va tutto bene, sembra insensato spendere tempo e denaro rifacendo argini e cose del genere; anzi, peggio che insensato, c’è il rischio di perdere le elezioni.

Molti esperti indicano i rapidi miglioramenti di sistemi come i grandi modelli linguistici come prova dei futuri aumenti di intelligenza previsti. Secondo loro, una volta che i sistemi di IA avranno raggiunto un certo livello di sofisticazione, potrebbe diventare impossibile controllarne le azioni.

Altri però dubitano di queste previsioni: sottolineano l'incapacità dei sistemi di IA di gestire anche compiti relativamente banali come, ad esempio, la guida di un'automobile. E in effetti certi fallimenti sono sotto gli occhi di tutti, ogni giorno.

Se l'IA non è in grado di affrontare nemmeno questa sfida, dicono gli scettici, che possibilità ha la tecnologia di eguagliare ogni altro risultato umano nei prossimi anni?

Un commento che sembra sensato, ma che in verità dimostra solo che chi lo dice non ha capito cosa significhi crescita esponenziale, con la relativa esplosione.

Il punto è che se di crescita esponenziale si tratta (e non c’è ragione di dubitarne) guardare al passato non ci dice assolutamente nulla di quello che potremmo avere davanti.

Nel frattempo, entrambe le parti concordano sul fatto che, anche senza miglioramenti nelle loro capacità, i sistemi di IA presentano una serie di minacce al giorno d'oggi: dal loro utilizzo per consentire la sorveglianza di massa, all'alimentazione di algoritmi di "polizia predittiva" difettosi, fino alla creazione di disinformazione. Potrebbe cominciare con il tentare di affrontare questi problemi, e magari strada facendo ci viene in mente una soluzione anche per l’altra, più complicata questione.Immagine di copertina: thevisual