Il dibattito sulla definizione di AGI (intelligenza artificiale generale) si arricchisce di un nuovo capitolo sorprendente: secondo Sam Altman, CEO di OpenAI, potremmo aver già raggiunto e superato questo traguardo tanto discusso senza nemmeno accorgercene. Una dichiarazione che riaccende le polemiche sulla vaghezza terminologica che circonda uno dei concetti più utilizzati e abusati nell'industria tecnologica degli ultimi anni. Le affermazioni di Altman, rilasciate durante il Big Technology Podcast, sollevano interrogativi fondamentali sulla direzione che sta prendendo lo sviluppo dell'intelligenza artificiale e sulla capacità delle grandi corporation di definire obiettivi chiari e misurabili.
Durante l'intervista, il CEO di OpenAI ha ammesso apertamente che l'azienda ha sbagliato nel non definire con precisione cosa significhi AGI, proponendo di fatto di archiviare il termine e concentrarsi invece sulla superintelligenza. "AGI è passata sfrecciando via. Non ha cambiato il mondo più di tanto, o lo farà nel lungo termine, ma va bene, abbiamo costruito delle AGI", ha dichiarato Altman, suggerendo che ci troviamo in una fase confusa dove alcuni credono che l'obiettivo sia stato raggiunto e altri no.
La proposta di Altman per definire la superintelligenza si basa su parametri concreti: un sistema in grado di svolgere meglio di qualsiasi essere umano il ruolo di Presidente degli Stati Uniti, CEO di una grande azienda o scienziato a capo di un importante laboratorio, anche quando la persona è assistita dall'AI. Una definizione che sposta l'asticella ancora più in alto e che tradisce la difficoltà del settore nel stabilire benchmark oggettivi e verificabili per misurare i progressi dell'intelligenza artificiale.
Le dichiarazioni non rappresentano una novità assoluta nella retorica del CEO di OpenAI. Già nel 2024, Altman aveva previsto il raggiungimento dell'AGI entro 5 anni, affermando che sarebbe passata inosservata con un impatto sociale sorprendentemente limitato. Questa visione sembra ora trovare conferma nelle sue parole più recenti, che suggeriscono come il termine AGI sia diventato più un'etichetta di marketing che un obiettivo tecnico preciso. Il contesto è reso ancora più complesso dalle numerose segnalazioni secondo cui OpenAI starebbe privilegiando prodotti appariscenti rispetto alle pratiche di sicurezza, mettendo in discussione l'impegno verso la sua missione incentrata sull'umanità.
La posizione di Altman trova eco in altre figure di spicco dell'industria. Demis Hassabis, CEO di Google DeepMind, ha recentemente affermato che il mondo è sul punto di raggiungere l'AGI, avvertendo però che la società non è pronta ad affrontarne le conseguenze, un pensiero che lo tiene sveglio la notte. Anche Satya Nadella, CEO di Microsoft, ha commentato la questione, suggerendo che sia lui che Altman stiano rallentando la corsa verso l'AGI per concentrarsi sull'impatto reale dell'AI nel mondo.
Particolarmente significative sono le dichiarazioni di Mustafa Suleyman, CEO di Microsoft AI, che ha messo in guardia sulla possibilità di un'intelligenza artificiale cosciente e sui potenziali danni all'umanità. Suleyman ha chiarito che Microsoft punta alla superintelligenza progettata per servire gli esseri umani, non il contrario, rivelando che l'azienda è pronta a interrompere i propri sforzi nell'AI qualora venisse riconosciuta come una minaccia per l'umanità. Questa posizione emerge in un momento in cui il nuovo accordo tra Microsoft e OpenAI consente al gigante di Redmond di perseguire l'AGI in modo indipendente o in collaborazione con terze parti.
La questione terminologica sollevata da Altman non è solo semantica, ma riflette un problema più profondo nell'industria tech: l'uso di buzzword vaghe da parte dei dirigenti delle grandi corporation, ciascuno con significati diversi a seconda del contesto. Questa mancanza di definizioni chiare rende difficile misurare i progressi reali, valutare le implicazioni etiche e stabilire framework regolatori adeguati.