OpenAI mira a comprendere come controllare i sistemi di intelligenza artificiale (IA) superumani offrendo sovvenzioni per la ricerca. Affrontando la complessità dei codici generati e la sicurezza delle future IA superumane, l'azienda riconosce che la comprensione umana potrebbe non essere sufficiente per valutarne l'affidabilità.
L'IA superumana, ritiene OpenAI, sarà troppo complessa per una valutazione umana accurata. L'azienda cerca di affrontare questo problema attraverso sovvenzioni per la ricerca, come le Superalignment Fast Grants, per comprendere come i modelli forti si generalizzano dalla supervisione debole. L'obiettivo è trovare modi in cui gli esseri umani possono mantenere un controllo efficace sull'IA in evoluzione.
OpenAI prevede che l'IA superumana possa essere sviluppata nei prossimi dieci anni, e il CEO Sam Altman sta già lavorando al modello GPT-5. Le sovvenzioni sono destinate a laboratori accademici, organizzazioni no-profit e ricercatori individuali, con particolare attenzione agli Agentic AI Research Grants. Questi incentivi finanziari mirano a indagare sugli impatti delle IA superintelligenti e sulle pratiche per renderle sicure.
L'investimento di OpenAI in ricerca mira a preparare il terreno per gestire IA superumane, riconoscendo la complessità in crescita e l'importanza di rendere sicure queste tecnologie avanzate.
Cosa significa Intelligenza Superumana?
L'"intelligenza superumana" si riferisce a un livello di intelligenza artificiale che supera notevolmente le capacità cognitive umane. In questo contesto, si tratta di sistemi di intelligenza artificiale che hanno una comprensione, un apprendimento e una capacità di risoluzione dei problemi così avanzati da superare le abilità umane in molteplici settori.
Questi sistemi potrebbero dimostrare una vasta gamma di abilità e autonomia nell'esecuzione di compiti complessi, superando le prestazioni umane in modo significativo. L'obiettivo di comprendere e controllare l'intelligenza superumana è cruciale per garantire la sicurezza e l'efficacia di tali tecnologie avanzate.
La preoccupazione più grande è che l’essere umano si trovi con le SuperAI in un rapporto di sudditanza intellettuale, la stessa che oggi separa noi Sapiens dagli altri animali. Si sta dunque riflettendo su come evitare gli scenari peggiori - alcuni dei quali includono l’estinzione del genere umano.
Il punto su cui molti esperti concordano è che i metodi di controllo, ammesso e non concesso che siano possibili, andranno trovati e messi in atto prima che le SuperAI si manifestino. Tuttavia, non tutti sono d'accordo sul fatto che ciò possa accadere, né quando.