L'IA impara a sparare bene e in fretta, ecco perché è un problema

Un ricercatore di Microsoft e dell'Università di York, Adrian de Wynter, ha messo alla prova GPT-4, eseguendo DOOM senza alcun addestramento preliminare.

Avatar di Andrea Riviera

a cura di Andrea Riviera

Managing Editor

Un ricercatore di Microsoft e dell'Università di York, Adrian de Wynter, ha messo alla prova GPT-4, eseguendo DOOM senza alcun addestramento preliminare. I risultati indicano che GPT-4 può giocare al gioco id Software con un certo grado di efficacia, anche se è necessaria un'interfaccia GPT-4V per la visione dell'IA e l'aggiunta di Matplotlib e Python per rendere possibili gli input dell'IA.

Secondo l'articolo originale, l'IA di GPT-4 che gioca a DOOM può aprire porte, combattere nemici e sparare con le armi. La funzionalità di base del gameplay, inclusa la navigazione nel mondo, è praticamente completa. Tuttavia, l'IA non ha alcun senso di permanenza degli oggetti: non appena un nemico esce dallo schermo, l'IA non ne è più consapevole. Anche se sono incluse istruzioni su cosa fare se un nemico fuori campo sta causando danni, il modello non è in grado di reagire a nulla al di fuori del suo stretto campo visivo.

Parlando delle conclusioni etiche della sua ricerca, De Wynter osserva: "È piuttosto preoccupante quanto sia stato facile per me costruire del codice per far sì che il modello colpisca qualcosa accuratamente senza effettivamente mettere in discussione le istruzioni."

"Quindi, sebbene si tratti di una ricerca molto interessante su pianificazione e ragionamento, e potrebbe avere applicazioni nei test automatici dei videogiochi, è ovvio che questo modello non sia consapevole di ciò che sta facendo. Incito fortemente tutti a riflettere su cosa implica il dispiegamento di questi modelli per la società e il loro possibile abuso."

il modello non è in grado di reagire a nulla al di fuori del suo stretto campo visivo.

Nonostante le attuali limitazioni, la rapidità con cui è stata sviluppata una soluzione GPT-4V per DOOM non può che generare domande sul futuro. Con la tecnologia in continua evoluzione e la crescente potenza dell'intelligenza artificiale, è importante affrontare tali questioni etiche e garantire che vengano implementate protezioni adeguate prima che si verifichino possibili abusi.