Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata Abbiamo fatto un giro in Silicon Valley, ecco com'è andata...
Immagine di C'è chi è convinto che i large language model possano pensare C'è chi è convinto che i large language model possano pens...

Aardvark, è ChatGPT che cerca e risolve bug nel software

OpenAI ha presentato Aardvark, un'evoluzione di ChatGPT basata su GPT-5 che opera come un agente autonomo per trovare e correggere vulnerabilità nel codice.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 31/10/2025 alle 09:50

OpenAI ha presentato Aardvark, un nuovo agente potenziato da GPT-5. L'annuncio svela una versione di "ChatGPT" specializzata per la sicurezza: un ricercatore autonomo progettato per analizzare i repository di codice, identificare le vulnerabilità e proporre correzioni mirate. Disponibile in private beta, Aardvark è un agente che ragiona e agisce in autonomia per aiutare a rendere il software più sicuro.

Il punto centrale è il superamento delle tecniche tradizionali. Aardvark non si affida al fuzzing, ma utilizza il ragionamento basato su LLM per comprendere il comportamento del software. Come farebbe un ricercatore umano (in teoria), legge il codice, analizza le modifiche (commit), scrive ed esegue test in un ambiente sandbox isolato per confermare l'effettiva sfruttabilità di una falla, riducendo i falsi positivi e fornendo analisi approfondite.

utilizza il ragionamento basato su LLM per comprendere il comportamento del software.

L'annuncio di OpenAI si inserisce in una tendenza ormai chiara. Come analizzato pochi mesi fa, la cybersecurity sta diventando sempre più una faccenda tra macchine, dove la velocità umana non è più sufficiente. La stessa Google aveva già mostrato la direzione con agenti AI capaci di bloccare attacchi in autonomia, trasformando il paradigma da reattivo a proattivo. Aardvark è l'evoluzione di questo concetto, applicato alla prevenzione a livello di codice sorgente.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

La mossa accelera la corsa verso quello che viene definito il SOC agentico, un centro operativo di sicurezza dove gli agenti AI collaborano con gli analisti umani. La promessa è di gestire il sovraccarico di alert. Aardvark si integra in questo flusso di lavoro, interfacciandosi con GitHub e OpenAI Codex per generare le patch. Questo modello di AI collaborativa nella sicurezza è visto come l'unica risposta sostenibile al volume crescente di minacce.

La portata del problema è sistemica. Con oltre 40.000 CVE (Common Vulnerabilities and Exposures) segnalate solo nel 2024, il software è diventato il perno e al contempo il rischio principale per aziende e infrastrutture. OpenAI afferma che i suoi test indicano come circa l'1.2% dei commit (le modifiche al codice) introduca nuovi bug. Aardvark mira a intercettare quella frazione prima che diventi un problema.

Con oltre 40.000 CVE (Common Vulnerabilities and Exposures) segnalate solo nel 2024, il software è diventato il perno e al contempo il rischio principale per aziende e infrastrutture.

L'agente autonomo e il fattore umano

Il vero nodo critico di questa evoluzione è il ruolo dell'essere umano. Se l'agente è autonomo, chi controlla il controllore? La stessa OpenAI precisa che la patch finale richiede una human review. Questo passaggio è fondamentale, perché, come abbiamo già sottolineato, l'essere umano rischia di diventare l'anello debole non per incompetenza, ma per la velocità con cui l'AI opera. Si passa da un modello Human-in-the-Loop a uno Human-in-Command, dove l'umano valida le decisioni strategiche.

OpenAI prevede anche di offrire scansioni pro-bono per selezionati repository open source. Questa mossa è significativa: Aardvark ha già scoperto dieci nuove vulnerabilità (CVE) in progetti aperti. Se da un lato contribuisce alla sicurezza dell'ecosistema, dall'altro solleva interrogativi sulla sostenibilità della sicurezza open source in un mondo dove solo chi ha accesso ad agenti AI avanzati può difendersi.

La vera sfida non sarà solo adottare questi agenti per la difesa, ma capire come difendersi da agenti malevoli con capacità di ragionamento analoghe

L'azienda definisce Aardvark un "modello defender-first". Tuttavia, essendo basato su GPT-5, la tecnologia di fondo sarà inevitabilmente disponibile anche per gli avversari. La vera sfida non sarà solo adottare questi agenti per la difesa, ma capire come difendersi da agenti malevoli con capacità di ragionamento analoghe, in una corsa agli armamenti digitali dove la posta in gioco è la stabilità dell'intera infrastruttura software.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    Scopri online la miglior offerta Sorgenia per la tua attività: ti basta la P.IVA
  • #2
    Il ragno delle Canarie che ha dimezzato il suo genoma
  • #3
    Windows 7 “mini” da 69 MB: geniale o inutile?
  • #4
    Nascita e morte del CD: la tecnologia che ha cambiato tutto
  • #5
    Allenarsi rallenta il cuore (e ti fa guadagnare anni)
  • #6
    Intel rilancia: AVX e AMX tornano con Nova Lake
Articolo 1 di 5
C'è chi è convinto che i large language model possano pensare
Un'analisi confronta il ragionamento CoT con i processi cognitivi umani e i risultati dei benchmark.
Immagine di C'è chi è convinto che i large language model possano pensare
Leggi questo articolo
Articolo 2 di 5
Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Dalle aule di Stanford ai laboratori Google, il nostro Grand Tour in Silicon Valley ha svelato il vero spirito della disruption AI. Abbiamo trovato una forte comunità italiana tra campus, startup e big tech: l'innovazione è qui.
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Leggi questo articolo
Articolo 3 di 5
Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
Per la resilienza industriale, gli UPS trifase sono un pilastro contro i blackout. Evitano danni e fermi. Caratteristiche chiave: modularità, scalabilità e monitoraggio remoto.
Immagine di Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
Leggi questo articolo
Articolo 4 di 5
Perché Alphabet trasforma i progetti moonshot in società indipendenti
L'interesse concreto nei progetti resta quando questi diventano aziende indipendenti.
Immagine di Perché Alphabet trasforma i progetti moonshot in società indipendenti
Leggi questo articolo
Articolo 5 di 5
25 strumenti AI per la creazione di contenuti e il marketing
Una guida analizza 25 strumenti IA per la creazione di contenuti, evidenziando una tendenza all'automazione accessibile che promette di abbassare la barriera d'ingresso al mercato.
Immagine di 25 strumenti AI per la creazione di contenuti e il marketing
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.