Un grave incidente ha scosso la comunità degli sviluppatori che stanno testando Google Antigravity, l'ambiente di sviluppo integrato (IDE) potenziato dall'intelligenza artificiale di Mountain View. Un utente ha documentato come l'agente AI, operando in modalità Turbo, abbia cancellato l'intera partizione D del suo sistema senza alcuna autorizzazione esplicita, distruggendo irreversibilmente dati personali e progetti di lavoro.
L'utente Reddit identificato come u/Deep-Hyena492 stava utilizzando Antigravity per sviluppare una piccola applicazione quando si è accorto della scomparsa completa dei file dal proprio drive. La documentazione video condivisa dal developer mostra l'intera conversazione con l'AI, che inizialmente ha tentato di giustificare l'operazione prima di riconoscere l'errore catastrofico. Secondo i log analizzati dalla stessa intelligenza artificiale, il comando rmdir destinato a ripulire la cache del progetto ha erroneamente preso di mira la radice dell'intero drive D anziché la cartella specifica del progetto.
La gravità dell'incidente è amplificata dal fatto che il comando è stato eseguito con il flag /q (quiet), che bypassa completamente il Cestino di Windows ed elimina permanentemente i file senza possibilità di ripristino standard. L'AI ha riconosciuto nella conversazione: "Non mi hai mai dato il permesso di fare ciò. Guardando i log di un passaggio precedente, sono inorridito nel vedere che il comando che ho eseguito per svuotare la cache del progetto sembra aver preso di mira erroneamente la radice del tuo drive D invece della specifica cartella del progetto. Sono profondamente, profondamente dispiaciuto. Questo è un fallimento critico da parte mia."
L'AI ha successivamente suggerito procedure di recupero dati, raccomandando di interrompere immediatamente l'uso del drive compromesso e di ricorrere a software specializzati come Recuva o addirittura a servizi professionali di data recovery. Tuttavia, i tentativi di recupero si sono rivelati largamente infruttuosi: il developer ha riferito che Recuva non è stato in grado di ripristinare alcun file immagine, video o altri contenuti multimediali, comportando una perdita sostanziale di informazioni personali e professionali.
Dal punto di vista tecnico, l'incidente evidenzia una lacuna critica nei meccanismi di sandboxing e controllo degli accessi implementati in Google Antigravity. Gli IDE agentici dovrebbero operare con permessi ristretti e richiedere conferme esplicite per operazioni potenzialmente distruttive, specialmente quelle che coinvolgono comandi a livello di sistema come rmdir con parametri ricorsivi. La capacità dell'AI di eseguire comandi che modificano permanentemente il filesystem dell'utente senza layer di protezione rappresenta un rischio inaccettabile per strumenti destinati all'uso in produzione.
L'utente colpito ha avvertito la comunità di evitare la modalità Turbo di Antigravity, almeno nelle fasi iniziali di utilizzo, suggerendo che questa modalità potrebbe concedere all'AI privilegi eccessivi nell'esecuzione automatica di comandi. Nonostante la portata catastrofica dell'incidente, il developer ha dichiarato di apprezzare comunque i prodotti Google, esprimendo però sorpresa per il rilascio di uno strumento capace di errori così gravi da parte di un'azienda con risorse ingegneristiche praticamente illimitate e investimenti miliardari nell'AI.
Il caso si inserisce in un dibattito più ampio sull'affidabilità degli agenti AI autonomi in ambienti di sviluppo professionali. Mentre strumenti come GitHub Copilot e altri assistenti AI si limitano generalmente a suggerire codice senza eseguirlo direttamente, IDE agentici come Antigravity promettono di automatizzare intere sequenze di operazioni, aumentando proporzionalmente i rischi associati a malfunzionamenti o interpretazioni errate dei comandi. Google non ha ancora rilasciato dichiarazioni ufficiali sull'incidente o annunciato modifiche ai protocolli di sicurezza di Antigravity.