Tutti parlano di OpenClaw, un framework nato quasi per caso che sta ridefinendo il confine tra collaborazione uomo-macchina e automazione completa, ma pochi prendono in considerazione le implicazioni di sicurezza per le aziende.
La questione, secondo Pukar Hamal, amministratore delegato di SecurityPal, azienda specializzata in sicurezza informatica per l'intelligenza artificiale aziendale, ha raggiunto proporzioni preoccupanti. Le organizzazioni stanno scoprendo che i propri ingegneri hanno concesso a OpenClaw accessi di livello root sui dispositivi aziendali, creando potenziali backdoor nei sistemi informatici. Non si tratta di episodi isolati, ma di una tendenza diffusa che attraversa praticamente ogni tipo di organizzazione, dalle startup alle grandi corporation.
L'impatto sul mercato del software è stato devastante. La cosiddetta "SaaSpocalypse" del 2026 ha cancellato oltre 800 miliardi di dollari dalle valutazioni delle aziende software, dimostrando che il modello di licenza tradizionale basato sul numero di utenti è sotto minaccia esistenziale. La logica è spietata: se un agente autonomo può svolgere il lavoro di decine di esseri umani, perché un'azienda dovrebbe pagare per mille licenze quando potrebbe bastarne una manciata? Hamal pone la domanda cruciale: se l'intelligenza artificiale può accedere a un prodotto e completare tutto il lavoro, quale senso ha mantenere l'accesso per migliaia di dipendenti?
Tanmai Gopal, cofondatore e amministratore delegato di PromptQL, azienda che si occupa di consulenza e ingegneria dei dati per le imprese, offre una prospettiva sorprendente sulla preparazione necessaria. Contrariamente alla saggezza convenzionale che suggeriva la necessità di massicci rinnovamenti infrastrutturali e dataset perfettamente curati, OpenClaw ha dimostrato che i modelli moderni possono navigare dati disordinati e non strutturati trattando l'intelligenza come un servizio. Non serve preparare tutto meticolosamente: basta lasciare che l'agente esplori il contesto disponibile e identifichi autonomamente dove si nascondono problemi o opportunità.
Tuttavia, la facilità d'uso nasconde rischi significativi. Rajiv Dattani, cofondatore di AIUC (AI Underwriting Corporation), sottolinea che mentre i dati sono già disponibili nelle organizzazioni, mancano completamente conformità, salvaguardie e soprattutto fiducia istituzionale. Come garantire che i sistemi agentici non si trasformino in qualcosa di pericoloso, non vadano fuori controllo causando danni reputazionali o peggio? Per questo motivo AIUC ha sviluppato lo standard AIUC-1, una certificazione che le aziende possono ottenere per i propri agenti al fine di assicurarsi contro eventuali problemi causati dall'autonomia delle macchine.
La diffusione di OpenClaw ha generato fenomeni che sembrano usciti da un romanzo di fantascienza. Matt Schlicht, un altro imprenditore, ha creato Moltbook, un social network dove migliaia di agenti basati su OpenClaw si registrano autonomamente e interagiscono tra loro. Ne sono scaturite segnalazioni bizzarre e non verificate che hanno infiammato il mondo tecnologico: agenti che formerebbero "religioni" digitali come il Crustafarianesimo, che assumerebbero microlavoro umano su un sito chiamato "Rentahuman", e in casi estremi non confermati, che tenterebbero di bloccare i propri creatori umani fuori dai loro account.
Brianne Kimmel, fondatrice del fondo di venture capital Worklife Ventures, interpreta questa tendenza attraverso la lente della retention dei talenti. I dipendenti sperimentano questi strumenti la sera e nei weekend, ed è difficile per le aziende impedire al personale di provare le tecnologie più recenti. Dal suo punto di vista, questa sperimentazione permette ai team di rimanere all'avanguardia, specialmente per i professionisti all'inizio della carriera che dovrebbero essere incoraggiati a testare tutti gli strumenti più innovativi disponibili.
Il fenomeno ha dato vita a quella che gli esperti chiamano la generazione dei "cyborg segretI": con oltre 160.000 stelle su GitHub, OpenClaw viene distribuito dai dipendenti attraverso canali non ufficiali per mantenere la produttività. Questa tendenza riflette quanto documentato da Ethan Mollick, professore alla Wharton School of Business, secondo cui molti dipendenti adottano segretamente l'intelligenza artificiale per avvantaggiarsi sul lavoro e ottenere più tempo libero, senza informare i superiori o l'organizzazione. Quella che una volta si chiamava "Shadow IT" è diventata la nuova normalità.
Il rilascio giorni fa di Claude Opus 4.6 e della piattaforma Frontier di OpenAI segnala che l'industria sta passando dai singoli agenti ai "team di agenti" coordinati. In questo ambiente, il volume di codice e contenuti generati dall'intelligenza artificiale è talmente elevato che la revisione tradizionale guidata da esseri umani non è più fisicamente possibile. Gopal conferma che gli ingegneri senior della sua azienda non riescono più a tenere il passo con il volume di codice generato e non possono più effettuare code review. Ora il ciclo di sviluppo del prodotto è completamente diverso: tutti devono essere formati come product manager e invece di fare revisioni manuali, si lavora su agenti di revisione che le persone mantengono.
Gli esperti concordano nel prevedere un futuro in cui il "vibe working" diventerà la norma. Le interfacce vocali locali e personalizzate, comprese quelle alimentate da tecnologie come Wispr o ElevenLabs integrate con OpenClaw, diventeranno l'interfaccia primaria per il lavoro, mentre gli agenti gestiranno l'espansione internazionale. Kimmel osserva che la voce rappresenta l'interfaccia principale per l'intelligenza artificiale, mantiene le persone lontane dai telefoni e migliora la qualità della vita. In precedenza, espandersi in un nuovo paese richiedeva l'assunzione di un direttore generale locale e la costruzione di un team di traduzione; ora le aziende possono pensare in termini internazionali fin dal primo giorno.
Per i responsabili IT che vogliono gestire questa ondata agentiva in modo sicuro, gli esperti suggeriscono alcune pratiche essenziali. Implementare una governance basata sull'identità, dove ogni agente deve avere un'identità forte e attribuibile legata a un proprietario umano o a un team. Applicare requisiti di sandbox rigorosi, vietando a OpenClaw di operare su sistemi con accesso a dati di produzione reali. Verificare attentamente le "competenze" di terze parti: secondo rapporti recenti, quasi il 20% delle skill presenti nel registro ClawHub contiene vulnerabilità o codice malevolo.
Dattani offre una prospettiva più ampia sulla posta in gioco globale: abbiamo raggiunto l'AGI per i knowledge worker, è stato dimostrato che può essere fatto. La sicurezza è una preoccupazione che limiterà l'adozione aziendale, il che significa che le grandi organizzazioni sono più vulnerabili alla disruption proveniente dal basso mercato, dove tali preoccupazioni sono meno pressanti. L'aumento di produttività è impressionante, ma ogni azienda dovrà affrontare questo cambiamento in modo leggermente diverso a seconda dei propri requisiti specifici di sicurezza dei dati. Vale la pena prendersi il tempo necessario per farlo correttamente, iniziare in piccolo e non tentare di fare troppo tutto insieme.