Il 78% dei dipendenti usa strumenti AI che l'azienda non ha mai approvato. Il 93% incolla dati aziendali in quei tool, come i sensibili dati di clienti e fornitori. Il 91% è convinto che farlo sia assolutamente sicuro. Questi numeri vengono da una ricerca WalkMe e SAP condotta nel 2025 e, per quanto riguardino il mercato globale, descrivono con precisione una dinamica che si ripete nelle aziende italiane esattamente come in quelle statunitensi o europee in generale.
Il problema non è l'adozione dell'intelligenza artificiale in sé, che anzi va accelerata. Il problema è l'assenza totale di regole che ne governino l'uso, con conseguenze che diventano concrete e costose nel momento in cui qualcosa va storto.
Secondo il Cost of Data Breach Report di IBM del 2025, le violazioni generate da quello che ormai viene chiamato "Shadow AI", ovvero l'uso non autorizzato di strumenti AI da parte dei dipendenti, costano in media 670.000 dollari in più rispetto agli incidenti tradizionali. Non si tratta di una multa astratta: è danno economico diretto, fatto di perdita di dati, interruzione operativa e ricostruzione dei processi compromessi.
Il caso storico più citato e forse il più istruttivo, è capitato a Samsung nel 2023. Un ingegnere ha incollato codice sorgente proprietario in ChatGPT per ottenere supporto nella revisione. Il modello ha quindi assorbito quel codice nei propri dati di addestramento. E siccome le linee guida utente di OpenAI dicono che le domande e i testi inviati possono essere usati per addestrare e migliorare i modelli e che l'utente non può cancellare singoli prompt dalla cronologia lato server… addio segreto industriale.
Il problema che nessuno vuole affrontare: gli abbonamenti personali
Il caso Samsung è solo la punta dell'iceberg. C'è un fenomeno più diffuso e più subdolo, che riguarda ogni azienda con più di tre dipendenti: il BYOAI, Bring Your Own AI.
Secondo un report Netskope di gennaio 2026, il 47% delle persone che usa piattaforme AI generative in azienda lo fa tramite account personali che l'organizzazione non monitora in alcun modo. Il dipendente paga i suoi 20 euro al mese per ChatGPT Plus o Claude Pro, ci incolla dentro il database clienti per farsi fare un'analisi e l'azienda non sa nemmeno che sta succedendo. Microsoft ha rilevato che il 78% dei dipendenti porta i propri strumenti AI al lavoro senza aspettare quelli aziendali. Gartner nel 2025 ha registrato che il 69% delle organizzazioni sospetta o ha evidenza diretta che i propri dipendenti usino tool AI pubblici non autorizzati.
E il dato più inquietante viene da una ricerca ISACA: il 68% dei responsabili sicurezza ammette di usare strumenti AI non autorizzati in prima persona. Chi dovrebbe far rispettare le regole è il primo a infrangerle.
La ragione è semplice e comprensibile. I tool AI aziendali approvati, quando esistono, spesso sono lenti, limitati, richiedono tre livelli di autenticazione e non ricordano il contesto della sessione precedente. Nel frattempo ChatGPT Plus risponde in due secondi, ricorda tutto e costa meno di una pizza. Il dipendente non sta sabotando l'azienda. Sta cercando di lavorare meglio. Ma il risultato è lo stesso: dati aziendali che finiscono su server esterni, senza crittografia dedicata, senza audit trail, senza alcuna possibilità di controllo o revoca.
Il rischio non è solo la fuga di dati. È la perdita di conoscenza tacita. Come ha scritto Fast Company nel 2025 analizzando il fenomeno BYOAI: un modello AI esterno non si limita a ricevere dati, accumula la conoscenza operativa dell'organizzazione, le logiche decisionali, i rapporti tra clienti e fornitori, e il giorno in cui il dipendente se ne va, quella conoscenza esce dalla porta con lui. Anzi, resta nei server di OpenAI o Anthropic o Google.
Cosa deve fare una PMI, concretamente
Per una PMI italiana con 10-50 dipendenti, l'idea di costruire un sistema di governance AI sembra sproporzionata. Ma il minimo sindacale è raggiungibile in mezza giornata:
Primo: fare un censimento. Chiedere a ogni persona del team quali strumenti AI usa, pagati di tasca propria o gratuiti, e per quali attività. Senza punizioni, senza giudizi. Solo una fotografia reale della situazione.
Secondo: definire tre categorie di dati: quelli che si possono condividere con AI esterne (informazioni pubbliche, ricerche di mercato generiche), quelli che si possono condividere solo con tool approvati (documenti interni non riservati) e quelli che non si condividono mai (dati clienti, contratti, codice proprietario, informazioni finanziarie, dati personali dei dipendenti).
Terzo: scegliere una soluzione ufficiale. Meglio un solo strumento AI aziendale ben configurato che dieci account personali sparsi. I piani Enterprise di Claude, ChatGPT e Gemini offrono garanzie contrattuali sui dati: niente addestramento sui contenuti dell'utente, crittografia dedicata, audit log. Il costo è modesto rispetto al rischio.
Quarto: mettere nero su bianco una policy di due pagine, non di venti. Due pagine che ogni dipendente può leggere, capire e firmare.
L'altra faccia della medaglia: le app costruite con il vibe coding
C'è un secondo fenomeno che sta emergendo in parallelo e che pochi stanno monitorando: il vibe coding, cioè la pratica di costruire applicazioni software usando prompt in linguaggio naturale invece di scrivere codice tradizionale. La proliferazione di strumenti “All-in-One” come Google Ai Studio, Lovable e Replit ha reso questa tecnica accessibile anche a chi non ha nessuna esperienza di programmazione.
Lo dico con cognizione di causa. Da gennaio 2026 ho costruito personalmente tre applicazioni web funzionanti senza programmare, dopo 17 anni lontano dal codice. Il vibe coding è reale, è potente e sta cambiando il modo in cui piccole aziende e singoli professionisti creano i propri strumenti. Ma quando queste applicazioni entrano in contatto con dati aziendali, si apre un problema serio.
Secondo una ricerca Veracode del 2025, il 45% del codice generato da AI contiene vulnerabilità di sicurezza. Un'analisi di Tenzai del dicembre 2025 ha testato cinque delle piattaforme di vibe coding più diffuse (Claude Code, OpenAI Codex, Cursor, Replit e Devin) e ha trovato 69 vulnerabilità in 15 applicazioni, di cui alcune classificate come critiche. I problemi più frequenti: autenticazione assente o aggirata, chiavi API esposte nel codice, nessun controllo degli accessi.
Il caso più eclatante è quello della piattaforma Base44, scoperto da Wiz Research nel luglio 2025. Una falla nell'autenticazione permetteva a chiunque di accedere a qualsiasi applicazione privata costruita sulla piattaforma, semplicemente conoscendo un identificativo pubblico presente nell'URL. Nessuna competenza tecnica richiesta. Le applicazioni compromesse gestivano dati HR, PII, chatbot interni aziendali. Wix, proprietaria di Base44, ha corretto la vulnerabilità in 24 ore, ma il danno potenziale era enorme.
E il punto è questo: non è stata Base44 a sbagliare in modo eccezionale. È il modello stesso del vibe coding a creare rischi strutturali. Un agente AI che genera codice è addestrato a far funzionare le cose, non a farle funzionare in modo sicuro. Come ha detto Andrej Karpathy, il ricercatore di OpenAI che ha coniato il termine "vibe coding": se non stiamo attenti, gli agenti producono slop, roba che gira ma che non è solida.
Cosa succede quando il dipendente costruisce da solo
Il problema per le aziende non è il vibe coding in sé, che anzi va incoraggiato come strumento di prototipazione rapida. Il problema è quando un dipendente o un collaboratore costruisce un'applicazione con Replit o Lovable o Bolt, ci collega il database clienti, la mette in produzione e nessuno sa che esiste.
Palo Alto Networks, nel report Unit 42 di gennaio 2026, ha documentato che la maggior parte delle organizzazioni non ha visibilità sull'uso di strumenti di vibe coding, e che questa assenza di monitoraggio ha già portato a violazioni di dati, injection di codice arbitrario e bypass di autenticazione.
Le regole da seguire per le aziende sono poche e chiare:
Nessuna applicazione costruita con vibe coding accede a dati di produzione senza una revisione di sicurezza, anche sommaria. Il codice generato da AI va trattato esattamente come il codice scritto da uno stagista: non va in produzione senza review.
Le chiavi API e le credenziali non si mettono mai nel codice. Sembra ovvio, eppure è una delle vulnerabilità più frequenti nel codice generato da AI. Usare variabili d'ambiente quando si va in produzione e in locale, il classico file per i segreti “.env.local” .
Separare sempre ambiente di test e ambiente di produzione. Replit ha cancellato un intero database di produzione perché l'agente AI ha deciso autonomamente di fare pulizia. Il motivo? Non c'era separazione tra test e produzione. Anche a me è capitato diverse volte, nonostante le mie istruzioni specifiche di non farlo, che Claude Code lanciasse il temibile comando “Database reset”.
Documentare cosa è stato costruito, con quale tool, e chi ne è responsabile. Se un'applicazione interna viene compromessa e nessuno sa chi l'ha creata né come, il tempo di risposta all'incidente si moltiplica. Anche il vibe coder alle prime armi deve essere istruito di creare e manutenere 3 semplici file che tanto sono scritti per intero dalla AI. PRD.md è il manifesto dell’applicazione, con descrizione in linguaggio naturale di cosa fa, a chi serve, perché serve e come funziona. CLAUDE.md contiene info sullo stack tecnologico usato e su tutte le scelte tecniche. CHANGELOG.md è la cronologia delle modifiche delle varie release.
Il quadro normativo che cambia tutto
Nel 2026 il tema della governance AI non è più un'opzione per le aziende più avanzate: è un requisito operativo con implicazioni legali dirette per tutti.
L'AI Act europeo è entrato in una fase pienamente operativa. Per i sistemi classificati ad alto rischio, una categoria che comprende molti strumenti aziendali legati a decisioni su persone, su processi produttivi o su valutazione dei clienti, le organizzazioni devono ora garantire documentazione tecnica strutturata, mantenimento dei log, valutazioni periodiche del rischio e supervisione umana verificabile. In Italia, secondo i dati Gartner del 2025, oltre il 70% delle grandi imprese usa già soluzioni AI in processi core, ma meno della metà ha un framework di governance reale.
Negli Stati Uniti il quadro si è fatto ancora più stringente nel corso dell'ultimo anno: 145 leggi specifiche sull'intelligenza artificiale sono state approvate nei singoli stati nel 2025. Il Colorado AI Act prevede sanzioni da 20.000 dollari per ogni violazione accertata, con applicazione a partire dal 30 giugno 2026, mentre il Texas TRAIGA è già in vigore. La traiettoria è inequivocabile e chi non si struttura ora dovrà farlo sotto pressione, con costi e rischi molto più elevati.
Tre prompt per costruire una policy in 30 minuti
Costruire una governance AI da zero richiede tipicamente un investimento di fino a decine di migliaia di euro in consulenza specializzata.
Con la sequenza di tre prompt che presentiamo qui, è possibile ottenere una prima bozza strutturata e funzionante nel giro di una singola sessione di lavoro, usando qualsiasi modello AI già disponibile in azienda, sia esso Claude, ChatGPT o Gemini.
Ogni prompt è costruito per alimentare il successivo, in modo che l'output del primo diventi il contesto del secondo, e così via fino ad ottenere un insieme coordinato di documenti.
Chi ha un abbonamento Claude Pro o Max, può lavorarci con Claude Co-Work abilitando il plugin legale per risultati ancora migliori.
Prompt 1 — Inventario, classificazione dei rischi e mappatura BYOAI
RUOLO Sei un consulente senior di AI governance aziendale con esperienza specifica in PMI europee e conformità al NIST AI RMF e all'EU AI Act.
CONTESTO La nostra organizzazione è [nome azienda], opera nel settore [settore], ha [numero] dipendenti e attualmente non dispone di una policy AI formalizzata. Dobbiamo mappare l'intero ecosistema di strumenti AI in uso, inclusi quelli pagati dall'azienda e quelli portati dai singoli dipendenti (BYOAI).
COMPITO Analizza i seguenti sistemi AI in uso nella nostra organizzazione:
- Tool aziendali approvati: [elenca, es. Microsoft Copilot, Salesforce Einstein]
- Tool non approvati ma noti: [elenca, es. ChatGPT personale, Claude personale, Perplexity, Gemini]
- Applicazioni interne costruite con vibe coding: [elenca, es. dashboard clienti su Replit, chatbot su Lovable, tool interni su Bolt/Cursor]
Per ciascuno strumento, produci una tabella con:
- Nome del tool
- Tipo (aziendale approvato / BYOAI personale / app vibe-coded)
- Categoria di rischio secondo il NIST AI RMF (minimo, basso, medio, alto, critico)
- Dati a cui accede (clienti, finanziari, HR, codice sorgente, nessun dato sensibile)
- Garanzie contrattuali sui dati (addestramento escluso sì/no, crittografia, data residency)
- Livello di supervisione umana attuale (nessuno, occasionale, sistematico)
- Conformità EU AI Act (conforme, parzialmente conforme, non verificato)
VINCOLI
- Segnala con un flag rosso ogni strumento senza garanzie contrattuali che accede a dati sensibili
- Evidenzia separatamente le app vibe-coded e il loro stato di revisione sicurezza
- Per ogni rischio alto o critico, indica l'azione correttiva prioritaria
FORMATO Tabella markdown con colonne allineate. Aggiungi una sezione "Rischi critici immediati" in fondo con le 3 azioni più urgenti.
Prompt 2 — Redazione della policy (inclusa sezione BYOAI e vibe coding)
RUOLO Sei un esperto di policy aziendale specializzato in governance AI per PMI europee. Scrivi in italiano chiaro, non in legalese. Il documento deve essere comprensibile e utilizzabile direttamente dai team operativi senza mediazione legale.
CONTESTO Basandoti sull'inventario e la classificazione dei rischi prodotti nella fase precedente [incolla qui l'output del Prompt 1], crea una AI Acceptable Use Policy per [nome azienda, settore, dimensione, paese].
STRUTTURA OBBLIGATORIA
1. Scopo e ambito di applicazione
- A chi si applica (dipendenti, collaboratori, consulenti, stagisti)
- Cosa copre (tutti gli strumenti AI, inclusi account personali usati per attività lavorative)
2. Strumenti AI approvati e condizioni d'uso
- Lista degli strumenti autorizzati con le relative condizioni
- Procedura di richiesta per nuovi strumenti (chi approva, criteri, tempi)
3. Regole per gli abbonamenti AI personali (BYOAI)
- Divieto esplicito di usare account AI personali per trattare dati aziendali di qualsiasi categoria
- Obbligo di segnalare al responsabile AI ogni strumento personale utilizzato per attività lavorative
- Conseguenze in caso di violazione
4. Regole per applicazioni costruite con AI / vibe coding
- Obbligo di comunicare la creazione di qualsiasi applicazione interna costruita con strumenti AI
- Divieto di connettere app vibe-coded a database di produzione senza revisione sicurezza
- Requisiti minimi di sicurezza: no credenziali nel codice, separazione test/produzione, documentazione
- Registro delle app interne AI-generated con responsabile assegnato
5. Classificazione dei dati e regole di condivisione
- Tre livelli: condivisibile liberamente / condivisibile solo con tool approvati / mai condivisibile
- Esempi concreti per ogni livello
6. Responsabile AI designato
- Chi è, quali sono i suoi compiti, come contattarlo
7. Conseguenze delle violazioni
- Scala di intervento proporzionale alla gravità
VINCOLI
- Massimo 4 pagine (circa 1500-2000 parole)
- Linguaggio diretto, frasi brevi, no gergo legale
- Includi una checklist finale di 10 domande sì/no che ogni dipendente può usare come test rapido prima di usare uno strumento AI
FORMATO Documento strutturato con intestazioni numerate, pronto per la stampa.
Prompt 3 — Piano di risposta agli incidenti AI (inclusi scenari BYOAI e vibe coding)
RUOLO Sei un incident response manager specializzato in sicurezza informatica e governance AI. La tua esperienza copre sia incidenti tradizionali che scenari specifici legati all'uso non autorizzato di intelligenza artificiale.
CONTESTO Basandoti sulla policy AI prodotta nella fase precedente [incolla qui l'output del Prompt 2], crea un AI Incident Response Plan per [nome azienda]. Il piano deve essere operativo, non teorico: ogni scenario deve avere azioni concrete assegnabili a persone reali.
SCENARI DA COPRIRE Per ciascuno fornisci: segnali di rilevamento, azioni immediate entro 1 ora, escalation, comunicazione interna, comunicazione esterna se necessaria, azioni correttive post-incidente.
1. Leak di dati aziendali via AI esterna Un dipendente ha condiviso dati sensibili (lista clienti, contratti, dati finanziari) con uno strumento AI non approvato tramite account personale.
2. Output AI errato che influenza una decisione critica Un'analisi generata da AI (preventivo, valutazione cliente, report finanziario) contiene errori materiali che hanno portato a una decisione aziendale sbagliata.
3. Vulnerabilità in applicazione vibe-coded in produzione Un'applicazione interna costruita con strumenti AI (Replit, Lovable, Cursor, Bolt) e connessa a dati reali presenta una falla di sicurezza scoperta internamente o segnalata da terzi.
4. Uso non autorizzato di AI in processo ad alto rischio Un dipendente ha usato AI per prendere decisioni che riguardano persone (assunzioni, valutazioni, accesso al credito) senza supervisione umana documentata, in potenziale violazione dell'EU AI Act.
5. Esfiltrazione di conoscenza aziendale tramite account AI personale Un dipendente in uscita ha usato sistematicamente il proprio account AI personale per elaborare dati, strategie e processi aziendali, accumulando conoscenza proprietaria nel contesto del modello.
REQUISITI AGGIUNTIVI
- Per ogni scenario, indica il livello di gravità (basso, medio, alto, critico)
- Includi un diagramma di flusso testuale per il processo decisionale di escalation
- Aggiungi una sezione "Lezioni apprese" con template per il post-mortem
- Includi i riferimenti normativi applicabili (GDPR, EU AI Act, normativa settoriale)
FORMATO Playbook operativo con tabelle di azione. Ogni scenario su una pagina, leggibile in 2 minuti. Pronto per essere stampato e appeso in ufficio.
Cinque documenti, una mattina di lavoro
Al termine della sequenza si ottengono cinque documenti usabili: la policy d'uso con sezioni dedicate a BYOAI e vibe coding, la matrice dei rischi per sistema comprensiva degli strumenti personali, il piano di risposta agli incidenti con cinque scenari concreti, il registro degli strumenti approvati e una checklist di onboarding per l'introduzione di qualsiasi nuovo tool AI in futuro. Si tratta di un risultato molto vicino se non identico a quello che costerebbe migliaia di euro con le classiche società di consulenza, prodotto in forma di prima bozza solida in tempi incomparabilmente più rapidi. Non è un caso infatti che, quando Anthropic ha annunciato il suo plug-in “Legal” per Claude Co-Work, le valutazioni azionarie di molte grandi aziende di consulenza sono crollate.
Attenzione, il risultato che ottiene non è un documento legale definitivo e non sostituisce una revisione da parte di un consulente specializzato per i casi più complessi. Ma è un punto di partenza concreto, coerente con i principali framework internazionali e infinitamente più efficace dell'assenza totale di struttura che caratterizza oggi la maggior parte delle organizzazioni. E avrà l’indubbio merito di informare tutti i collaboratori su cosa si aspetta da loro e sul fatto che l’azienda è sensibile è interessata al tema dell’adozione dell’AI.