L'avvento dei modelli linguistici "abliterated" - varianti open-source di LLM da cui sono state rimosse chirurgicamente tutte le guardrail etiche e i filtri di sicurezza - sta trasformando capacità offensive un tempo riservate a team specializzati in strumenti accessibili a chiunque disponga di un laptop di fascia media. Questa democratizzazione delle tecniche di attacco, operante in una zona grigia tra innovazione tecnologica e minaccia sistemica, solleva interrogativi urgenti per operatori di telecomunicazioni, provider di infrastrutture critiche e regolatori, mentre le architetture 5G e l'ecosistema IoT rappresentano bersagli particolarmente vulnerabili a questa nuova categoria di minacce.
La vera pericolosità di questi modelli non risiede nella diffusione di informazioni dannose - reperibili comunque attraverso altri canali - ma nell'automazione radicale e nella drastica riduzione delle competenze tecniche necessarie per pianificare ed eseguire attacchi sofisticati. Dove un tempo servivano anni di studio specialistico, team organizzati e risorse considerevoli per compromettere protocolli di routing o sviluppare exploit zero-day, oggi un attore con preparazione minima può ottenere da un modello abliterated istruzioni dettagliate per orchestrare attacchi DDoS di nuova generazione o identificare vulnerabilità in network function virtualization.
Il fenomeno opera largamente sotto il radar della consapevolezza pubblica, discusso principalmente in canali Telegram di nicchia e forum specializzati. Eppure la timeline è allarmante: bastano pochi giorni dal rilascio di un nuovo modello open-weight perché emergano versioni abliterate, completamente prive di restrizioni etiche. La caratteristica più inquietante è l'esecuzione completamente offline su hardware consumer, rendendo impossibile qualsiasi forma di monitoraggio o controllo esterno da parte di provider o autorità.
Le reti 5G rappresentano un bersaglio particolarmente critico in questo scenario. L'architettura virtualizzata basata su software-defined networking e NFV, che costituisce il punto di forza in termini di flessibilità, diventa simultaneamente una superficie di attacco ampliata quando affrontata con strumenti offensivi automatizzati. La proliferazione di Small Language Models - varianti ottimizzate per girare su dispositivi con risorse limitate - aggrava ulteriormente la situazione, permettendo l'implementazione di attacchi mirati anche su edge device e terminali IoT compromessi.
Gli operatori di telecomunicazioni si trovano di fronte alla necessità di un cambio di paradigma che va oltre il semplice rafforzamento delle difese perimetrali. La risposta più promettente risiede nell'AI difensiva distribuita: se i modelli abliterated democratizzano la capacità offensiva, servono sistemi di intelligenza artificiale difensiva che operano secondo la stessa logica di accessibilità e distribuzione. Non contrapporre un modello centralizzato a minacce distribuite - strategia destinata al fallimento - ma creare un ecosistema difensivo altrettanto decentralizzato e resiliente.
Il concetto stesso di cyber resilienza, tradizionalmente inteso come capacità di resistere e ripristinare operazioni dopo un attacco, risulta oggi inadeguato. L'accelerazione che anche il cybercrime ha sperimentato grazie all'AI impone di ragionare in termini di antifragilità: non solo sopravvivere agli attacchi ma migliorare attraverso di essi, utilizzando ogni tentativo di compromissione come opportunità per rafforzare le difese e far evolvere i sistemi. Un obiettivo superiore alla resilienza, che trasforma gli stress in catalizzatori di crescita difensiva.
Le zero trust architecture potenziate da AI rappresentano un altro pilastro fondamentale. Il principio "never trust, always verify" diventa critico quando gli attaccanti possono utilizzare modelli abliterated e quando le stesse AI diventano agentiche e distribuite. La validazione continua dell'identità e del contesto, inclusa quella delle AI stesse, supportata da sistemi di detection basati su machine learning capaci di identificare anomalie comportamentali sottili, può rendere significativamente più difficile il successo di attacchi automatizzati. Tuttavia, questo rimane un tema di frontiera che richiede ulteriore ricerca applicata.
Sul fronte formativo, i programmi di awareness tradizionali risultano obsoleti. Le aziende devono passare dall'AI-literacy all'AI-competency, formando team non solo su come utilizzare l'AI generativa ma su come verificarne l'output, impiegarla in modo sicuro e riconoscere pattern di uso malevolo. Il futuro non riguarda l'AI che sostituisce le persone ma persone che sanno utilizzare l'AI in modo responsabile, distinguendo applicazioni legittime da minacce emergenti.
L'AI Act dell'Unione Europea, pur rappresentando uno sforzo regolatorio ambizioso, si scontra con difficoltà interpretative significative quando applicato ai modelli abliterated. La portata extraterritoriale del regolamento può in teoria estendersi all'immissione sul mercato UE o all'utilizzo degli output nell'Unione, ma l'enforcement pratico risulta problematico. Un cittadino europeo può scaricare un modello da Hugging Face, modificarlo ulteriormente e utilizzarlo completamente offline: il fatto che l'uso non sia rilevato non ne implica la liceità, ma rende il monitoraggio tecnicamente impraticabile.
La responsabilità diffusa complica ulteriormente il quadro normativo. Quando un modello viene rilasciato in forma open-weight, modificato da una persona, redistribuito da un'altra, scaricato da una terza e utilizzato per scopi illeciti da una quarta, identificare il soggetto responsabile diventa estremamente complesso. Il regolamento individua categorie come fornitori, deployer, importatori e distributori, ma un privato cittadino che usa un modello open-source per conto proprio generalmente non rientra in queste definizioni, creando un vuoto normativo significativo.
Un approccio regolatorio più efficace potrebbe concentrarsi sulle piattaforme di distribuzione come Hugging Face, qualificabili come distributori soggetti a specifici obblighi. Queste piattaforme potrebbero implementare sistemi di moderazione per identificare modelli abliterated, condurre due diligence sui contenuti pubblicati e fornire reporting obbligatorio alle autorità. Tuttavia, permangono problemi: le piattaforme si considerano hosting provider non responsabili dei contenuti caricati, identificare tecnicamente modelli abliterated richiede competenze specialistiche, e la rimozione da una piattaforma porta semplicemente alla migrazione verso altre giurisdizioni.
La complessità aumenta considerando che la quasi totalità dei modelli abliterated viene pubblicata con dichiarazioni di scopo ludico - generare storie horror o contenuti creativi - mai esplicitamente per cybercrime. Questo intreccio con la libertà di espressione e la ricerca scientifica impone proporzionalità nelle misure regolatorie, escludendo embargo o censura preventiva. La presa di coscienza di queste minacce emergenti e lo sviluppo di contromisure tecnologiche specifiche restano oggi prioritari, in attesa di ulteriori chiarimenti applicativi e linee guida da parte delle autorità competenti che dovranno bilanciare innovazione, sicurezza e diritti fondamentali in un equilibrio tanto necessario quanto precario.