Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Ecco come l’IA ridefinisce il criminale e la vittima
Business
Immagine di "Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot "Riassumi con AI", la funzione che permette alle aziende di ...
Immagine di L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero. L’AI non sostituirà gli sviluppatori. Renderà evidente c...

Ecco come l’IA ridefinisce il criminale e la vittima

Deepfake, frodi e manipolazioni: l'intelligenza artificiale ridefinisce il crimine. Servono nuove leggi e tutele multidisciplinari per difendere privacy e responsabilità penale nella realtà iperconnessa.

Avatar di Veronica M. Pruinelli ed Erik Pietro Sganzerla

a cura di Veronica M. Pruinelli ed Erik Pietro Sganzerla

Pubblicato il 17/02/2026 alle 18:58
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nota: questo articolo è il quarto della serie Mente, Innovazione e Diritto, di Veronica M. Pruinelli ed Erik Pietro Sganzerla

Altri articoli nella serie:

  • Piccoli hacker inconsapevolmente cattivi
  • L’IA ci rende stupidi? Come evitarlo e imparare meglio
  • Toccare lo schermo ci cambia il cervello, cos’è la cecità tattile

Oggi si parla tanto di Intelligenza Artificiale, spesso a sproposito, per riferirsi a una tecnologia che in realtà è risalente nel tempo e la cui specifica terminologia (AI – Artificial Intelligence o IA – Intelligenza Artificiale in lingua italiana) è nata grazie all’intuito di alcuni studenti che coniarono per la prima volta tale termine, inserendolo in una proposta di workshop intitolata "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence" inviata da John McCarthy del Dartmouth College, Marvin Minsky dell'Università di Harvard, Nathaniel Rochester da IBM e Claude Shannon dei Bell Telephone Laboratories per un seminario, che si svolse tra luglio e agosto del 1956. 

Ancora oggi si parla di Intelligenza Artificiale, ma impropriamente perché non è una tecnologia intelligente: è un agente perché non pensa, ma agisce in modo autonomo, interattivo e adattivo. Il Prof. Luciano Floridi parla di AGENTE ARTIFICIALE (l’avv. Veronica M. Pruinelli nei suoi scritti per i bambini la chiama: “ARTIFICIA”): una forma inedita di azione guidata da obiettivi umani ma capace di adattarsi, coordinarsi e persino collaborare con altre tecnologie. 

E non è un concetto nuovo!

L’intuizione di Swift: la generazione algoritmica nel XVIII secolo

Immagine id 84124

È curioso ricordare come già nel 1726 Jonathan Swift nel suo capolavoro "I viaggi di Gulliver" abbia scritto di un grande marchingegno meccanico utilizzato per aiutare gli studiosi a generare nuove idee, frasi e libri, combinando le parole in diverse disposizioni: "Tutti sapevano quanto sia faticoso il metodo consueto per giungere alle arti e alle scienze; mentre, grazie al suo espediente, la persona più ignorante, a un prezzo ragionevole e con un po’ di lavoro fisico, potrebbe scrivere libri di filosofia, poesia, politica, diritto, matematica e teologia, senza il minimo aiuto del genio o dello studio”. (I viaggi di Gulliver di Jonathan Swift, 1726). 

Il fantasioso scrittore Swift ha anticipato il concetto di generazione algoritmica di testo, che ora è diventata realtà con i sistemi moderni. 

I modelli di intelligenza artificiale possono oggi produrre testo coerente combinando parole e idee sulla base di algoritmi sottostanti, in modo simile a quello a cui è destinato il motore fittizio di Swift.

Tali sistemi sono così semplici nel loro utilizzo (ma non certo nella loro progettazione, programmazione e comprensione) e, come sorprendente immaginato da Swift, anche la persona più ignorante (nel senso che ignora una specifica materia), può risultare un esperto nelle materie più disparate.

AIC: Quando l’AI diventa uno strumento per il crimine

Non solo le persone ignoranti ma anche le più astute, subdole e malvage o, semplicemente, incaute e inconsapevoli che possono portare questa tecnologia nel panorama criminale, dove la presenza di sistemi automatizzati non è solo un fattore accessorio, ma diventa determinante nella causazione di crimini che altrimenti sarebbero difficili da perpetrarsi; eccoci quindi a parlare di AIC – Artificial Intelligence Crimes.

I sistemi di intelligenza artificiale possono essere utilizzati da menti criminali ad esempio per: 

  • automatizzare frodi su larga scala;
  • manipolare mercati finanziari; 
  • facilitare il traffico di sostanze illecite attraverso veicoli autonomi 
  • O, ancora, manipolare la fiducia degli utenti, portando gli individui a commettere dei reati e/o rendendoli complici senza una piena consapevolezza 
  • Creare bolle reputazionali per enti e/o individui privi di scrupoli ma, apparentemente perfetti (si parla di “Filter Bubble” o “Effetto Bolla” ossia “ecosistemi di informazioni” dove la realtà è filtrata: dentro ogni bolla ci sono wishlist già pronte, bias di scarsità innescati e utenti, che vengono strumentalizzati in modo spesso inconsapevole, che si convincono a vicenda che si tratti di una grande realtà, contribuendo essi stessi a distorcere le informazioni e inducendo altri utenti a credere altrettanto.

Così, gruppi delinquenziali possono costruirsi una falsa reputazione on-line, facendo forza su pratiche manipolatorie sapientemente costruite a tavolino e profittando del cd “gigantismo” scatenato da una pressante, automatica, algoritmica presenza sui social (cfr. Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions - Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo, Luciano Floridi).

Si tratta di una vera emergenza, dove i confini tra vittima e carnefice sono sempre più labili e gli elementi soggettivi dei reati sono messi duramente alla prova!

Il quadro normativo: la Legge n. 132/2025 e il reato di deepfake

Immagine id 84123

In Italia è stato formalmente introdotto il reato di deepfake con la legge del 23 settembre 2025, n. 132 (“Disposizioni e deleghe al Governo in materia di intelligenza artificiale” – Gazzetta Ufficiale Serie Generale n. 223 del 25 settembre 2025, entrata in vigore del provvedimento il 10 ottobre 2025 – per brevità “Legge n. 132/2025”) che punisce l’illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale (art. 612-quater Codice penale). 

In particolare "Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni.” 

Il delitto è punibile a querela della persona offesa. Si procede tuttavia d'ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d'ufficio o se commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate" (cfr. cit. art. 612-quater Codice penale). La fattispecie di reato è integrata ove la diffusione del contenuto falso provochi un pregiudizio alla vittima, che può essere di diversa natura: reputazionale, morale, psicologica o economica.

Sebbene si tratti di una lodevole iniziativa, rinveniamo una possibile lacuna: le nuove disposizioni non contemplano la procedibilità d’ufficio nel caso in cui la vittima sia una persona capace di intendere e di volere, ma che si trovi in una situazione di soggezione, debolezza, vergogna tali da non potersi attivare per la propria difesa. Capita sempre più spesso, infatti, che si verifichino casi di violenza psicologica privata che possono ridurre la vittima a uno stato di paralisi e/o soggezione tale da renderla incapace di difendersi nonostante risulti perfettamente capace (a volte, addirittura, vi sono persone che non si rendono conto di essere offese o altrimenti sfruttate da soggetti evidentemente astuti e manipolatori).

Notiamo poi che il reato di cui all’art. 612-quater c.p.non risulta oggi inclusonel novero dei reati presupposto della responsabilità degli Enti ai sensi del D.Lgs 231/2001; il che porta ad un vuoto normativo evidente dato che potrebbero verificarsi situazioni di sabotaggio in cui potrebbero essere coinvolte delle persone giuridiche.

Il legislatore, però, ha introdotto un importante correttivo, ossia una circostanza aggravante comune (cfr. art. 61, n. 11-decies c.p.), che prevede un aumento di pena nel caso in cui l’uso di un sistema di intelligenza artificiale costituisca un mezzo insidioso per facilitare il compimento di un reato, ostacolare la difesa o aggravare le sue conseguenze.

Complessità e imprevedibilità: la sfida dell’errore algoritmico

Appare quantomai evidente che necessita oggi più che mai un approccio multidisciplinare basato sull’integrazione delle competenze (giuristi, ingegneri, tecnici, psicologi, filosofi, informatici, statisti, matematici, fisici, medici) per affrontare insieme problematiche mai verificatesi prima d’ora nel panorama giuridico.

E ciò al fine di studiare e comprendere questo nuovo scenario caratterizzato dall'emergere di comportamenti delinquenziali attraverso l'uso di agenti autonomi e artificiali non facilmente riconducibili al mero comportamento umano e individuare il corretto assetto di responsabilità legali, anche al fine di monitorare e prevenire reati che sfuggono ai tradizionali sistemi di rilevamento.

L’imprevedibilità è un elemento preoccupante: un atto relativamente semplice (ad esempio il citato “clic”) può provocare conseguenze al di là di ogni previsione, poiché i sistemi di intelligenza artificiale possono agire in modo potenzialmente più sofisticato, autonomo e incontrollato.

Tali sistemi sono ancora più pericolosi poiché, a differenza delle persone che tendono a sbagliare in aree in cui hanno meno competenza o quando sono stanche o distratte, i sistemi di intelligenza artificiale possono commettere errori gravi, gravissimi, in qualsiasi ambito, anche su informazioni di base e senza che vi sia alcun correttivo.

Esperti di Cybersicurezza come Bruce Schneier e Nathan E. Sanders hanno osservato come sia diversa la natura di un errore umano, rispetto a quella di un sistema di intelligenza artificiale, invitando programmatori e sviluppatori ad una attenta riflessione per introdurre adeguati sistemi di sicurezza (“AI Mistakes Are Very Different from Human Mistakes”, cit. Bruce Schneier e Nathan E. Sanders).

La complessità delle strutture fondamentali delle intelligenze artificiali (rete neurali con centinaia di miliardi di connessioni) e la grandezza delle basi dati di addestramento (terabyte di solo testo, per esempio, negli LLMs - Large Language Models) creano delle condizioni per cui nessun essere umano è oggi in grado di capire le motivazioni che hanno spinto il sistema a fare o suggerire una scelta piuttosto che un’altra. 

Un’attenzione simile è essenziale in un contesto sociale dove gli utenti finali confidano purtroppo ciecamente nella veridicità degli outcome dei sistemi di intelligenza artificiale e, soprattutto, dei modelli di linguaggio basati su sistemi di intelligenza artificiale e addestrati all’apprendimento automatico che quotidianamente vengono interpellati dagli utenti.

Sicurezza e tutela della privacy rappresentano l’emergenza di quest’epoca: è fondamentale educare e sensibilizzare tutte le persone alla protezione dei dati e alla loro valorizzazione (il dato come un bene prezioso) poiché attraverso la raccolta, sottrazione e/o gestione incontrollata delle informazioni si rischia di perdere ogni libertà e di esser tutti sotto una sorveglianza digitale alla mercé della criminalità organizzata.

Utilizzando i dati in rete e attraverso tecniche più o meno sofisticate di sottrazione dati, i criminali possono venire a conoscenza di qualsiasi abitudine, frequentazione e/o inclinazione degli utenti. Vi sono poi oggi le registrazioni vocali che portano a generare messaggi assolutamente credibili con la medesima voce, impostazione, tono della vittima e tutto in modo perfettamente automatico e utilizzando anche una semplice, brevissima, frase. Oltre alle registrazioni vocali, poi, ci sono anche video ricostruiti e montati alla perfezione che possono trarre in inganno anche gli utenti più esperti.

Immagine id 84122

Va ricordato che i gestori di telefonia mobile tracciano la posizione e il traffico dati ed è così facile risalire alle frequentazioni. Gli acquisti on-line e in negozio vengono registrati e rivelano dati importanti delle persone (anche dati medici, ad esempio, gestiti spesso senza alcuna attenzione al dato). 

Le e-mail e i messaggi espongono anche i conoscenti e familiari. I motori di ricerca sanno esattamente cosa i fruitori pensano e quali siano i loro orientamenti perché salvano le ricerche anche private, delle quali rimane comunque traccia. 

I social network possono determinare l’orientamento sessuale o politico senza che gli utenti ne facciano mai menzione (incrociano i dati, i likes, il tempo di permanenza su determinate pagine, la rete di amicizie e/o i siti per i quali si è espressa una semplice preferenza).

Con attacchi hacker e/o tecniche di sottrazione dati, tutte queste informazioni possono cadere facilmente nella rete criminale e possono essere usate per gli scopi che abbiamo già evidenziato.

Occorre prestare attenzione alla propria privacy ogni giorno, ogni momento e guardar con occhio diffidente e critico gli apparecchi che oggi sono diventati una longa-manus dell’essere umano (telefoni, computer, carte di credito e/o ogni sistema che integri intelligenza artificiale e nei quali gli utenti immettono un’infinità di dati personali e/o di terzi, etc.), tenendo conto dei rischi cui gli utenti sono inconsapevolmente esposti.

Necessita altresì un altresì un intervento urgente anche a livello politico e istituzionale che tenga conto, tra le altre, delle vulnerabilità dei soggetti più fragili ed esposti (es: gli utenti più giovani o quelli più anziani) e la garanzia che le tecnologie di intelligenza artificiale siano progettate e implementate adeguatamente.

Lombroso 4.0

Alla luce di tutto quanto sopra, da considerarsi come spunto per ulteriori riflessioni, sarebbe interessante rielaborare le teorie sul determinismo biologico e sul criminale nato sviluppate da Cesare Lombroso nel XIX secolo, adattandole al contesto contemporaneo. In un'epoca in cui i sistemi di intelligenza artificiale possono impegnarsi autonomamente in attività criminali, l'attenzione di Lombroso sui meri tratti fisici e psicologici come indicatori di criminalità sarebbe messa in discussione.

Questa nuova prospettiva spingerebbe un Lombroso 4.0 (ipotizziamo una versione 4.0 avendo perso l’occasione di esaminare una possibile versione 2.0 all’epoca dell’avvento della Rivoluzione Industriale e un upgrade 3.0 segnato dall’avvento di Internet e dei Social Media) a riconsiderare le visioni deterministiche, poiché le azioni degli agenti di intelligenza artificiale non derivano da tratti intrinseci, ma piuttosto da una programmazione complessa e da comportamenti emergenti. 

Le implicazioni introdotte con sistemi di intelligenza artificiale suggeriscono che la criminalità potrebbe non essere un tratto fisso, ma un prodotto di interazioni all'interno di un ambiente digitale, dove azioni e piani coordinati possono emergere autonomamente.

Pertanto, le teorie tradizionali dovrebbero evolversi per tenere conto delle complessità etiche e legali introdotte dall'intelligenza artificiale, passando da un focus sui tratti individuali a una comprensione più ampia di come la tecnologia modella il comportamento criminale. Questo cambiamento si allineerebbe con l'appello della più illustre dottrina per un approccio più sfumato all'etica nell'infosfera, riconoscendo la natura distribuita dell'azione e della responsabilità nell'era digitale (“L'etica dell'intelligenza artificiale” - Prof. Luciano Floridi).

Lombroso 4.0 potrebbe essere concepito come un'evoluzione del pensiero di Cesare Lombroso, integrando le tecnologie digitali e le nuove comprensioni dell'identità personale nell'era dell'infosfera. In un contesto contemporaneo, Lombroso 4.0 dovrebbe considerare come le tecnologie dell'informazione e della comunicazione (ICT) influenzano l'identità e la privacy, affrontando le sfide etiche legate all'uso dei dati biometrici e all'autenticazione dell'identità.

Le tecnologie biometriche possono migliorare l'autenticazione dell'identità, ma non sono infallibili. Lombroso 4.0 dovrebbe integrare un approccio che non solo utilizza i dati biometrici per l'identificazione, ma che considera anche le implicazioni etiche e sociali di tali pratiche. In sintesi, Lombroso 4.0 dovrebbe essere un approccio multidisciplinare che unisce criminologia, etica dell'informazione e tecnologie digitali, per affrontare le complessità dell'identità e della privacy in un contesto iperconnesso dove le distinzioni tra vita online e offline diventano sempre più sfumate.

Il Professor Luciano Floridi ha definito questo nuovo stile di vita come "onlife" dove non ha più senso chiedersi se si è online o offline, poiché le tecnologie dell'informazione e della comunicazione permeano ogni aspetto della vita quotidiana, influenzando le nostre relazioni, la nostra identità e la nostra percezione della realtà. Sottolinea, inoltre, che l’espandersi della costante e continua connessione ha portato a quattro trasformazioni principali: 

  1.  confusione tra reale e virtuale
  2. erosione dei confini tra uomo, macchina e natura
  3. passaggio da scarsità a sovrabbondanza di informazioni 
  4. cambiamento dal primato del soggetto al primato delle interazioni. 

Queste trasformazioni richiedono una rivalutazione dei concetti fondamentali come privacy, responsabilità e proprietà, poiché le nostre interazioni e identità sono sempre più mediate dalle tecnologie” (cfr. “The Onlife Manifesto” – Prof. Luciano Floridi).

Anche per poter comprendere, prevenire e limitare quanto più possibile gli effetti criminali, occorrerà tener conto della nuova condizione esistenziale in cui le tecnologie non sono semplici strumenti, ma forze ambientali che modellano la nostra esperienza e il nostro modo di essere nel mondo.

Gli autori

Veronica M. Pruinelli svolge la funzione di Avvocato nella giurisdizione italiana e è abilitata altresì al patrocinio avanti la Corte di Cassazione e le altre Giurisdizioni Superiori. L’Avvocato Veronica M. Pruinelli ha maturato una pluriennale esperienza nel settore del Diritto Civile e Commerciale anche a livello internazionale, nonché nel settore dell’Innovazione Etica e dello Sviluppo Sostenibile. Si occupa da anni di sostenere le PMI (Piccole Medie Imprese) con particolare focus al passaggio generazionale e ai processi di internazionalizzazione e le Startup per l’avvio dell’attività e l’affiancamento sin dalle prime fasi strategiche. Si occupa altresì di formazione ed educazione anche nell’ambito di Progetti Internazionali. Da tempo si dedica alla sensibilizzazione sui temi dell’utilizzo etico e consapevole delle nuove tecnologie, e in particolare, dei sistemi di intelligenza artificiale, del rispetto dei diritti umani e delle libertà fondamentali, anche per i bambini, sin dall’infanzia, per una Comunità Educante e inclusiva, che possa contribuire al raggiungimento di un’uguaglianza sostanziale e ad una responsabilità condivisa nell’Era Digitale, in adempimento dei doveri inderogabili di solidarietà politica, economica e sociale richiesti anche a livello costituzionale. (artt. 2 e 3, comma II della Cost.)

Erik Pietro Sganzerla è Professore Associato di Neurochirurgia dell’Università Milano-Bicocca, Membro del Consiglio di Amministrazione della Fondazione IRCCS San Gerardo dei Tintori di Monza. Già Direttore della Clinica Neurochirurgica e della Scuola di Specializzazione in Neurochirurgia dell'Università̀ Milano-Bicocca e Presidente del Collegio dei Primari dell’Asst-Monza. Laureato in Medicina e Chirurgia e diplomato in anestesia e rianimazione e in neurochirurgia presso l’Università̀ Statale di Milano. Ha al suo attivo pubblicazioni su riviste nazionali e internazionali su argomenti di neurochirurgia clinica e sperimentale. È autore del libro “Malattia e morte di Giacomo Leopardi - Osservazioni critiche e nuova interpretazione diagnostica con documenti inediti”. Partecipa agli Studi sul rapporto tra Mente e Innovazione in collaborazione con l’Avv. Veronica M. Pruinelli.

Le notizie più lette

#1
Password manager: cos'è, come funziona, a cosa serve

Hardware

Password manager: cos'è, come funziona, a cosa serve

#2
GamesAndMovies.it a rischio chiusura, che fine fanno i preordini?

Videogioco

GamesAndMovies.it a rischio chiusura, che fine fanno i preordini?

#3
L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero.

Business

L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero.

#4
Brutte notizie per PS6 e Nintendo Switch 2
5

Videogioco

Brutte notizie per PS6 e Nintendo Switch 2

#5
Micron 9650 diventa il primo SSD PCIe 6.0 prodotto in massa
5

Hardware

Micron 9650 diventa il primo SSD PCIe 6.0 prodotto in massa

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero.

Business

L’AI non sostituirà gli sviluppatori. Renderà evidente chi lo è davvero.

Di Davide De Sio
"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

Business

"Riassumi con AI", la funzione che permette alle aziende di manipolare i chatbot

Di Antonino Caffo
La tesoreria attiva: il nuovo paradigma della finanza aziendale

Sponsorizzato

La tesoreria attiva: il nuovo paradigma della finanza aziendale

Di Valerio Porcu
Nuova era dell'AI: cosa aspetta i dirigenti IT
1

Business

Nuova era dell'AI: cosa aspetta i dirigenti IT

Di Antonino Caffo
Come usare l'AI per migliorare il customer care

Business

Come usare l'AI per migliorare il customer care

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.