Nel dibattito globale contemporaneo, mentre i governi rafforzano confini territoriali e infrastrutture materiali, un fronte più fragile e meno visibile rimane drammaticamente esposto: i confini cognitivi dei cittadini. La Dr.ssa Cristina Di Silvio definisce i diritti umani come “l’ultimo muro prima del caos”, un diritto che non riguarda l'accesso a un contenuto predeterminato come "vero", bensì a processi epistemici trasparenti: tracciabilità delle fonti, esplicitazione delle logiche algoritmiche e contestualizzazione delle informazioni. Non soltanto una tutela giuridica, quindi, ma una infrastruttura cognitiva essenziale contro l’erosione sistemica della capacità di giudizio individuale.
In parallelo, la ricerca del Dr Fabrizio Degni sull’atrofia cognitiva indotta dall’intelligenza artificiale individua un fenomeno sempre più diffuso: la stupidità funzionale. Non un deficit individuale, bensì un output sistemico di ambienti digitali progettati per ottimizzare engagement, velocità decisionale e conformità algoritmica, riducendo progressivamente autonomia critica, attenzione sostenuta e capacità di verifica. La delegazione passiva alla tecnologia, dai feed personalizzati agli aggregatori di notizie, fino ai sistemi di supporto decisionale, produce forme di addomesticamento cognitivo misurabili attraverso indicatori quali riduzione della ”information entropy” (esposizione a una varietà sempre minore di concetti imprevisti), aumento della dipendenza da segnali algoritmici (perdita della capacità di navigare le informazioni senza una “guida automatizzata”) e amplificazione dei bias cognitivi preesistenti perché l’IA non solo riflette i nostri pregiudizi, ma li cristallizza in loop di feedback che rendono il pensiero alternativo “cognitivamente costoso”. La perdita di sovranità cognitiva non è un effetto collaterale della tecnologia: è una variabile di design non dichiarata.
L'efficienza a tutti i costi ha creato un'ecologia mentale in cui pensare è diventato inefficiente.
In questo contesto si inserisce il concetto di friction-positive design, sostenuto da Di Silvio come strumento di resilienza cognitiva. L’introduzione deliberata di attriti cognitivi nei flussi informativi — pause, richieste di confronto tra fonti, rallentamenti decisionali — non limita l’utente, ma ne riattiva il ruolo epistemico: invece di fornire una risposta preconfezionata o pronta all’uso ("la soluzione"), l'IA dovrebbe essere progettata per favorire la riflessione e l’analisi, dubitando, interrogando: "hai considerato questa alternativa?" o "su quali dati basi questa premessa?".
Nei contesti di informazione sanitaria digitale, tali approcci mostrano effetti misurabili: incremento della comprensione informata, riduzione della diffusione di disinformazione e miglioramento della qualità decisionale. La tecnologia, così riprogettata, cessa di essere un vettore di omologazione e diventa un amplificatore di agency cognitiva. Va riconosciuto che l'introduzione di attriti cognitivi comporta trade-off inevitabili: in contesti ad alta criticità temporale (es. triage clinico d'emergenza), il rallentamento decisionale può risultare controproducente.
La sfida progettuale sta nel calibrare dinamicamente il livello di friction in base al contesto d'uso.
Elevare la libertà cognitiva a diritto umano fondamentale significa proteggere la società non solo da minacce fisiche o economiche, ma da attacchi silenziosi e sistemici alla mente.
Etica misurabile e governance dell’IA: dal principio all’architettura operativa
Nel dominio del commercio globale e della governance tecnologica, l’etica non può più restare una dichiarazione di intenti. Con l’entrata in vigore della Corporate Sustainability Due Diligence Directive (CSDDD) e il rafforzamento dei regimi sanzionatori transnazionali, la responsabilità aziendale diventa un vincolo strutturale. È in questo spazio che il Framework P.A.L.O. (Principled AI Lifecycle Orchestration), sviluppato da Fabrizio Degni, assume rilevanza strategica: P.A.L.O. fornisce un modello operativo completo per la gestione dell’intero ciclo di vita dei sistemi di intelligenza artificiale, dalla progettazione al deployment, fino al monitoraggio e all’audit continuo, traducendo i principi etici in metriche verificabili con l’obiettivo di andare oltre “la miopia del ROI” (Ritorno di Investimento) che spesso affligge le implementazioni tecnologiche, fornendo un modello per la gestione dell’intero ciclo di vita dei sistemi di IA, dalla progettazione al decommissioning.
Tra queste: “Demographic Parity Difference” ed “Equalized Odds” per la valutazione della fairness; “Human Oversight Rate” (HITL) per la supervisione umana strutturata; “Algorithmic Impact Variance” per l’analisi differenziale degli impatti su gruppi vulnerabili, ma anche “Explainability Score”, per misurare non solo se l'IA funziona, ma se le sue decisioni sono comprensibili agli stakeholder umani.
Il framework, inoltre, è in evoluzione, arricchito dal contributo sinergico di ricercatori, accademici e appassionati che ne alimentano lo sviluppo e ne ampliano le prospettive. Dal punto di vista geopolitico e normativo, la Dr.ssa Di Silvio evidenzia come tali strumenti trasformino l’etica da obbligo reattivo a diplomazia aziendale proattiva. L’allineamento con standard come ISO/IEC 42001 e IEEE 7010 consente alle imprese di integrare governance, reputazione e mitigazione del rischio in un’unica architettura decisionale.
Un’etica misurabile non rallenta l’innovazione: la rende sostenibile, scalabile e necessaria.
Casi di implementazione mostrano riduzioni significative delle segnalazioni di bias algoritmico, accompagnate da un aumento della fiducia di clienti e investitori, purché tali metriche siano soggette ad audit indipendente con potere sanzionatorio. Senza enforcement esterno, indicatori come l'“Explainability Score” rischiano di ridursi a box-ticking formale ("ethics washing"), come già osservato in alcuni framework di sostenibilità. L’etica, in questo paradigma, diventa vantaggio competitivo strutturale.
Conclusione: La sovranità cognitiva come infrastruttura critica globale
Nel paradigma delineato dalla Dr.ssa Cristina Di Silvio e dal Dr Fabrizio Degni, sovranità cognitiva ed etica dell’intelligenza artificiale cessano di essere domini separati e convergono in una stessa infrastruttura strategica globale. Di Silvio inquadra la libertà cognitiva come estensione necessaria dei diritti umani fondamentali, un presidio contro l’erosione sistemica del discernimento umano in ambienti digitali opachi. Degni, attraverso il Framework PALO, traduce questa visione in architetture operative, metriche e modelli di governance capaci di intervenire concretamente sui sistemi tecnologici.
Insieme, Di Silvio e Degni delineano un nuovo umanesimo digitale, in cui la tecnologia non sostituisce il giudizio umano, ma lo rafforza attraverso design cognitivo consapevole, supervisione strutturata e responsabilità algoritmica misurabile. In questa prospettiva, la sicurezza globale non è esclusivamente militare o economica, è cognitiva, etica e profondamente umana. Questa sicurezza cognitiva richiede inoltre un'estensione embodied: la protezione delle condizioni neuro-fisiologiche (sonno, stress metabolico, regolazione dopaminergica) che rendono possibile il discernimento.
Va infine riconosciuto che questa visione affonda le radici nel contesto normativo europeo non come limite, ma come posizionamento strategico in un mondo multipolare dove Cina, USA e Global South declinano la "sovranità cognitiva" secondo paradigmi profondamente diversi.
La sfida del XXI secolo non sarà soltanto difendere confini fisici o mercati, ma costruire sistemi tecnologici che preservino la capacità umana di analizzare, discernere e scegliere. La sovranità cognitiva emerge così come infrastruttura critica del futuro, e l’etica dell’IA come leva strategica del progresso.
È in questo spazio condiviso tra diritti umani, governance tecnologica e responsabilità aziendale che prende forma una nuova idea di sviluppo: misurabile, sostenibile e centrata sull’essere umano.