Parlando di specchi, nel Signore degli Anelli un particolare “specchio” si chiama Palantír: un antichissimo manufatto elfico di forma sferica, capace di mostrare visioni del passato, presente e futuro e darti l’illusione del controllo. Nella cosiddetta “Intelligent Age” il palantír non è una sfera di cristallo, ma è un dato. Piccolo, silenzioso, continuo. Un indirizzo stimato su una mappa, un battito cardiaco registrato, una vibrazione della gola.
Il dato come tema politico
Donald Trump e Peter Thiel insieme: da un lato il Presidente degli Stati Uniti, dall’altro uno dei più influenti imprenditori e investitori della Silicon Valley. Il loro legame politico-strategico è nato dal sostegno di Thiel a Trump nel 2016 e dall’incontro tra potere politico e visioni tecnologiche sul futuro dell’America. Foto di CNBC.
Se questo nome "Palantir" suona familiare anche a chi non è un appassionato del genere epico fantasy, è perché l’omonima azienda, fondata da Peter Thiel, è diventata simbolo del nuovo patto tra aziende tecnologiche e governo americano. Palantir sta lavorando a uno strumento per l’Immigration and Customs Enforcement (ICE) che consente di creare mappe con potenziali bersagli per l’espulsione tra gli immigrati irregolari.
L’AI in questo caso è una macchina che trasforma una quantità enorme di dati eterogenei in piste operative da seguire. L’algoritmo integra fonti diverse incluse, informazioni legate a programmi sanitari e assistenziali, le incrocia con dati geografici e logistici, trova pattern, assegna punteggi di probabilità, costruisce mappe dinamiche. In poche parole setaccia il territorio e prioritizza. Suggerisce dove guardare prima, dove andare prima, chi cercare prima. Ed è qui che scatta la domanda che dovrebbe farci sobbalzare sulla sedia: com’è possibile che dati raccolti per fini medici o sociali possano essere riutilizzati per obiettivi di repressione e controllo del territorio?
Critici e organizzazioni per i diritti civili sostengono che sistemi del genere finiscano per trasformare quartieri e città in una sorta di sorveglianza permanente. Un semplice e piccolo dato, sommato ad altri piccoli dati lasciati qua e là in uffici pubblici e assistenziali, diventano un tema politico e una frattura etica, un abuso di potere travestito da tecnologia all’avanguardia.
Dario Amodei ha recentemente scritto un saggio sul fatto che l’avvento di intelligenze artificiali molto potenti rappresenta una “adolescenza tecnologica” per l’umanità, con enormi benefici ma anche rischi profondi per la società, l’economia e la sicurezza. Amodei mette in guardia sull’incapacità delle istituzioni attuali di affrontare tali sfide e sull’urgenza di azioni responsabili e regolamentazione.
Il dato come strumento di consapevolezza
Prima dell'inizio del derby italiano tra Sinner e Darderi, l'arbitro di sedia Gregory Allensworth ha chiesto al numero 2 al mondo se indossasse un "Whoop" sotto il polsino e, ricevuta una risposta affermativa, ha chiesto di toglierlo.
Cambiamo completamente scena. Lasciamo i corridoi bui del potere e torniamo alla luce piena di un campo da tennis. Agli Australian Open, Jannik Sinner e Carlos Alcaraz scendono in campo con un piccolo oggetto al polso: un braccialetto Whoop. Piccolo, silenzioso, apparentemente innocuo. Eppure, nei tornei del Grande Slam, è vietato usarlo durante il match. Perché? Perché raccoglie dati.
In questo caso l’Intelligenza Artificiale lavora in modo molto diverso rispetto al caso Palantir. Non setaccia territori, non costruisce bersagli, non suggerisce interventi. Qui l’Intelligenza Artificiale fa da interprete del corpo umano: analizza frequenza cardiaca, variabilità, stress, qualità del sonno, recupero fisico, e trasforma numeri grezzi in indicatori leggibili. Lo specchio, in questo caso, non è puntato verso l’esterno ma verso l’interno. Il dato non serve a controllare qualcun altro, ma a conoscere se stessi.
Il dato come restituzione di umanità
Nei test su cinque pazienti con ictus e disartria, il sistema ha ottenuto un tasso di errore di parola del 4,2% e un tasso di errore di frase del 2,9%. Qui la news.
All’Università di Cambridge è stato sviluppato Revoice, un dispositivo pensato per persone che hanno perso la capacità di parlare a causa di un ictus. Qui il dato è ancora più piccolo, quasi invisibile: micro-vibrazioni dei muscoli della gola, segnali cardiaci, tracce fisiologiche che da sole non “dicono” nulla. È l’AI che fa il lavoro decisivo: riconosce pattern, interpreta l’intenzione, ricostruisce frasi usando probabilità linguistiche, contesto ed elementi emotivi stimati dai segnali corporei.
In questo caso l’Intelligenza Artificiale non ottimizza una performance né supporta una strategia politica. Fa qualcosa di molto più semplice e molto più radicale: restituisce una funzione umana fondamentale. Il dato diventa una protesi, un ponte tra ciò che una persona pensa e ciò che riesce a comunicare.
Sipario e Conclusioni
Alla fine, queste tre storie raccontano la stessa cosa da angolazioni opposte. Il dato è sempre lo stesso: piccolo, frammentario, apparentemente innocuo. Cambia il contesto, cambia l’intenzione, cambia il potere che gli affidiamo. Può diventare uno strumento politico che orienta il controllo, uno specchio interiore che aiuta a conoscersi meglio, o un ponte per restituire una voce, una relazione, una presenza nel mondo.
In questa “Intelligent Age” il vero discrimine non è l’AI in sé, ma l’uso che scegliamo di farne: se usarla per restringere il campo o per ampliare possibilità, autonomia e dignità. Il palantír, alla fine, non è pericoloso perché mostra troppo, ma perché ci illude che vedere basti.
Ascolti Podcast?
Allora ci vediamo, anzi, ci ascoltiamo su tutte le piattaforme audio con il nostro Podcast: Intelligenza Artificiale Spiegata Semplice.
E c'è anche Two Humans in The Loop, il podcast dove si parla di Intelligenza Artificiale e Umanità.