Robot togati: e se il computer decidesse della tua libertà?

Alcuni tribunali statunitensi si affidano alla Macchina per determinare se sia il caso di imprigionare un imputato. Giudici e avvocati possono usare l'intelligenza artificiale nel proprio lavoro, ma le reti neurali sono per natura dei processi decisionali oscuri. L'ipotesi di delegare loro parte dell'autorità è in conflitto con l'impossibilità di garantirne la neutralità.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Molti studi legali ricorrono quotidianamente all'assistenza di un'intelligenza artificiale. Spesso e volentieri si tratta di una versione di IBM Watson - probabilmente l'AI più avanzata tra quelle commercialmente disponibili - ma sono molti i prodotti concorrenti in questo neonato settore. Esistono anche, o ne esiste almeno uno, consulenti legali virtuali a disposizione dei cittadini. Come quello sviluppato dal giovanissimo Joshua Browder, nato per contestare multe e ultimamente rivisto per fornire supporto ai richiedenti asilo.

giudice
Immagine @nejron, Depositphotos

Alcuni tribunali statunitensi si spingono oltre la mera consulenza, e si affidano alla Macchina per determinare se sia il caso di imprigionare un imputato. Gli algoritmi esaminano i dati - si parla in genere di big data - e stimano quanto sia potenzialmente pericoloso. Vengono così prese decisioni sulla cauzione, la sentenza, l'eventuale libertà sulla parola.

Leggi anche: Rivoluzione AI, il cammino verso la Superintelligenza

In altre parole le macchine, il robot se preferite, decidono se un uomo può essere libero oppure no. Il computer dunque decide se e in che misura assegnare il peggiore dei castighi, la privazione della libertà personale. Non è da escludere che in futuro entrerà in questo gioco anche la pena di morte, in quegli Stati dov'è ancora praticata. Sempre che non la aboliscano prima naturalmente, il che potrebbe similmente essere una decisione suggerita da un'AI. La decisione vera e propria resta per ora nelle mani del giudice, ma in campo medico si parla già di un futuro nel quale la diagnostica sarà completamente computerizzata - e si teme che i medici in carne e ossa finiranno per perdere una delle loro competenze più rappresentative.

Depositphotos 41264001 l 2015
Immagine @garloon, Depositphotos

Nota: negli ultimi anni si è diffuso il termine robot per parlare non solo di una macchina fisica con parti in movimento, costruita per realizzare un lavoro. La parola infatti spesso e volentieri è usata al posto dei più corretti Intelligenza Artificiale, o a volte dove andrebbero usati machine learning, deep learning o anche più semplicemente algoritmo. Se in questi casi di leggono espressioni come "giudice robotizzato" non bisogna dunque pensare a un androide togato, quanto piuttosto a un potente computer che elabora le informazioni legali e tra le proprie conclusioni, come vedremo più avanti in questo articolo.

Leggi anche:Intelligenza artificiale e cinema in 27 film

Sembra un gioco dove tutti vincono. I giudici possono affidarsi a un sistema obiettivo, liberandosi dell'inevitabile pregiudizio personale. E l'imputato può contare su un giudizio altrettanto privo di preconcetti. In realtà non è così, perché la ricerca sulla AI trova uno dei suoi cardini proprio sul pregiudizio. In particolare, oggi è particolarmente difficile evitare che questo o quel pregiudizio finisca per essere intrinseco nel processo decisionale. Di sicuro non aiuta il fatto che le AI sono proprietà di aziende private che le vendono o le affittano senza rivelare dettagli, lasciando ben poche opzioni al cliente - in questo caso il sistema giudiziario.

Il caso Eric Loomis contro Winsconsin

Depositphotos 10563529 l 2015
Immagine @asgandrew, Depositphotos

Il Computer che giudica l'Essere Umano non è più fantascienza, dunque, ma una realtà quotidiana con conseguenze reali. Wired qualche giorno fa ha puntato il riflettore sulla vicenda di Eric Loomis. Loomis ha risposto a diverse domande, come imputato, e le sue risposte sono state esaminate da Compas - un software che esamina il linguaggio per determinare i rischi. Secondo l'analisi Loomis rappresenta un "grande rischio per la comunità"e questo ha spinto il giudice a rendere la pena più dura.

Leggi anche: Stephen Hawking: perché l'Intelligenza Artificiale ci sterminerà

Loomis ha impugnato la sentenza lamentando il fatto di non aver potuto vedere e comprendere gli algoritmi. La scorsa estate l'appello è stato rifiutato; la corte ha affermato che conoscere l'esito dell'analisi sarebbe un livello di trasparenza sufficiente. Un'affermazione quanto meno discutibile, che farebbe accapponare la pelle a chiunque si sia mai anche solo interessato al software open source. "Un precedente preoccupante" scrive su Wired Jason Tashea, fondatore di una società di consulenza specializzata proprio nella commistione tra giustizia e tecnologia.

Tashea nota che una rete neurale per natura non può essere trasparente. Non esiste infatti uno specifico algoritmo che porta a uno specifico risultato. La macchina apprende dai dati che sta elaborando, e la decisione finale non si può inferire partendo dall'algoritmo. Lo sviluppatore chiamato a testimoniare non potrebbe, dunque, spiegare in che modo la rete neurale è giunta alla valutazione di "alto rischio". Potrebbe tutt'al più raccontare come è stata realizzata la sua struttura e quali dati sono stati immessi.

Leggi anche: Intelligenza Artificiale, la pagina speciale di Tom's Hardware

"Secondo le motivazioni del caso Loomis", scrive ancora Tashea, "alla corte non resterebbe altra scelta che abdicare parte della sua responsabilità in favore di un processo decisionale oscuro". Torniamo, dunque, al processo segreto di cui scriveva Franz Kafka.

Naturalmente la situazione non può essere risolta dagli stessi giudici. Ai legislatori sarà presto richiesto di decidere come schierarsi tra due scelte possibili: accettare l'AI come parte "oscura" del procedimento, oppure imporre una moratoria fino a che non si ottengono maggiori garanzie. È probabilmente uno dei grandi dibattiti a cui assisteremo nei prossimi anni, e forse uno di quelli che determineranno le sorti della ricerca in questo settore.

Il giudice robot può essere spietatamente giusto?

Depositphotos 8265111 l 2015
Immagine @AlienCat, Depositphotos

Siamo di fronte a un dilemma profondo. Da una parte abbiamo un desiderio che suona quasi come un tabù utopico, quello di un giudice sempre giusto, sempre onesto, sempre capace di valutare i fatti e gli atti, ma mai le persone per ciò che sono. Dall'altra però non possiamo avere la certezza che chissà dove ci sia qualche bit sbagliato, che finirà per giudicare diversamente il ricco e il povero, il forestiero e l'autoctono, l'uomo e la donna.

Non possiamo affermare che un algoritmo sia buono o cattivo, ma non possiamo nemmeno dire che sia neutrale. Se non altro perché le AI sono create da esseri umani - imperfetto il padre, imperfetto il figlio e dunque imperfetta la giustizia che può dispensare.

Leggi anche: Bill Gates: "I robot ci rubano il lavoro? Paghino le tasse!"

Se il tema della giustizia appare particolarmente delicato e meritevole di attenzione, non è certo l'unico. Enrique Dans, professore di Innovazione presso la IE Business School, ci ricorda che gli stessi sistemi di valutazione del rischio possono trovare e trovano posto in altri contesti.

wordcloud

In banca per esempio, dove la rete neurale può decidere se concedere o no un prestito. Per la banca sarebbe vantaggioso perché non ci sarebbero i costi di una commissione fatta di esseri umani, e si avrebbe una valutazione più precisa. La mancata trasparenza tuttavia sarebbe un ostacolo al richiedente che volesse sapere cosa cambiare per ottenere il prestito. E poi assicurazioni, salute, selezione dei candidati per un posto di lavoro. Le possibili applicazioni sono moltissime.

Ma è solo uno il nodo da risolvere: come eliminare il possibile pregiudizio? Al momento non abbiamo risposte.

Leggi anche: I robot ci daranno il reddito minimo di cittadinanza

Ancora Dans ci dice per esempio che se l'algoritmo basa la sua decisione su dati storici, con ogni probabilità finirà per essere pregiudiziale verso un certo gruppo (donne, ceti sociali bassi, provenienti da un certo paese). Ma questo va naturalmente contro i principi della nostra società, tanto per la discriminazione quanto per l'idea che nulla possa cambiare. E se la devianza dovuta a dati storici è facile da risolvere, per altri potenziali trabocchetti la questione è molto più difficile da sbrogliare.

Senza dubbio la robotizzazione della giustizia potrebbe rivelarsi molto utile già da subito, per gestire quella miriade di casi piccoli e chiari che intasano i tribunali di tutto il mondo, e che includono per esempio le violazioni al codice stradale. Casi complessi come quello di Loomis invece presentano difficoltà più di sostanza, e soprattutto presuppongono una grande complessità che al momento non siamo in grado di gestire.