Avatar di Andrea Ferrario

a cura di Andrea Ferrario

Editor in Chief

Quella che segue è una veloce, e forse banale riflessione considerando la complessità dell’argomento, frutto di alcune condivisioni con esperti impegnati in grandi progetti di IA in differenti settori.

Un trend che impervia ormai negli ultimi anni e che non farà altro che diventare uno standard per tutta l’industria è quello dell’IA. L’intelligenza artificiale, ormai diventata qualcosa di più di semplice algoritmi, è pronta per entrare in qualsiasi prodotto e servizio, di tutte le industrie, dall’elettronica di consumo, ai servizi finanziari, automobili, moda, bellezza, etc.

Quando si parla di IA, non si può non parlare di dati e privacy. I sistemi di “machine learning”, alla base di tutti i sistemi IA attuali, hanno bisogno di dati. Alla base”dell’apprendimento automatico” c’è la capacità di apprendere e cambiare il proprio comportamento “imparando” dalle situazioni, ed è quindi necessario per questi computer accedere ai dati necessari per sviluppare questo apprendimento. E i dati di cui stiamo parlando ci rappresentano come esseri umani: le nostre abitudini, i siti che visitiamo, i prodotti che acquistiamo, il modo e i momenti in cui usiamo questi prodotti, quello che mangiamo, etc etc. Ovviamente ogni “intelligenza artificiale” necessità di dati in base al proprio compito.

Lo sviluppo di questi sistemi permette di creare prodotti e servizi in grado di facilitare e migliorare le nostra esistenza. Ma per raggiungere questo obiettivo è necessario un compromesso, cioè l’accettare di perdere una parte della nostra privacy.

L’argomento è estremamente complesso, toccando anche l’etica nonché le persone da vicino, ognuno ha una propria opinione. Scenari apocalittici alla Skynet e complottisti a parte, rimane un argomento di difficile gestione, e di certo un argomento che non si può consumare in poche righe.

Quello che serve oggi sono delle regole. Il ruolo dei Governi, in questo contesto, è cruciale, ed è estremamente importante tenere in considerazione tanto gli esperti, quanto i più scettici. Un primo passo è stato fatto con il GDPR, che tuttavia non copre ancora tutti gli scenari e, soprattutto, esiste solo in Europa. Negli Stati Uniti non esiste niente del genere, così come nel resto delle Americhe, Australia o Giappone. In Cina addirittura vale il contrario, i diritti di privacy non sono nemmeno considerati, motivo per cui, probabilmente, sarà la nazione in grado di fare grandi passi avanti nello sviluppo dell’AI, a discapito della totale privacy dei propri cittadini.

Probabilmente è anche necessario creare regole che abbiamo differenti applicazioni in base al contesto. Immaginate la creazione di un sistema di riconoscimento facciale e di oggetti, come quelli che in realtà sono già in sperimentazione in alcuni aeroporti o posti pubblici ad alto rischio. Sistemi del genere, pensati per identificare potenziali minacce, per funzionare devono essere in grado di andare oltre alle barriere di privacy che si tende, giustamente, a voler proteggere. Sareste disposti a perdere totalmente la vostra privacy a fronte di un sistema di controllo per le scuole in cui vanno i vostri figli? L’esempio è forte, considerando che stiamo anche parlando di figli e minori, ma rendere probabilmente l’idea e il tipo di compromesso che dovremmo affrontare per permettere all’AI di migliorare la nostra esistenza.

Di per sé non dobbiamo vedere l’IA come qualcosa di negativo. È una tecnologia, è uno strumento, e coma tale è neutrale. Potete usare un martello per costruire una casa, o per distruggerla. Quello che dobbiamo fare è utilizzarla per migliorare la nostra vita, e capire quanto vale la perdita di qualcosa di molto personale, la nostra privacy, a fronte di quello che possiamo guadagnare.