Microsoft contro la polizia, niente IA per il riconoscimento facciale

Microsoft ha recentemente vietato alla polizia degli Stati Uniti di utilizzare l'intelligenza artificiale generativa per il riconoscimento facciale

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Microsoft ha recentemente vietato ai dipartimenti di polizia degli Stati Uniti di utilizzare l'intelligenza artificiale generativa per il riconoscimento facciale tramite Azure OpenAI Service.

Questo servizio, che rappresenta un'implementazione completamente gestita e orientata all'azienda della tecnologia di OpenAI, ha visto l'aggiunta di nuove restrizioni ai suoi termini di servizio.

Il nuovo aggiornamento vieta esplicitamente l'utilizzo del servizio da parte della polizia statunitense per il riconoscimento facciale, inclusi sia gli attuali che i futuri modelli di analisi delle immagini offerti da OpenAI.

Inoltre, i nuovi termini vietano l'uso della tecnologia di riconoscimento facciale in tempo reale su telecamere mobili, come quelle corporee e le dashcam, per identificare persone in ambienti non controllati.

Questi cambiamenti arrivano poco dopo l'annuncio da parte di Axon, un produttore di tecnologie e armi per le forze dell'ordine, di un nuovo prodotto che sfrutta il modello GPT-4 di OpenAI per riassumere l'audio registrato dalle telecamere.

Tale annuncio ha suscitato preoccupazioni riguardo ai potenziali rischi, come le allucinazioni generate dai modelli di AI e i pregiudizi razziali introdotti dai dati di addestramento.

Nonostante questi aggiornamenti, la politica di Microsoft lascia spazio per interpretazioni flessibili. Il divieto sull'utilizzo di Azure OpenAI Service si applica esclusivamente alla polizia degli Stati Uniti e non copre il riconoscimento facciale eseguito con telecamere fisse in ambienti controllati.

Questo approccio è in linea con la recente strategia di Microsoft, e del suo partner OpenAI, nei confronti dei contratti con la polizia e gli enti di difesa correlati all'IA.

Microsoft ha promosso l'utilizzo di OpenAI Service per scopi governativi, inclusi quelli delle forze dell'ordine, la collaborazione con il Pentagono e altri progetti governativi, ma sta anche cercando di bilanciare le esigenze di sicurezza con le preoccupazioni etiche e sociali.

Infine, va notato che dopo la pubblicazione dell'aggiornamento, Microsoft ha precisato che il divieto si applica solo al riconoscimento facciale negli Stati Uniti e non rappresenta un divieto totale sull'uso del servizio da parte dei dipartimenti di polizia. Questo chiarimento suggerisce che l'azienda potrebbe essere aperta a ulteriori discussioni e negoziati su questo tema sensibile.