Microsoft dice addio all'IA che riconosce le emozioni

Microsoft sta ridefinendo le procedure di sviluppo delle intelligenze artificiali all'insegna della responsabilità e dell'etica.

Avatar di Marco Doria

a cura di Marco Doria

Microsoft ha deciso di rivedere a fondo le proprie normative etiche sull'uso delle intelligenze artificiali, come indicato sul proprio blog ufficiale, nell'ottica della definizione di un vero e proprio framework alla base di uno sviluppo responsabile dei sistemi di IA.

In seno a questa decisione, l'azienda ha optato anche per il ritiro di diversi strumenti di analisi dei volti basati sull'intelligenza artificiale, fra cui uno, in particolare, in grado di individuare le emozioni di un soggetto tramite l'analisi di video e immagini. In particolare, gli esperti hanno criticato gli strumenti di riconoscimento delle emozioni, giudicando poco scientifica la comparazione delle manifestazioni esterne rispetto agli stati motivi interni, sottolineando come le espressioni facciali varino in base alle popolazioni e alle culture di riferimento.

Pertanto, Microsoft ha deciso di limitare l'accesso a determinate funzioni, come dichiarato sulle note per la trasparenza da essa pubblicate. In particolare, la decisione riguarda i servizi Azure Face per il riconoscimento facciale, mentre altri servizi saranno rimossi totalmente. La decisione non riguarderà servizi considerati innocui o utili, come la sfocatura automatica dei volti in immagini e video per motivi di privacy. Questi ultimi servizi resteranno fruibili in modo aperto.

In particolare, viene rimossa una funzionalità alquanto controversa di Azure Face, ovvero quella relativa al riconoscimento di attributi come genere, età, sorriso, barba/baffi, capelli e trucco. Microsoft non offre più tali funzioni ai propri clienti già dal 21 giugno, mentre ai clienti esistenti verranno revocati gli accessi il 30 giugno dell'anno prossimo.

Mentre l'accesso pubblico è stato revocato e il processo continuerà fino al 2023, Microsoft continuerò a usare alcune di queste funzioni in alcuni prodotti, fra cui Seeing AI, un'app che sfrutta la visione automatica per descrivere ciò che circonda le persone ipovedenti e non vedenti.

Non è la prima volta che uno strumento IA atto a riconoscere le emozioni è stato al centro di controversie, ricordiamo, ad esempio, il progetto di Intel e Classroom Technologies per il riconoscimento degli stati emotivi degli studenti, le cui criticità sono state messe in evidenza anche da Protocol. Vi rimandiamo alla lettura dell'articolo in questione per ulteriori dettagli.