L’intelligenza Artificiale viene usata in molti ambiti per gestire procedure semplici e ripetitive, e questo a volte significa anche prendere decisioni cruciali per la nostra vita. Se chiediamo un prestito o un rimborso all’assicurazione, molto probabilmente un algoritmo influirà sulla risposta che avremo - e a volte si tratterà esclusivamente di un algoritmo.
Questi sistemi vengono usati anche in Europa e in Italia, e il fenomeno non fa che crescere in ogni direzione. E dunque, pur considerando le differenze normative, vale la pena considerare con attenzione un recente caso verificatosi negli Stati Uniti.
Tutto nasce da una realtà tanto semplice quanto inevitabile: le IA ogni tanto sbagliano: è successo alla società UnitedHealthcare, una delle assicurazioni convenzionate più grandi degli Stati Uniti. Due pazienti (almeno) hanno così presentato denuncia per essersi visti negare il pagamento per le richieste di assistenza. Una denuncia resa più solida da un rapporto del Ministero della Salute, secondo cui le richieste gestite tramite i software vengono respinte più spesso rispetto a quelle gestite da esseri umani.
Si potrebbe pensare che l’algoritmo applichi i criteri di decisione in modo diverso, forse anche più preciso rispetto agli operatori umani. Ma secondo i querelanti UnitedHealthcare ha impiegato illegalmente un sistema di intelligenza artificiale con un tasso di errore del 90%. Il sistema avrebbe impropriamente scavalcato le raccomandazioni dei medici in merito alle cure necessarie.
La questione è particolarmente delicata in sistemi, come quello statunitense, appunto, dove la sanità è affidata a una rete di enti privati che - di fatto - possono scegliere chi ha diritto alle cure. Nel caso specifico, i sistemi IA vengono accusati di aver messo a rischio la vita di due pazienti anziani, negando loro le cure necessarie dopo un intervento chirurgico.
Punto del contendere è un modello chiamato nH Predict, che non sarebbe in grado fornire le giuste raccomandazioni per ogni cliente, limitandosi a indicazioni generiche e orientate al massimo risparmio per le casse dell’assicurazione. La società, poi, avrebbe avrebbe istruito i propri dipendenti a non discostarsi dalle previsioni del modello. Dunque, se anche ci fosse un essere umano in grado capire che una decisione è sbagliata, non è molto utile se quella persona non ha il potere di cambiare la decisione stessa.
Secondo la denuncia, quando le cose arrivano sui tavoli di giudici e avvocati, il 90% delle decisioni di nH Predict viene annullato.
"Questo dimostra la palese imprecisione del modello di intelligenza artificiale nH Predict e la mancanza di revisione umana nel processo di negazione della copertura", si legge nella denuncia, che aggiunge che le decisioni di nH Predict non vengono comunicate ai medici dei pazienti e che quando vengono fatte richieste di informazioni, i dipendenti di UnitedHealthcare negano le loro richieste e sostengono che le informazioni sulle decisioni sono proprietarie.