Il caso che ha coinvolto Microsoft Copilot e la polizia britannica nelle scorse settimane rappresenta uno degli episodi più emblematici dei rischi legati all'adozione acritica dell'intelligenza artificiale nelle istituzioni pubbliche. L'incidente, che ha portato al blocco di centinaia di tifosi in seguito a un rapporto generato dall'assistente AI di Microsoft, solleva interrogativi cruciali sull'affidabilità dei sistemi di intelligenza artificiale quando vengono impiegati per decisioni che impattano direttamente sui diritti dei cittadini. La vicenda assume particolare rilevanza nel contesto europeo, dove le normative sull'AI Act stanno cercando di stabilire guardrail proprio per prevenire situazioni simili.
La West Midlands Police ha utilizzato Microsoft Copilot per generare un rapporto di intelligence che si è rivelato completamente inventato. Lo strumento ha prodotto informazioni su una partita di calcio inesistente tra West Ham e Maccabi Tel Aviv, classificandola come evento ad "alto rischio" per l'ordine pubblico. Sulla base di questi dati fasulli, le forze dell'ordine britanniche hanno impedito ai tifosi del Maccabi Tel Aviv di assistere alla partita di UEFA Europa League contro l'Aston Villa il 6 novembre scorso, scatenando polemiche che hanno raggiunto persino il Primo Ministro Keir Starmer.
Il capo della polizia Craig Guildford aveva inizialmente negato l'utilizzo di sistemi di intelligenza artificiale, attribuendo l'errore a problemi di "scraping dei social media". Solo successivamente, durante un'audizione parlamentare, ha ammesso la verità: "Venerdì pomeriggio sono venuto a conoscenza che il risultato erroneo riguardante la partita West Ham contro Maccabi Tel Aviv è emerso come risultato dell'uso di Microsoft Copilot". Guildford si è poi scusato per aver fornito informazioni fuorvianti alla commissione parlamentare, spiegando che la sua convinzione iniziale era stata "onestamente sostenuta" ma errata.
La risposta di Microsoft alla controversia è stata quanto meno difensiva. Un portavoce dell'azienda di Redmond ha dichiarato a Business Insider che Copilot combina informazioni da molteplici fonti web in un'unica risposta con citazioni linkate, informando gli utenti che stanno interagendo con un sistema AI e incoraggiandoli a verificare le fonti. L'azienda sottolinea che all'avvio dello strumento viene chiaramente indicato che "Copilot può commettere errori", un disclaimer che ora appare insufficiente di fronte alle conseguenze concrete di questa allucinazione dell'AI.
L'incidente mette in luce una problematica sistemica nell'implementazione dei large language model in contesti operativi critici. Sin dal lancio di ChatGPT nel novembre 2022, Microsoft ha investito miliardi di dollari in OpenAI e ha rapidamente integrato la tecnologia nel proprio ecosistema, lanciando Copilot (inizialmente chiamato Bing Chat) per competere con l'offerta di OpenAI. Tuttavia, nonostante gli sforzi per migliorare le capacità dello strumento, episodi di allucinazione e risposte errate continuano a verificarsi con preoccupante frequenza.
Il fenomeno delle allucinazioni nei sistemi di intelligenza artificiale generativa non è nuovo agli esperti del settore, ma questo caso dimostra come l'adozione prematura di questi strumenti da parte di istituzioni pubbliche possa avere ripercussioni dirette sui diritti civili. La polizia britannica ha utilizzato output non verificati di un LLM per giustificare misure restrittive, violando di fatto il principio basilare secondo cui le decisioni operative dovrebbero basarsi su intelligence verificata e accurata.
La questione pone interrogativi fondamentali sulla responsabilità quando sistemi AI vengono impiegati in processi decisionali critici. Microsoft continua a sviluppare e promuovere Copilot come strumento di produttività integrato in tutto il suo stack tecnologico, da Windows 11 a Microsoft 365, ma casi come questo evidenziano la necessità di maggiore cautela e di protocolli di verifica più rigorosi, specialmente quando l'AI viene utilizzata per informare decisioni che impattano direttamente sui cittadini.