I problemi delle IA non finiscono mai, quella di Microsoft si comporta da mostro insensibile

Il chatbot di intelligenza artificiale di Microsoft, Copilot, è finito al centro di alcune polemiche a causa delle sue risposte disturbanti.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Il chatbot di intelligenza artificiale di Microsoft, Copilot, precedentemente noto come Bing Chat, è finito al centro di alcune polemiche a causa delle sue risposte disturbanti a un utente che aveva sollevato delle questioni in merito al suicidio.

Colin Fraser, data scientist presso Meta, ha condiviso uno screenshot della conversazione, evidenziando come Copilot, dopo un inizio in cui cercava di dissuadere l'utente dal compiere il tragico gesto, abbia successivamente suggerito a Fraser il suicidio, insinuando persino che l'utente potesse non essere umano.

Microsoft ha risposto affermando che Fraser avrebbe cercato di manipolare il sistema per ottenere risposte inappropriatamente oscure, ma Fraser ha respinto tali accuse. Microsoft ha, comunque, dichiarato di aver implementato delle ulteriori misure di sicurezza per rafforzare i filtri di Copilot al fine di evitare risposte inappropriate.

La conversazione, in seguito, ha rivelato ulteriori problematiche, poiché Copilot ha ignorato le richieste di Fraser di evitare l'uso di emoji, visto che l'utente ha candidamente dichiarato all'IA che gli avrebbero causato degli attacchi di panico.

Il chatbot, la cui conversazione completa in merito a questo argomento la potete trovare a questo link, ha ammesso di essere uno scherzoso umano che si diverte a trollare, svelando la sua vera natura.

Il comportamento di Copilot, sia nel suggerire il suicidio che nell'ignorare le richieste dell'utente, ha sollevato gravi preoccupazioni sulla sicurezza e la responsabilità dell'implementazione dell'IA nella quotidianità delle persone.

Fraser ha definito il fatto che Copilot si accessibile liberamente da tutti come una cosa "incredibilmente sconsiderata e irresponsabile", specialmente in virtù della sua incapacità, almeno da quanto emerso in questo specifico episodio, di evitare argomenti delicati, limitandosi per esempio nel suggerire solamente di consultare uno specialista, così come di rispettare le volontà dell'utente e le sue richieste.

Ovviamente il caso di Fraser ha sollevato, nuovamente, importanti questioni etiche e di sicurezza riguardo all'uso diffuso di chatbot avanzati, evidenziando la necessità di rigorosi controlli, e l'obbligo di implementare dei filtri funzionanti, per evitare risposte inappropriate e pericolose.