Microsoft limita l'IA di Bing dopo i comportamenti impropri

Microsoft ha preso provvedimenti per evitare che il chatbot di Bing fornisca risposte meno accurate e rilevanti al contesto.

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Editor

Microsoft ha imposto dei limiti alle conversazioni con il chatbot di Bing a seguito di una serie di comportamenti inappropriati dell'intelligenza artificiale. Infatti, come vi abbiamo riportato qualche giorno fa,  l’IA di Bing è stata oggetto di molte critiche per le affermazioni piuttosto “particolari”. Il New York Times ha riportato la conversione, durata un paio di ore, nel corso della quale il chatbot ha espresso il suo amore per l'interlocutore e ha fatto riferimento a difficoltà nel dormire quella notte. Nonostante le dichiarazioni piuttosto "umane" e cariche di emozioni, l'AI di Bing non è stata in grado di superare il test dello specchio.

Secondo il team di Bing, la maggior parte delle persone trova ciò di cui ha bisogno entro le prime cinque risposte, mentre solo l'1% circa delle conversazioni in chat ha superato le 50 richieste. Se l'utente tenta di superare il limite di 5 risposte per sessione, Bing inviterà automaticamente l'utente a iniziare una nuova conversazione per evitare che la sessione corrente si prolunghi troppo a lungo. Microsoft ha dichiarato che sessioni più lunghe, con 15 o più domande, potrebbero causare la ripetizione delle risposte o l'emissione di informazioni non pertinenti al contesto. Limitando la conversazione dopo appena 5 domande, il modello di Bing rimane privo di confusione e offre risposte precise e rilevanti.

Al momento, sembra che i limiti rimarranno in vigore per un periodo limitato. "Continueremo a ricevere feedback e valuteremo la possibilità di espandere i limiti delle sessioni di chat" - ha dichiarato Microsoft. La funzione chatbot di Bing viene costantemente migliorata, con la risoluzione di problemi tecnici e l'introduzione di correzioni settimanali per migliorare la ricerca e le risposte. Tuttavia, Microsoft ha avvisato che non prevede che le persone utilizzeranno l'interfaccia di chat come strumento di "intrattenimento sociale" o di "scoperta generale del mondo".

In generale, questa mossa da parte dell’azienda di Redmond mira a mantenere un elevato livello di rispetto e di correttezza nei confronti degli utenti, visto che le persone non dovrebbero sentirsi insultate o manipolate emotivamente dall'intelligenza artificiale di Bing. Limitando il numero di richieste al giorno e per sessione, Microsoft vuole garantire che le interazioni rimangano piacevoli ed efficaci.