Il chatbot inventa un rimborso, cliente contento e la compagnia paga

Air Canada è stata obbligata a concedere un rimborso parziale a un passeggero che ha ricevuto informazioni fuorvianti dal chatbot della compagnia

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Air Canada è stata obbligata a concedere un rimborso parziale a un passeggero che ha ricevuto informazioni fuorvianti dall'assistente virtuale della compagnia aerea riguardo alla politica di viaggio in caso di lutto.

Jake Moffatt, nel giorno della morte della nonna, ha cercato di prenotare un volo da Vancouver a Toronto visitando il sito di Air Canada. Confuso sulle tariffe di viaggio in caso di lutto, Moffatt ha chiesto spiegazioni al chatbot della compagnia, che ha fornito informazioni errate, incoraggiando Moffatt a prenotare immediatamente un volo e richiedere un rimborso entro 90 giorni.

Tuttavia, la politica di Air Canada dichiara chiaramente che non sono previsti rimborsi per i viaggi in caso di lutto dopo la prenotazione.

Nonostante i tentativi di Moffatt di seguire il consiglio del chatbot, la richiesta di rimborso è stata respinta. Dopo mesi di contese, Moffatt ha rifiutato un coupon di $200 offerto dalla compagnia e ha presentato un reclamo presso il Civil Resolution Tribunal del Canada.

Air Canada ha cercato di eludere la responsabilità sostenendo che il chatbot è un'entità legale separata responsabile delle proprie azioni. Tuttavia, il tribunale ha giudicato la risposta "approssimativa" e ha stabilito che la compagnia non ha preso "ragionevoli precauzioni" per garantire l'accuratezza del suo assistente virtuale.

Il tribunale ha concluso che Moffatt aveva diritto a un rimborso parziale di 650,88 dollari canadesi (CAD), oltre a danni aggiuntivi per interessi e spese legali. Sebbene Air Canada abbia dichiarato di rispettare la decisione del tribunale, il caso solleva alcune questioni sulla responsabilità delle compagnie per le informazioni errate fornite dai loro assistenti virtuali.

Si ritiene che questo sia il primo caso in cui un'azienda, canadese o meno, ha cercato di sostenere legalmente di non essere responsabile per le informazioni fornite dal suo chatbot. 

Gli esperti ritengono che Air Canada avrebbe potuto evitare la responsabilità se il chatbot avesse avvisato il cliente dell'eventuale inaccuratezza delle informazioni fornite.

Nel frattempo, sembra che Air Canada abbia disattivato il suo chatbot, lanciato inizialmente come esperimento per gestire situazioni come ritardi o cancellazioni di voli, evidenziando ulteriormente quanto sia rischioso affidare pratiche del genere ai soli assistenti virtuali.