L'informalità nel dialogo con i chatbot potrebbe costare cara agli utenti, compromettendo la qualità delle risposte ricevute. Una ricerca condotta da Fulei Zhang e Zhou Yu di Amazon rivela che il modo in cui ci rivolgiamo agli assistenti virtuali basati su intelligenza artificiale influenza significativamente la loro capacità di comprensione, suggerendo la necessità di ripensare sia il nostro approccio comunicativo sia l'addestramento di questi sistemi.
Lo studio ha esaminato le differenze linguistiche tra conversazioni umano-umano e quelle con chatbot alimentati da modelli linguistici di grandi dimensioni. I ricercatori hanno utilizzato il modello Claude 3.5 Sonnet per analizzare le caratteristiche comunicative e hanno scoperto dati sorprendenti: quando interagiamo con un'intelligenza artificiale tendiamo a essere meno cortesi, utilizziamo una grammatica meno accurata e riduciamo la varietà del nostro vocabolario.
I numeri parlano chiaro. Le conversazioni tra esseri umani risultano più cortesi e formali del 14,5% rispetto a quelle con i chatbot, più fluide del 5,3% e caratterizzate da una diversità lessicale superiore dell'1,4%. Come scrivono gli autori nella loro ricerca, gli utenti producono messaggi più brevi, diretti e grammaticalmente semplificati quando si rivolgono a un'intelligenza artificiale, probabilmente perché considerano questi sistemi meno sensibili socialmente o meno capaci di interpretazioni sfumate.
Ma questa casualità comunicativa ha un prezzo inatteso. Per verificarlo, i ricercatori hanno addestrato un modello AI chiamato Mistral 7B su 13.000 conversazioni reali tra persone, utilizzandolo poi per interpretare 1.357 messaggi inviati a chatbot. Il sistema è stato programmato per identificare l'"intento" di ciascuna conversazione, classificando cosa l'utente stesse cercando di ottenere. Il risultato è stato eloquente: il modello, abituato allo stile comunicativo umano-umano, faticava a comprendere correttamente l'intento dei messaggi più informali destinati ai bot.
Gli esperimenti successivi hanno provato diverse strategie per colmare questo divario. Inizialmente, Zhang e Yu hanno utilizzato Claude per riscrivere i messaggi stringati in una prosa più elaborata, ma questo ha paradossalmente ridotto l'accuratezza del modello Mistral dell'1,9%. Una seconda prova con riscritture "minimali" – brevi e dirette come "parigi mese prossimo. voli hotel?" per chiedere informazioni su viaggio e alloggio – ha peggiorato ulteriormente le prestazioni, con una perdita di precisione del 2,6%.
Anche una versione "arricchita" con linguaggio più formale e variegato ha mostrato un calo dell'accuratezza dell'1,8%. L'unica soluzione efficace si è rivelata un approccio ibrido: addestrare il modello sia su riscritture minimali sia su quelle arricchite ha finalmente prodotto un miglioramento delle prestazioni del 2,9%.
Noah Giansiracusa della Bentley University in Massachusetts offre una prospettiva alternativa sul fenomeno. Secondo il ricercatore americano, non c'è nulla di necessariamente negativo nel fatto che le persone comunichino diversamente con i bot rispetto agli esseri umani. Anzi, sostiene che potrebbe essere salutare quando gli utenti sono consapevoli di parlare con una macchina e adattano di conseguenza il loro comportamento, piuttosto che cercare ossessivamente di eliminare ogni differenza tra interazione umana e artificiale.