image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Ritorno nello spazio: la NASA riprende i viaggi spaziali dopo 8 mesi Ritorno nello spazio: la NASA riprende i viaggi spaziali dop...
Immagine di Ingegneria: 5 cose pazzesche fatte nel 2025 Ingegneria: 5 cose pazzesche fatte nel 2025...

Quando scrivi ai chatbot, le parole contano (davvero)

Chi usa un linguaggio informale e stringato con i chatbot AI potrebbe ricevere risposte meno accurate rispetto a chi si esprime in modo formale.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 14/10/2025 alle 08:50

La notizia in un minuto

  • Una ricerca di Amazon rivela che comunicare in modo informale con i chatbot compromette la qualità delle risposte: gli utenti sono meno cortesi del 14,5%, meno fluidi del 5,3% e usano un vocabolario più limitato rispetto alle conversazioni umane
  • I modelli AI addestrati su conversazioni umane faticano a comprendere messaggi informali e grammaticalmente semplificati tipici delle interazioni con i bot, interpretando male l'intento degli utenti
  • L'unico approccio efficace per migliorare le prestazioni dei chatbot si è rivelato un addestramento ibrido che combina sia stili comunicativi minimali che arricchiti, con un miglioramento del 2,9%

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'informalità nel dialogo con i chatbot potrebbe costare cara agli utenti, compromettendo la qualità delle risposte ricevute. Una ricerca condotta da Fulei Zhang e Zhou Yu di Amazon rivela che il modo in cui ci rivolgiamo agli assistenti virtuali basati su intelligenza artificiale influenza significativamente la loro capacità di comprensione, suggerendo la necessità di ripensare sia il nostro approccio comunicativo sia l'addestramento di questi sistemi.

Lo studio ha esaminato le differenze linguistiche tra conversazioni umano-umano e quelle con chatbot alimentati da modelli linguistici di grandi dimensioni. I ricercatori hanno utilizzato il modello Claude 3.5 Sonnet per analizzare le caratteristiche comunicative e hanno scoperto dati sorprendenti: quando interagiamo con un'intelligenza artificiale tendiamo a essere meno cortesi, utilizziamo una grammatica meno accurata e riduciamo la varietà del nostro vocabolario.

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

I numeri parlano chiaro. Le conversazioni tra esseri umani risultano più cortesi e formali del 14,5% rispetto a quelle con i chatbot, più fluide del 5,3% e caratterizzate da una diversità lessicale superiore dell'1,4%. Come scrivono gli autori nella loro ricerca, gli utenti producono messaggi più brevi, diretti e grammaticalmente semplificati quando si rivolgono a un'intelligenza artificiale, probabilmente perché considerano questi sistemi meno sensibili socialmente o meno capaci di interpretazioni sfumate.

Ma questa casualità comunicativa ha un prezzo inatteso. Per verificarlo, i ricercatori hanno addestrato un modello AI chiamato Mistral 7B su 13.000 conversazioni reali tra persone, utilizzandolo poi per interpretare 1.357 messaggi inviati a chatbot. Il sistema è stato programmato per identificare l'"intento" di ciascuna conversazione, classificando cosa l'utente stesse cercando di ottenere. Il risultato è stato eloquente: il modello, abituato allo stile comunicativo umano-umano, faticava a comprendere correttamente l'intento dei messaggi più informali destinati ai bot.

Le macchine addestrate su conversazioni umane faticano con la grammatica informale

Gli esperimenti successivi hanno provato diverse strategie per colmare questo divario. Inizialmente, Zhang e Yu hanno utilizzato Claude per riscrivere i messaggi stringati in una prosa più elaborata, ma questo ha paradossalmente ridotto l'accuratezza del modello Mistral dell'1,9%. Una seconda prova con riscritture "minimali" – brevi e dirette come "parigi mese prossimo. voli hotel?" per chiedere informazioni su viaggio e alloggio – ha peggiorato ulteriormente le prestazioni, con una perdita di precisione del 2,6%.

Anche una versione "arricchita" con linguaggio più formale e variegato ha mostrato un calo dell'accuratezza dell'1,8%. L'unica soluzione efficace si è rivelata un approccio ibrido: addestrare il modello sia su riscritture minimali sia su quelle arricchite ha finalmente prodotto un miglioramento delle prestazioni del 2,9%.

Noah Giansiracusa della Bentley University in Massachusetts offre una prospettiva alternativa sul fenomeno. Secondo il ricercatore americano, non c'è nulla di necessariamente negativo nel fatto che le persone comunichino diversamente con i bot rispetto agli esseri umani. Anzi, sostiene che potrebbe essere salutare quando gli utenti sono consapevoli di parlare con una macchina e adattano di conseguenza il loro comportamento, piuttosto che cercare ossessivamente di eliminare ogni differenza tra interazione umana e artificiale.

Fonte dell'articolo: www.newscientist.com

Le notizie più lette

#1
Google chiude i rubinetti di Gemini: finisce l'era della cortesia mentre GPT-5.2 bussa alla porta
9

Business

Google chiude i rubinetti di Gemini: finisce l'era della cortesia mentre GPT-5.2 bussa alla porta

#2
OpenAI regala ChatGPT Plus: ecco chi può averlo
4

Hardware

OpenAI regala ChatGPT Plus: ecco chi può averlo

#3
Le chiavi ROM di PS5 sono state diffuse: jailbreak in vista?
3

Videogioco

Le chiavi ROM di PS5 sono state diffuse: jailbreak in vista?

#4
Fare impresa solo con l'AI, ecco com'è andata a chi ci ha provato
7

Business

Fare impresa solo con l'AI, ecco com'è andata a chi ci ha provato

#5
OpenAI ricopre d'oro i suoi dipendenti, la media è 1,5 milioni di dollari

Business

OpenAI ricopre d'oro i suoi dipendenti, la media è 1,5 milioni di dollari

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Ingegneria: 5 cose pazzesche fatte nel 2025
1

Scienze

Ingegneria: 5 cose pazzesche fatte nel 2025

Di Valerio Porcu
Ritorno nello spazio: la NASA riprende i viaggi spaziali dopo 8 mesi
1

Scienze

Ritorno nello spazio: la NASA riprende i viaggi spaziali dopo 8 mesi

Di Dario De Vita
Quando il cervello diventa interfaccia: la nuova frontiera della medicina digitale
2

Scienze

Quando il cervello diventa interfaccia: la nuova frontiera della medicina digitale

Di Dario De Vita
ADHD, i farmaci non agiscono come si è creduto finora
2

Scienze

ADHD, i farmaci non agiscono come si è creduto finora

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.