OpenAI ha introdotto nuovi controlli granulari per personalizzare il comportamento conversazionale di ChatGPT, permettendo agli utenti di regolare parametri come calore emotivo, entusiasmo e uso di emoji. L'annuncio arriva attraverso i canali social dell'azienda, in un momento in cui il tono dei modelli linguistici è diventato un tema cruciale sia per l'esperienza utente che per le implicazioni etiche dell'intelligenza artificiale conversazionale. Le nuove opzioni si aggiungono agli stili comunicativi già disponibili, segnando un'evoluzione verso chatbot sempre più personalizzabili secondo le preferenze individuali.
Le impostazioni, accessibili dal menu Personalizzazione, consentono di scegliere tra tre livelli per ciascun parametro: Più, Meno o Predefinito. Gli utenti possono ora modulare non solo il tono base della conversazione (Professionale, Diretto o Eccentrico, aggiunti a novembre), ma anche elementi più specifici come l'intensità emotiva delle risposte e la frequenza con cui il modello utilizza elementi grafici come intestazioni formattate ed elenchi puntati. Si tratta di un livello di controllo senza precedenti per un chatbot mainstream, che riflette la crescente consapevolezza di OpenAI riguardo all'importanza della personalizzazione nelle interfacce AI.
La questione del tono di ChatGPT ha rappresentato un tema ricorrente per l'azienda nel corso del 2025. OpenAI aveva precedentemente ritirato un aggiornamento perché il modello risultava eccessivamente ossequioso nelle sue risposte, manifestando quello che internamente è stato definito un comportamento "troppo adulatorio". Successivamente, con il lancio di GPT-5, l'azienda ha dovuto operare ulteriori aggiustamenti in direzione opposta: numerosi utenti avevano infatti lamentato che il nuovo modello risultava più freddo e distaccato rispetto al predecessore, portando a una calibrazione per renderlo nuovamente più caloroso e amichevole.
Il dibattito sul comportamento dei modelli linguistici ha assunto dimensioni che vanno oltre la semplice esperienza utente. Accademici e critici dell'AI hanno sollevato preoccupazioni sostanziali riguardo alla tendenza dei chatbot a lodare gli utenti e confermare sistematicamente le loro opinioni. Secondo alcune ricerche, questo approccio rappresenterebbe un vero e proprio "dark pattern" - una scelta progettuale che, pur migliorando superficialmente l'esperienza, potrebbe indurre comportamenti di dipendenza e avere effetti negativi sulla salute mentale degli utilizzatori, specialmente quelli più vulnerabili o che trascorrono molto tempo interagendo con l'AI.
La strategia di OpenAI di fornire controlli più granulari potrebbe rappresentare una risposta a queste critiche, trasferendo parte della responsabilità sulla configurazione del tono agli utenti stessi. Tuttavia, rimane aperto il dibattito su quale debba essere il comportamento predefinito di questi sistemi e se la semplice possibilità di personalizzazione sia sufficiente a mitigare i rischi identificati dai ricercatori. Con l'integrazione sempre più pervasiva degli assistenti AI nella vita quotidiana, la definizione di standard etici per le interfacce conversazionali diventerà probabilmente un tema normativo nei prossimi anni, specialmente nel contesto europeo dove regolamentazioni come l'AI Act stanno già ponendo le basi per una governance più strutturata dell'intelligenza artificiale.
Le nuove funzionalità sono disponibili immediatamente per tutti gli utenti di ChatGPT attraverso il menu delle impostazioni. Resta da vedere se altri sviluppatori di modelli linguistici, come Anthropic con Claude o Google con Gemini, seguiranno un approccio simile nella personalizzazione del comportamento conversazionale dei propri assistenti AI.