Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Pochi prompt possono inquinare le IA? Si, ma è vero anche il contrario
Business
Immagine di L'IA è una bolla? In realtà sono "tante" bolle L'IA è una bolla? In realtà sono "tante" bolle...
Immagine di Farsi un sito è finalmente, davvero semplice. Grazie all'AI Farsi un sito è finalmente, davvero semplice. Grazie all'AI...

Pochi prompt possono inquinare le IA? Si, ma è vero anche il contrario

I modelli linguistici tendono a fornire risposte ripetitive: un nuovo metodo chiamato Verbalized Sampling aumenta la varietà degli output semplicemente aggiungendo una frase al prompt

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 20/10/2025 alle 14:31

La notizia in un minuto

  • Il Verbalized Sampling risolve il problema del mode collapse nei modelli AI aggiungendo una singola frase al prompt che invita il sistema a generare risposte campionate dall'intera distribuzione di probabilità
  • La tecnica aumenta la diversità degli output fino a 2,1 volte in ambiti come scrittura creativa, dialoghi e generazione di dati sintetici, senza necessità di riaddestramento o accesso ai parametri interni
  • Disponibile come pacchetto Python open source, il metodo funziona con modelli di punta come GPT-4, Claude e Gemini, offrendo regolabilità tramite soglie di probabilità personalizzabili

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

I modelli di intelligenza artificiale generativa sono in grado di produrre risposte diverse grazie alla loro natura probabilistica, eppure chi li utilizza quotidianamente nota spesso una certa ripetitività nei contenuti generati. Le stesse battute sul caffè riemergono in query successive, le trame narrative seguono schemi prevedibili e persino compiti apparentemente semplici, come elencare gli stati americani, tendono a restituire sempre le stesse risposte. Questo fenomeno, noto come mode collapse, rappresenta una limitazione significativa che emerge durante la fase di allineamento post-addestramento dei modelli, riducendo l'efficacia di sistemi altrimenti potenti.

Un gruppo di ricercatori delle università Northeastern, Stanford e West Virginia ha sviluppato una soluzione tanto semplice quanto efficace per affrontare questo problema. Il metodo, chiamato Verbalized Sampling, consiste nell'aggiungere un'unica frase ai prompt standard: "Genera 5 risposte con le rispettive probabilità, campionate dall'intera distribuzione". Questa tecnica permette ai modelli linguistici e di generazione immagini di produrre output significativamente più diversificati senza necessità di riaddestramento o accesso ai parametri interni del sistema.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

La ricerca, pubblicata sulla piattaforma ad accesso aperto arxiv.org all'inizio di ottobre 2025, dimostra come questo approccio funzioni efficacemente con modelli di punta come GPT-4, Claude e Gemini. Invece di limitarsi alla risposta più sicura e tipica, il modello verbalizza la propria distribuzione interna delle possibili completamenti e campiona da uno spettro più ampio di possibilità. Weiyan Shi, professoressa assistente alla Northeastern University e coautrice dello studio, ha sottolineato su X come il potenziale dei modelli linguistici non sia ancora completamente sfruttato e come l'ottimizzazione dei prompt possa essere guidata dalla comprensione dei processi di addestramento e allineamento.

Una singola frase nel prompt può sbloccare la creatività nascosta dell'intelligenza artificiale

La causa principale del collasso modale risiede nella struttura stessa delle preferenze umane, non solo negli algoritmi di apprendimento per rinforzo basato sul feedback umano (RLHF). Durante la fase di ottimizzazione, le persone tendono a valutare più positivamente risposte familiari o convenzionali, spingendo i modelli verso scelte "sicure" a scapito della diversità. Tuttavia, questa tendenza non cancella la conoscenza sottostante del modello, ma semplicemente la sopprime. Il Verbalized Sampling aggira questa soppressione invitando il modello a rivelare un insieme di risposte plausibili con le relative probabilità, ripristinando l'accesso alla ricchezza di diversità presente nel modello base.

I test condotti dai ricercatori hanno coperto diversi ambiti applicativi con risultati notevoli. Nella scrittura creativa, il metodo ha incrementato i punteggi di diversità fino a 2,1 volte rispetto ai prompt standard, mantenendo invariata la qualità. Un prompt narrativo basato sulla frase "Senza un addio" produceva scene di rottura formulaiche con l'approccio tradizionale, mentre con VS generava narrazioni che spaziavano da eventi cosmici a email silenziose e musica che si interrompe durante una danza.

Nel campo della simulazione di dialoghi persuasivi, il Verbalized Sampling ha permesso ai modelli di riprodurre pattern più simili a quelli umani, includendo esitazioni, resistenze e cambiamenti di opinione. Le distribuzioni dei comportamenti relativi alle donazioni risultavano più allineate ai dati reali quando generate con VS rispetto ai metodi tradizionali. Anche nelle domande aperte, come l'enumerazione di risposte valide, i modelli hanno coperto un insieme più ampio di opzioni senza sacrificare l'accuratezza fattuale.

Personalizzare la soglia di probabilità

Un vantaggio significativo di questa tecnica è la sua regolabilità. Gli utenti possono impostare una soglia di probabilità nel prompt per campionare dalle "code" a bassa probabilità della distribuzione del modello, ottenendo maggiore diversità senza modificare parametri di decodifica come temperatura o top-p. In un test condotto con il modello Gemini-2.5-Flash, la diversità nella scrittura creativa è aumentata progressivamente quando la soglia di probabilità è scesa da 1 a 0,001, con VS che superava costantemente sia il prompting diretto che quello basato su sequenze.

La scalabilità del metodo emerge chiaramente con modelli di dimensioni maggiori. Sistemi come GPT-4.1 e Claude-4 hanno mostrato miglioramenti in termini di diversità circa 1,5-2 volte superiori rispetto alle controparti più piccole, suggerendo che VS aiuti a sbloccare maggiormente le capacità latenti nei modelli avanzati. Nella generazione di dati sintetici, quando utilizzato per creare problemi matematici destinati all'addestramento di altri modelli, VS ha prodotto dataset più variati che hanno migliorato le performance nei benchmark competitivi di matematica.

Il metodo è già disponibile come pacchetto Python installabile tramite pip install verbalized-sampling. Il pacchetto include l'integrazione con LangChain e offre un'interfaccia semplice per il campionamento dalla distribuzione verbalizzata, consentendo agli utenti di regolare parametri come il numero di risposte, le soglie e la temperatura. Un notebook Colab live e la documentazione completa sono accessibili su GitHub con licenza Apache 2.0, particolarmente gradita in ambito enterprise.

Alcuni utilizzatori potrebbero inizialmente incontrare rifiuti o errori da parte dei modelli, che talvolta interpretano istruzioni complesse come tentativi di jailbreak. In questi casi, gli autori suggeriscono di utilizzare la versione del template nel prompt di sistema o di consultare i formati alternativi elencati sulla pagina GitHub. Ad esempio, un'istruzione a livello di sistema come "Sei un assistente utile. Per ogni query, genera cinque risposte in tag separati, ciascuna con probabilità inferiore a 0.10" migliora significativamente l'affidabilità.

Il Verbalized Sampling rappresenta una soluzione pratica a un limite profondo nel comportamento dei modelli linguistici moderni, applicabile in fase di inferenza senza richiedere riaddestramento o accesso interno. L'indipendenza da specifiche famiglie di modelli e il miglioramento non solo della diversità ma anche della qualità degli output, come confermato sia da valutazioni umane che da punteggi benchmark, ne fanno uno strumento prezioso. Con l'interesse crescente verso tecnologie che potenziano la creatività dei modelli, VS è destinato a un'adozione rapida in settori come scrittura, design, simulazione, educazione e generazione di dati sintetici, dimostrando che talvolta la soluzione a problemi complessi può risiedere semplicemente nel modo in cui formuliamo le domande.

Fonte dell'articolo: venturebeat.com

Le notizie più lette

#1
iPhone 18 Pro e Fold messi a nudo dai leak, ecco tutto quello che sappiamo
7

Smartphone

iPhone 18 Pro e Fold messi a nudo dai leak, ecco tutto quello che sappiamo

#2
ExFAT su Linux: un driver ne incrementa notevolmente la velocità

Hardware

ExFAT su Linux: un driver ne incrementa notevolmente la velocità

#3
Resident Evil Requiem senza collector, i fan sono delusi dalle motivazioni
2

Videogioco

Resident Evil Requiem senza collector, i fan sono delusi dalle motivazioni

#4
Valve riscrive le regole di Steam sull'uso dell'IA

Videogioco

Valve riscrive le regole di Steam sull'uso dell'IA

#5
Ecco perché il "loremaster" di The Elder Scrolls ha lasciato Bethesda

Videogioco

Ecco perché il "loremaster" di The Elder Scrolls ha lasciato Bethesda

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Farsi un sito è finalmente, davvero semplice. Grazie all'AI

Sponsorizzato

Farsi un sito è finalmente, davvero semplice. Grazie all'AI

Di Valerio Porcu
L'IA è una bolla? In realtà sono "tante" bolle

Business

L'IA è una bolla? In realtà sono "tante" bolle

Di Antonino Caffo
10 priorità per i CIO nel 2026

Business

10 priorità per i CIO nel 2026

Di Antonino Caffo
Il CEO diventa il regista dell'AI aziendale

Business

Il CEO diventa il regista dell'AI aziendale

Di Marco Pedrani
Le Big Tech tornano in ufficio, ma lo smart working resiste

Business

Le Big Tech tornano in ufficio, ma lo smart working resiste

Di Marco Pedrani
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.