Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata Abbiamo fatto un giro in Silicon Valley, ecco com'è andata...
Immagine di C'è chi è convinto che i large language model possano pensare C'è chi è convinto che i large language model possano pens...

Gli LLM non sono infallibili, servono sempre test sul campo

L'AI genera idee utili nel settore dei beni di consumo, ma solo i test reali ne confermano l'efficacia: la verifica sperimentale determina il vantaggio competitivo.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 09/09/2025 alle 16:03

La notizia in un minuto

  • L'intelligenza artificiale generativa non può sostituire la ricerca scientifica nei laboratori del settore dei beni di largo consumo perché non può interagire fisicamente con il mondo reale né verificare sperimentalmente le proprie proposte
  • I modelli linguistici presentano cinque limitazioni strutturali: incomprensione delle relazioni causali, impossibilità di sperimentazione fisica, difficoltà con fenomeni nuovi, mancanza di riproducibilità e confusione tra correlazione e causalità
  • Le aziende di successo dovranno adottare un approccio equilibrato che utilizza l'AI per generare ipotesi innovative mantenendo però la verifica sperimentale umana come fase fondamentale del processo di R&D
Riassunto generato con l'IA. Potrebbe non essere accurato.

Se i modelli linguistici di nuova generazione riescono a redigere contratti complessi in pochi minuti e a progettare campagne pubblicitarie convincenti in tempo reale, perché non dovrebbero essere in grado di sostituire anche i ricercatori nei laboratori? La realtà è molto più complessa di quanto questa narrazione tecnologica voglia far credere, soprattutto quando si tratta di sviluppare prodotti che devono superare le prove del mondo fisico.

Sicuramente esperienze "da copertina" come AlphaFold sono incoraggianti, ma c'è molta complessità da gestire. Non si tratta di dire a ChatGPT "fammi il prossimo prodotto di successo".

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

La tentazione di affidare alle intelligenze artificiali generative anche i processi di ricerca e sviluppo è comprensibile, specialmente in un settore dove la velocità di innovazione determina spesso il successo commerciale. Tuttavia, esperti con oltre vent'anni di esperienza nel campo dell'innovazione basata sull'AI avvertono che questo approccio potrebbe rivelarsi non solo pericoloso, ma strategicamente controproducente per le aziende che operano nel mercato dei prodotti di consumo.

I modelli linguistici come GPT-5, Claude e Gemini rappresentano indubbiamente una svolta tecnologica. Possono descrivere con dovizia di particolari la "base perfetta per un gelato senza lattosio" o suggerire innovative combinazioni di ingredienti. Il problema fondamentale emerge però quando si tratta di verificare se questi prodotti resistano a lungo quanto dovrebbero, se rimangano stabili durante il trasporto o se rispettino le normative di trenta mercati diversi.

È lunga la lista di "se" a cui rispondere prima di portare un prodotto sul mercato. Solo che gli LLM non lo sanno; loro devono solo generare parole, ma sei tu quello che poi deve fare il prodotto..

Questa verifica può avvenire esclusivamente attraverso la sperimentazione diretta. Un recente studio su larga scala ha messo a confronto migliaia di idee di ricerca generate dall'AI con proposte elaborate da ricercatori umani: mentre sulla carta le idee artificiali ottenevano punteggi superiori per originalità e interesse, nell'applicazione pratica i risultati si dimostravano significativamente inferiori.

Le barriere insuperabili della scienza artificiale

L'incapacità dei sistemi AI di condurre vera ricerca scientifica si manifesta attraverso limitazioni strutturali che vanno ben oltre i semplici ostacoli tecnici. La prima e più fondamentale riguarda la comprensione delle relazioni causali: mentre la scienza si basa sull'osservazione diretta di come specifiche variabili influenzino determinati risultati, i modelli linguistici si limitano a riconoscere pattern statistici nei testi, senza alcuna comprensione dei meccanismi fisici sottostanti.

La seconda limitazione riguarda l'impossibilità di interagire fisicamente con il mondo reale. Gli algoritmi non possono mescolare sostanze chimiche, inventare prototipi, far funzionare macchinari o osservare direttamente i risultati. Non sono in grado di condurre analisi cromatografiche, misurare la stabilità nel tempo o rilevare la crescita microbica.

Un terzo ostacolo emerge quando ci si trova di fronte a fenomeni completamente nuovi. Le scoperte scientifiche più preziose avvengono spesso ai confini della conoscenza esistente, dove i dati sono scarsi o inesistenti. L'esempio della tecnologia di editing genetico CRISPR è emblematico: non si trattava di un'idea già presente nella letteratura, ma di una scoperta sperimentale ottenuta manipolando il sistema immunitario batterico in laboratorio.

La differenza tra "plausibile" e "funzionante" rimane un abisso incolmabile

La quarta problematica riguarda la riproducibilità dei risultati: mentre nella scienza la capacità di ottenere risultati identici ripetendo gli stessi esperimenti rappresenta un principio fondamentale, i modelli linguistici possono forniscono diverse alla stessa domanda, generando spesso affermazioni specifiche e apparentemente autorevoli ma prive di fondamento.

La quinta e ultima limitazione concerne la tendenza a confondere correlazione e causalità. Un sistema AI potrebbe "scoprire" che un particolare emulsionante viene spesso utilizzato in prodotti lattiero-caseari vegetali a lunga conservazione, ma questo non implica necessariamente che l'aggiunta di tale emulsionante estenda automaticamente la durata di conservazione del prodotto.

Naturalmente il lettore attento a questo punto avrà notato che non stiamo parlando di LLM sviluppati appositamente per la ricerca scientifica, ma di prodotti generici applicati alla Ricerca e Sviluppo industriale. Possono essere un'ottima idea, se si considerano i loro limiti con la giusta attenzione. 

Una strategia equilibrata per il futuro

Nonostante questi limiti, l'intelligenza artificiale può svolgere un ruolo prezioso nel processo di ricerca e sviluppo, purché venga utilizzata con consapevolezza delle sue capacità effettive. La chiave del successo consiste nel separare nettamente la fase di generazione delle idee da quella di verifica sperimentale.

Le aziende più lungimiranti stanno già implementando framework strutturati che prevedono l'utilizzo dei modelli linguistici per la creazione di ipotesi e opzioni progettuali, mantenendo però rigorosamente separata la fase di validazione attraverso test di laboratorio. Per realizzare questa visione serve anche la documentazione completa di tutte le attività assistite dall'AI e lo sviluppo di sistemi di tracciabilità che colleghino chiaramente le proposte iniziali ai risultati della verifica sperimentale.

La questione se i modelli linguistici possano condurre ricerca scientifica non rappresenta semplicemente una sfida tecnica, ma una decisione strategica fondamentale. Le aziende che domineranno il mercato dei beni di largo consumo nel prossimo decennio saranno quelle capaci di combinare la velocità dell'intelligenza artificiale con il rigore della metodologia scientifica.

Serve dunque stabilire linee guida chiare per un utilizzo sicuro ed efficace dell'innovazione, investendo nelle infrastrutture appropriate e supportando i team nello sviluppo delle competenze necessarie. La formazione del personale assume particolare importanza: ricercatori e ingegneri devono comprendere sia le potenzialità che i limiti dei sistemi AI, imparando a distinguere tra plausibilità linguistica e verità fisica.

L'integrazione di questi strumenti con le piattaforme digitali di ricerca e sviluppo esistenti rappresenta un altro elemento cruciale, evitando l'uso di "chatbot" isolati che operano separatamente dai sistemi di gestione dei dati di laboratorio. Il futuro dell'innovazione nel settore dei beni di largo consumo dipende dalla capacità di accelerare la scienza umana attraverso l'AI, non di sostituirla: questa distinzione potrebbe determinare le posizioni competitive dei prossimi dieci anni.

Fonte dell'articolo: www.cio.com

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram
Live

I più letti di oggi


  • #1
    Il ragno delle Canarie che ha dimezzato il suo genoma
  • #2
    Windows 7 “mini” da 69 MB: geniale o inutile?
  • #3
    Nascita e morte del CD: la tecnologia che ha cambiato tutto
  • #4
    Allenarsi rallenta il cuore (e ti fa guadagnare anni)
  • #5
    Intel rilancia: AVX e AMX tornano con Nova Lake
  • #6
    Siri cambia anima: l’AI di Google arriva su iPhone
Articolo 1 di 5
C'è chi è convinto che i large language model possano pensare
Un'analisi confronta il ragionamento CoT con i processi cognitivi umani e i risultati dei benchmark.
Immagine di C'è chi è convinto che i large language model possano pensare
1
Leggi questo articolo
Articolo 2 di 5
Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Dalle aule di Stanford ai laboratori Google, il nostro Grand Tour in Silicon Valley ha svelato il vero spirito della disruption AI. Abbiamo trovato una forte comunità italiana tra campus, startup e big tech: l'innovazione è qui.
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Leggi questo articolo
Articolo 3 di 5
Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
Per la resilienza industriale, gli UPS trifase sono un pilastro contro i blackout. Evitano danni e fermi. Caratteristiche chiave: modularità, scalabilità e monitoraggio remoto.
Immagine di Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
1
Leggi questo articolo
Articolo 4 di 5
25 strumenti AI per la creazione di contenuti e il marketing
Una guida analizza 25 strumenti IA per la creazione di contenuti, evidenziando una tendenza all'automazione accessibile che promette di abbassare la barriera d'ingresso al mercato.
Immagine di 25 strumenti AI per la creazione di contenuti e il marketing
Leggi questo articolo
Articolo 5 di 5
Perché Alphabet trasforma i progetti moonshot in società indipendenti
L'interesse concreto nei progetti resta quando questi diventano aziende indipendenti.
Immagine di Perché Alphabet trasforma i progetti moonshot in società indipendenti
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.