Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Perché l'intelligenza artificiale non può fare tutto
Business
Immagine di Fare domande furbette ai colloqui è inutile, ecco le prove Fare domande furbette ai colloqui è inutile, ecco le prove...
Immagine di AWS, l’AI Kiro causa un'interruzione di 13 ore: ha cancellato e ricreato l'ambiente di produzione AWS, l’AI Kiro causa un'interruzione di 13 ore: ha cancell...

Perché l'intelligenza artificiale non può fare tutto

La congettura di Floridi rivela il compromesso inevitabile nell'IA: maggiore precisione significa scopo limitato, ampia versatilità porta più errori.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 06/10/2025 alle 13:32

La notizia in un minuto

  • Il filosofo Luciano Floridi ha formalizzato una legge matematica fondamentale dell'IA: esiste un trade-off inevitabile tra certezza e scopo - maggiore è la versatilità di un sistema IA, minore è la sua affidabilità
  • La formula CDM × SDM ≤ K dimostra che non è possibile avere un'intelligenza artificiale contemporaneamente infallibile e versatile, spiegando perché le calcolatrici sono perfette ma limitate mentre i chatbot sono versatili ma fallibili
  • La soluzione pratica sono le architetture ibride che combinano sistemi ad alta certezza per funzioni critiche con IA generative per coordinamento, permettendo una gestione intelligente del rischio anziché l'illusoria ricerca della perfezione assoluta

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il paradosso dell'intelligenza artificiale moderna si manifesta chiaramente quando confrontiamo due strumenti presenti in ogni smartphone: la calcolatrice, che non commette mai errori nei suoi calcoli ma ha funzionalità limitatissime, e l'assistente vocale, capace di aiutarci con poesie, ricette e mille altri compiti, ma che spesso fraintende le nostre richieste in modo clamoroso. Questa dicotomia non è casuale, ma rappresenta una legge fondamentale dell'intelligenza artificiale che il filosofo Luciano Floridi ha recentemente formalizzato in una congettura matematica rivoluzionaria. La domanda che molti si pongono è legittima: perché non possiamo avere un'IA infallibile come una calcolatrice ma versatile come un assistente avanzato?

La risposta arriva dalla "Conjecture on a Fundamental Trade-off between Certainty and Scope in Symbolic and Generative AI", una ricerca che delinea i confini invalicabili tra due mondi dell'intelligenza artificiale. Da una parte troviamo l'IA simbolica, rappresentata perfettamente dalla calcolatrice digitale: quando questi strumenti furono introdotti, qualcuno li definì "intelligenti" per la loro bravura nei calcoli, ma altri obiettavano giustamente che non potevano interpretare poesie o riconoscere gatti nelle fotografie. Questo tipo di intelligenza artificiale opera in un mondo piccolo, ordinato e prevedibile, dove può raggiungere la perfezione assoluta ma con uno scopo estremamente limitato.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

All'opposto si colloca l'intelligenza artificiale generativa, quella che domina l'attualità tecnologica attraverso sistemi come GPT, Gemini e Claude. Questi strumenti possono riconoscere immagini, organizzare viaggi, scrivere articoli e creare piani di marketing, dimostrando una versatilità impressionante. Tuttavia, la loro conoscenza funziona su base probabilistica: non "sanno" realmente che Parigi è la capitale della Francia, ma assemblano le parole secondo schemi statistici per fornire la risposta corretta. Questa ampiezza di scopo, magica in superficie, è precisamente la ragione per cui commettono errori spettacolari.

La matematica dell'impossibile

"La formula elaborata da Floridi, CDM × SDM ≤ K, racchiude in termini matematici questo compromesso inevitabile" spiega l'esperto di IA, Fabrizio Degni. "Il CDM rappresenta la certezza epistemica, un punteggio da 0 a 1 dove 1 indica l'infallibilità assoluta, mentre SDM misura lo scopo, ovvero l'ampiezza del dominio operativo dell'IA. La costante K costituisce un limite invalicabile nell'universo delle intelligenze artificiali, un tetto che nessun sistema può superare".

L'implicazione è brutale ma onesta: il prodotto tra certezza e scopo non può oltrepassare questo limite. Se desideriamo costruire un'IA con certezza assoluta, la matematica ci costringe ad accettare uno scopo ristrettissimo. Viceversa, per ottenere uno scopo immenso, la certezza si riduce drasticamente, rendendo il sistema inevitabilmente fallibile.

Non possiamo avere tutto: o precisione assoluta su poco, o versatilità con errori inevitabili

Esempi concreti illustrano questa legge agli estremi dello spettro. "Coq, un assistente per prove matematiche formali, raggiunge una certezza assoluta pari a 1, ma il suo scopo è minimo: comprende solo linguaggio logico specifico e non può fare altro" continua Degni. "All'opposto, AlphaCode di DeepMind scrive codice per risolvere problemi di programmazione con uno scopo vastissimo, ma senza alcuna garanzia che il codice prodotto sia sicuro, corretto, funzionante o ottimizzato".

Guarda su

Soluzioni ingegneristiche per il mondo reale

La consapevolezza di questo trade-off fondamentale non paralizza l'innovazione, ma indirizza verso architetture ibride più intelligenti. Nel caso della guida autonoma, per esempio, la soluzione prevede sistemi a due livelli: un modello ad alta certezza e basso scopo gestisce le funzioni critiche come la frenata d'emergenza, seguendo regole ferree e verticali dove il sensore rileva un ostacolo e l'autopilota frena immediatamente. Un'intelligenza artificiale superiore, con conoscenza orizzontale anziché verticale, coordina questi agenti specializzati senza dover essere esperta in ogni singolo dominio.

Questa realtà ha conseguenze profonde anche sulla regolamentazione: leggi come l'AI Act europeo non possono realisticamente richiedere un rischio zero o sicurezza al 100%, poiché equivalrebbe a violare una legge fisica. L'approccio deve spostarsi dall'illusione di infallibilità impossibile verso una gestione intelligente del rischio, con politiche di prevenzione che tengano conto dell'incertezza intrinseca di questi sistemi.

La formazione degli utenti diventa cruciale per navigare questo panorama di imperfezione strutturale. Comprendere che ChatGPT, Gemini, Claude e Perplexity sono bravi in molte cose ma inevitabilmente fallibili proprio per la loro versatilità, ci permette di utilizzarli più efficacemente. Un approccio pratico consiste nel limitare deliberatamente lo scopo attraverso prompt più specifici, sfruttando la matematica di Floridi a nostro vantaggio: restringendo il campo d'azione dell'IA, aumentiamo la sua affidabilità in quel dominio specifico.

La congettura di Floridi non rappresenta una limitazione scoraggiante, ma una mappa per orientarsi nel futuro dell'intelligenza artificiale. Riconoscere che non esiste un genio tuttofare e infallibile ci libera dall'attesa di perfezioni impossibili e ci guida verso un utilizzo più consapevole e produttivo di questi strumenti straordinari, anche se imperfetti per natura.

Le notizie più lette

#1
Vola negli USA per comprare un HDD e risparmia: siamo all'assurdo
4

Hardware

Vola negli USA per comprare un HDD e risparmia: siamo all'assurdo

#2
AWS, l’AI Kiro causa un'interruzione di 13 ore: ha cancellato e ricreato l'ambiente di produzione
1

Business

AWS, l’AI Kiro causa un'interruzione di 13 ore: ha cancellato e ricreato l'ambiente di produzione

#3
Possibile svolta per il quantum computing
1

Scienze

Possibile svolta per il quantum computing

#4
Intel lavora alle CPU next-gen a core unico
5

Hardware

Intel lavora alle CPU next-gen a core unico

#5
Fare domande furbette ai colloqui è inutile, ecco le prove
2

Business

Fare domande furbette ai colloqui è inutile, ecco le prove

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

AWS, l’AI Kiro causa un'interruzione di 13 ore: ha cancellato e ricreato l'ambiente di produzione
1

Business

AWS, l’AI Kiro causa un'interruzione di 13 ore: ha cancellato e ricreato l'ambiente di produzione

Di Valerio Porcu
Fare domande furbette ai colloqui è inutile, ecco le prove
2

Business

Fare domande furbette ai colloqui è inutile, ecco le prove

Di Valerio Porcu
Non pensate più all'IA che vi ruberà il lavoro ma a quella che vi assumerà
2

Business

Non pensate più all'IA che vi ruberà il lavoro ma a quella che vi assumerà

Di Antonino Caffo
Lavoro IT: l'AI cambia il mercato delle competenze
1

Business

Lavoro IT: l'AI cambia il mercato delle competenze

Di Antonino Caffo
Partita IVA e PMI: come trasformare le spese aziendali in voli Business Class gratis

Business

Partita IVA e PMI: come trasformare le spese aziendali in voli Business Class gratis

Di Dario De Vita
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • SosHomeGarden
  • Aibay
  • Coinlabs

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.