Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Perché l'intelligenza artificiale non può fare tutto
Business
Immagine di Come valutare la sicurezza dei modelli IA in azienda Come valutare la sicurezza dei modelli IA in azienda...
Immagine di L'IA è la nuova alleata del project management L'IA è la nuova alleata del project management...

Perché l'intelligenza artificiale non può fare tutto

La congettura di Floridi rivela il compromesso inevitabile nell'IA: maggiore precisione significa scopo limitato, ampia versatilità porta più errori.

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 06/10/2025 alle 13:32

La notizia in un minuto

  • Il filosofo Luciano Floridi ha formalizzato una legge matematica fondamentale dell'IA: esiste un trade-off inevitabile tra certezza e scopo - maggiore è la versatilità di un sistema IA, minore è la sua affidabilità
  • La formula CDM × SDM ≤ K dimostra che non è possibile avere un'intelligenza artificiale contemporaneamente infallibile e versatile, spiegando perché le calcolatrici sono perfette ma limitate mentre i chatbot sono versatili ma fallibili
  • La soluzione pratica sono le architetture ibride che combinano sistemi ad alta certezza per funzioni critiche con IA generative per coordinamento, permettendo una gestione intelligente del rischio anziché l'illusoria ricerca della perfezione assoluta

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il paradosso dell'intelligenza artificiale moderna si manifesta chiaramente quando confrontiamo due strumenti presenti in ogni smartphone: la calcolatrice, che non commette mai errori nei suoi calcoli ma ha funzionalità limitatissime, e l'assistente vocale, capace di aiutarci con poesie, ricette e mille altri compiti, ma che spesso fraintende le nostre richieste in modo clamoroso. Questa dicotomia non è casuale, ma rappresenta una legge fondamentale dell'intelligenza artificiale che il filosofo Luciano Floridi ha recentemente formalizzato in una congettura matematica rivoluzionaria. La domanda che molti si pongono è legittima: perché non possiamo avere un'IA infallibile come una calcolatrice ma versatile come un assistente avanzato?

La risposta arriva dalla "Conjecture on a Fundamental Trade-off between Certainty and Scope in Symbolic and Generative AI", una ricerca che delinea i confini invalicabili tra due mondi dell'intelligenza artificiale. Da una parte troviamo l'IA simbolica, rappresentata perfettamente dalla calcolatrice digitale: quando questi strumenti furono introdotti, qualcuno li definì "intelligenti" per la loro bravura nei calcoli, ma altri obiettavano giustamente che non potevano interpretare poesie o riconoscere gatti nelle fotografie. Questo tipo di intelligenza artificiale opera in un mondo piccolo, ordinato e prevedibile, dove può raggiungere la perfezione assoluta ma con uno scopo estremamente limitato.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

All'opposto si colloca l'intelligenza artificiale generativa, quella che domina l'attualità tecnologica attraverso sistemi come GPT, Gemini e Claude. Questi strumenti possono riconoscere immagini, organizzare viaggi, scrivere articoli e creare piani di marketing, dimostrando una versatilità impressionante. Tuttavia, la loro conoscenza funziona su base probabilistica: non "sanno" realmente che Parigi è la capitale della Francia, ma assemblano le parole secondo schemi statistici per fornire la risposta corretta. Questa ampiezza di scopo, magica in superficie, è precisamente la ragione per cui commettono errori spettacolari.

La matematica dell'impossibile

"La formula elaborata da Floridi, CDM × SDM ≤ K, racchiude in termini matematici questo compromesso inevitabile" spiega l'esperto di IA, Fabrizio Degni. "Il CDM rappresenta la certezza epistemica, un punteggio da 0 a 1 dove 1 indica l'infallibilità assoluta, mentre SDM misura lo scopo, ovvero l'ampiezza del dominio operativo dell'IA. La costante K costituisce un limite invalicabile nell'universo delle intelligenze artificiali, un tetto che nessun sistema può superare".

L'implicazione è brutale ma onesta: il prodotto tra certezza e scopo non può oltrepassare questo limite. Se desideriamo costruire un'IA con certezza assoluta, la matematica ci costringe ad accettare uno scopo ristrettissimo. Viceversa, per ottenere uno scopo immenso, la certezza si riduce drasticamente, rendendo il sistema inevitabilmente fallibile.

Non possiamo avere tutto: o precisione assoluta su poco, o versatilità con errori inevitabili

Esempi concreti illustrano questa legge agli estremi dello spettro. "Coq, un assistente per prove matematiche formali, raggiunge una certezza assoluta pari a 1, ma il suo scopo è minimo: comprende solo linguaggio logico specifico e non può fare altro" continua Degni. "All'opposto, AlphaCode di DeepMind scrive codice per risolvere problemi di programmazione con uno scopo vastissimo, ma senza alcuna garanzia che il codice prodotto sia sicuro, corretto, funzionante o ottimizzato".

Guarda su

Soluzioni ingegneristiche per il mondo reale

La consapevolezza di questo trade-off fondamentale non paralizza l'innovazione, ma indirizza verso architetture ibride più intelligenti. Nel caso della guida autonoma, per esempio, la soluzione prevede sistemi a due livelli: un modello ad alta certezza e basso scopo gestisce le funzioni critiche come la frenata d'emergenza, seguendo regole ferree e verticali dove il sensore rileva un ostacolo e l'autopilota frena immediatamente. Un'intelligenza artificiale superiore, con conoscenza orizzontale anziché verticale, coordina questi agenti specializzati senza dover essere esperta in ogni singolo dominio.

Questa realtà ha conseguenze profonde anche sulla regolamentazione: leggi come l'AI Act europeo non possono realisticamente richiedere un rischio zero o sicurezza al 100%, poiché equivalrebbe a violare una legge fisica. L'approccio deve spostarsi dall'illusione di infallibilità impossibile verso una gestione intelligente del rischio, con politiche di prevenzione che tengano conto dell'incertezza intrinseca di questi sistemi.

La formazione degli utenti diventa cruciale per navigare questo panorama di imperfezione strutturale. Comprendere che ChatGPT, Gemini, Claude e Perplexity sono bravi in molte cose ma inevitabilmente fallibili proprio per la loro versatilità, ci permette di utilizzarli più efficacemente. Un approccio pratico consiste nel limitare deliberatamente lo scopo attraverso prompt più specifici, sfruttando la matematica di Floridi a nostro vantaggio: restringendo il campo d'azione dell'IA, aumentiamo la sua affidabilità in quel dominio specifico.

La congettura di Floridi non rappresenta una limitazione scoraggiante, ma una mappa per orientarsi nel futuro dell'intelligenza artificiale. Riconoscere che non esiste un genio tuttofare e infallibile ci libera dall'attesa di perfezioni impossibili e ci guida verso un utilizzo più consapevole e produttivo di questi strumenti straordinari, anche se imperfetti per natura.

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Risparmia e ottimizza: l’energia giusta per la tua azienda con Sorgenia

Business

Risparmia e ottimizza: l’energia giusta per la tua azienda con Sorgenia

Di Dario De Vita
L'IA è la nuova alleata del project management
1

Business

L'IA è la nuova alleata del project management

Di Antonino Caffo
Come valutare la sicurezza dei modelli IA in azienda

Business

Come valutare la sicurezza dei modelli IA in azienda

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.