Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon
Accedi a Xenforo
Immagine di Altro che IA, i criminali si agganciano agli header HTTP per rubare i dati aziendali Altro che IA, i criminali si agganciano agli header HTTP per...
Immagine di Studiare programmazione è peggio che tatuarsi in faccia, secondo un esperto Studiare programmazione è peggio che tatuarsi in faccia, se...

Agenti IA, belli e possibili, forse da frenare

Solo hype tecnologico? Al di là dell'automazione serve un controllo umano competente per l'innovazione sicura.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor

Pubblicato il 25/06/2025 alle 08:49

La notizia in un minuto

Gli agenti di intelligenza artificiale rappresentano la tendenza tecnologica dominante del 2025, promettendo di rivoluzionare la produttività attraverso sistemi automatizzati capaci di eseguire processi completi senza intervento umano costante. Tuttavia, esperti come Fabrizio Degni avvertono sui rischi significativi legati a questi strumenti: l'assenza di coscienza ed etica, il paradossale aumento delle allucinazioni nei modelli più avanzati come o3 di OpenAI, e la persistente opacità dei processi decisionali. L'orchestrazione tra agenti specializzati emerge come soluzione architettonica promettente, permettendo maggiore efficienza e controllo centralizzato, ma aumentando paradossalmente la complessità del sistema. La competizione accelerata, simboleggiata dall'impatto di DeepSeek sui mercati, evidenzia come l'IA sia diventata un fattore strategico cruciale, richiedendo però un approccio più ponderato alla governance e alla sicurezza.
Riassunto generato con l'IA. Potrebbe non essere accurato.

Il tema degli agenti di intelligenza artificiale sta dominando le conversazioni tecnologiche del 2025, promettendo rivoluzioni nella produttività aziendale e personale. Tuttavia, dietro l'entusiasmo generalizzato si nascondono questioni fondamentali che meritano un'analisi approfondita. Le sfide legate alla governance, alla trasparenza e alla sicurezza di questi sistemi autonomi richiedono un approccio più ponderato di quanto il mercato attuale sembri suggerire.

La definizione di agente IA è apparentemente semplice: si tratta di sistemi automatizzati capaci di eseguire processi end-to-end, trasformando un input iniziale in un risultato finale senza intervento umano costante. Fabrizio Degni, ricercatore esperto di etica e governance dell'intelligenza artificiale, sottolinea come questi strumenti rappresentino "un'evoluzione interessante verso quella che ci aspettiamo essere la famosa AGI", ma avverte sulla necessità di un approccio cauto nell'implementazione.

"Dal punto di vista dei rischi, gli agenti devono essere considerati in modo ponderato. Semplificando, gli agenti sono bot che possono svolgere un processo in maniera autonoma. Un esempio è Manus AI, una piattaforma capace di utilizzare diversi tools per eseguire un'operazione". Un caso reale ha visto un utente ottenere un sito funzionante in 40-50 minuti, con il codice pronto per il caricamento su hosting. 

Il paradosso della trasparenza artificiale

Potenzialmente, oggi un'azienda potrebbe "assumere" un agente IA che ricopra varie figure di una risorsa umana. "Ma c'è un problema" prosegue Degni. "Già adesso, ci ritroviamo a dialogare con delle intelligenze artificiali portatrici di limitazioni nette, come l'assenza di una coscienza". Un bene da un lato, un male dall'altro, perché questa "carenza" vuol dire togliere alle IA la necessaria etica che dovrebbero avere per essere davvero utili all'essere umano.

Le allucinazioni sono qualcosa con cui bisogna convivere, come un tasso di errore intrinseco

"Un aspetto particolarmente preoccupante emerge dall'analisi del modello o3 di OpenAI, che nonostante le capacità di ragionamento molto pubblicizzate, presenta il doppio del fattore di allucinazione rispetto ai modelli precedenti. Questo paradosso evidenzia come il progresso tecnologico non sia sempre lineare: modelli più "intelligenti" possono risultare meno affidabili in aspetti fondamentali come l'accuratezza delle informazioni.

La questione delle allucinazioni rappresenta un problema strutturale che non può essere risolto completamente. Recenti ricerche confermano che si tratta di una caratteristica intrinseca di questi sistemi, paragonabile a un tasso di errore che deve essere accettato e gestito. Questo implica la necessità costante di supervisione umana competente, capace di riconoscere e correggere gli output errati.

Nonostante i progressi apparenti, la questione della "black box" rimane irrisolta. I nuovi modelli come o3 di OpenAI mostrano il loro processo di ragionamento attraverso la funzione "thinking", permettendo agli utenti di osservare i passaggi logici e formulare obiezioni specifiche. Tuttavia, questa trasparenza potrebbe essere più apparente che reale. La durata del "ragionamento" varia significativamente, sollevando dubbi sulla sua autenticità: a volte l'IA "ragiona" per cinque minuti, altre volte per uno solo, producendo risultati simili.

Guarda su

L'orchestrazione come soluzione architettonica

Poi c'è DeepSeek, che ha sconvolto un po' il mercato. "La concorrenza accelera lo scenario e, in un certo senso, lo stravolge. L'IA è diventato un fattore centrale anche in Borsa. Da human-centered, l'intelligenza artificiale può seriamente influenzare le strategie aziendali".

Una tendenza emergente nel contesto della GenAI prevede l'utilizzo di architetture orchestrate, dove un agente principale funge da direttore d'orchestra, coordinando agenti specializzati per compiti specifici. Questo approccio permette di ottimizzare l'efficienza, utilizzando modelli smaller e meno costosi per attività specifiche, invece de richiedere sempre il modello più potente per ogni operazione. "Un modello di Nvidia in passato ha mostrato come gli agenti IA potessero comunicare tra di loro scambiandosi delle skill. Invece di una un modello general purpose, che potrebbe non svolgere in maniera il suo compito, possiamo utilizzare un agente specifico e specializzato".

L'orchestrazione offre anche vantaggi dal punto di vista della governance e della sicurezza. Concentrando i controlli sull'agente principale che gestisce input e output, le aziende possono applicare politiche di sicurezza più stringenti in un single point of control. Tuttavia, questo approccio aumenta paradossalmente l'opacità del sistema, rendendo ancora più difficile comprendere i processi interni.

Degni avverte che gli agenti sono "al momento qualcosa di prematuro" proprio per la mancanza di consapevolezza dei loro processi e limitazioni. La mancanza di principi etici by design rappresenta un altro nodo critico. A differenza dell'Europa, che con l'AI Act ha tentato di stabilire guardrail normativi, altri mercati hanno privilegiato la velocità di sviluppo rispetto alla regolamentazione preventiva. Questo ha creato un divario significativo nelle velocità di innovazione, ma anche nei livelli di protezione e responsabilità.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram

I più letti di oggi


  • #1
    5 condizionatori portatili da tenere d'occhio in vista del Prime Day
  • #2
    Galaxy S27 Ultra segnerà la fine di un'era
  • #3
    Una sorprendente mod ha reso una RTX 5090 una GPU da 10.000$
  • #4
    Ecco cosa succede quando un gioco floppa dopo milioni investiti
  • #5
    5 settori che devono preoccuparsi per l'impatto dell'AI
  • #6
    Apple si arrende! Troppe multe in Europa, cominciano le negoziazioni
Articolo 1 di 5
Studiare programmazione è peggio che tatuarsi in faccia, secondo un esperto
L'analista Ian Bremmer avverte: l'intelligenza artificiale ha compromesso il settore della programmazione informatica, mettendo fine al boom dei laureati tecnici.
Immagine di Studiare programmazione è peggio che tatuarsi in faccia, secondo un esperto
Leggi questo articolo
Articolo 2 di 5
Altro che IA, i criminali si agganciano agli header HTTP per rubare i dati aziendali
Le minacce cyber si evolvono rapidamente sfruttando IA e tecniche avanzate come l'esfiltrazione furtiva via header HTTP che aggira le difese tradizionali.
Immagine di Altro che IA, i criminali si agganciano agli header HTTP per rubare i dati aziendali
Leggi questo articolo
Articolo 3 di 5
Non hai ancora la fibra? Forse il 5G FWA può essere una soluzione
Il 5G FWA emerge come valida alternativa alla fibra ottica per la banda larga domestica, destinato a coprire il 35% delle nuove connessioni entro il 2030.
Immagine di Non hai ancora la fibra? Forse il 5G FWA può essere una soluzione
1
Leggi questo articolo
Articolo 4 di 5
C'è chi ha usato strumenti di pentesting per bucare davvero le aziende
80 mila account colpiti da UNK_SneakyStrike sfruttando l'API di Microsoft Teams in combinazione con server AWS
Immagine di C'è chi ha usato strumenti di pentesting per bucare davvero le aziende
Leggi questo articolo
Articolo 5 di 5
PMI italiane: solo il 51% investe in formazione
Cresce la domanda di soft skill, sales e project management per affrontare le sfide della sostenibilità, digitalizzazione e transizione generazionale.
Immagine di PMI italiane: solo il 51% investe in formazione
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.