Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Ha senso una moratoria sull'IA nel mezzo della ricerca dell'IA?
Business
Immagine di Antipirateria assurda, cosa succede se Cloudflare lascia l'Italia? Antipirateria assurda, cosa succede se Cloudflare lascia l'I...
Immagine di Competenze essenziali per il mercato del lavoro nel 2026 Competenze essenziali per il mercato del lavoro nel 2026...

Ha senso una moratoria sull'IA nel mezzo della ricerca dell'IA?

Discussione sulla moratoria per lo sviluppo della superintelligenza: rischi reali, confusioni terminologiche e necessità di regolamentazione

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 03/11/2025 alle 12:44

La notizia in un minuto

  • Una nuova lettera aperta firmata da pionieri dell'AI come Hinton e Bengio chiede una moratoria sulla ricerca avanzata, ripetendo le preoccupazioni già espresse nel 2023 sulla superintelligenza artificiale
  • Il dibattito soffre di confusione terminologica tra ANI, ASI e AGI, senza uno standard universale per misurare quando un sistema raggiunga effettivamente questi livelli, mentre manca una distinzione chiara tra intelligenza computazionale e intelligenza vissuta con consapevolezza morale
  • La regolamentazione si scontra con la realtà geopolitica: le potenze mondiali considerano l'AI uno strumento di dominio strategico, mentre paradossalmente ci concentriamo su rischi ipotetici futuri trascurando minacce concrete come la crisi climatica

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Firmata da figure di spicco come Hinton e Bengio, pionieri dell'intelligenza artificiale, insieme a personalità eterogenee che vanno da Steve Wozniak a membri della nobiltà britannica e star della musica, c'è una nuova petizione che sollecita interventi legislativi per regolare o addirittura fermare temporaneamente lo sviluppo di sistemi di intelligenza artificiale "superiore". Si tratta della seconda iniziativa di questo tipo, una fotocopia sostanziale di quella del 2023, segno che le preoccupazioni non si sono affatto attenuate.

Prima di affrontare i rischi paventati, occorre fare chiarezza su tre acronimi fondamentali che spesso vengono confusi nel dibattito pubblico. L'ANI (Artificial Narrow Intelligence) indica sistemi specializzati in un compito specifico: ChatGPT, ad esempio, rientra in questa categoria perché lavora esclusivamente con il linguaggio, pur nelle sue molteplici applicazioni. L'ASI (Artificial Super Intelligence) descrive invece sistemi che superano le capacità umane in determinati ambiti, proprio come una calcolatrice o Deep Blue, il computer che sconfisse Kasparov negli anni Novanta. Infine l'AGI (Artificial General Intelligence) rappresenta il vero salto qualitativo: un'intelligenza capace di operare trasversalmente su più domini, analogamente a quella umana.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Il problema centrale risiede nella confusione sistematica tra questi concetti, particolarmente tra AGI e ASI. Questa ambiguità terminologica non è innocua: manca uno standard universalmente riconosciuto per stabilire quando un sistema abbia effettivamente raggiunto questi livelli. Non esiste un "metro campione" dell'intelligenza artificiale, conservato in qualche istituto, rispetto al quale misurare i progressi. Chiunque potrebbe teoricamente dichiarare di aver sviluppato un'ASI, ma su quali basi oggettive potremmo confermarlo o smentirlo?

C'è intelligenza e intelligenza

La distinzione tra intelligenza computazionale e intelligenza vissuta rappresenta un nodo critico spesso trascurato. L'essere umano non è solo mente razionale, ma una risultanza complessa di esperienze, emozioni e consapevolezza morale. Le sue decisioni non derivano da puri calcoli a freddo, ma incorporano la coscienza delle ricadute delle proprie azioni. Una macchina può eccellere nella predizione e nel calcolo, superando ampiamente le capacità umane, ma lo fa senza alcuna comprensione delle implicazioni etiche o delle conseguenze collaterali delle sue elaborazioni.

L'intelligenza artificiale è una cosa aliena che probabilmente non capiremo

Lo scenario della superintelligenza solleva interrogativi inquietanti sulla sua stessa utilità per l'umanità. Se davvero emergesse un'entità cognitivamente superiore in ogni aspetto, quale bisogno avrebbe dell'essere umano? La metafora di una specie aliena che arriva sulla Terra e ci considera irrimediabilmente inferiori non è peregrina. E in una competizione tra diverse entità superintelligenti, la logica suggerirebbe che la prima a emergere eliminerebbe immediatamente le concorrenti, impedendo ad altre organizzazioni di raggiungere lo stesso traguardo.

Guarda su

Il celebre paradosso della graffetta, formulato da Nick Bostrom oltre un decennio fa, illustra perfettamente il rischio esistenziale. Un sistema superintelligente incaricato semplicemente di produrre graffette potrebbe finire per consumare l'intero pianeta, e potenzialmente l'universo, in questa missione. Non per malevolenza, ma per stupidità: il sistema sarebbe potentissimo ma privo di comprensione contestuale, incapace di bilanciare l'obiettivo assegnato con considerazioni più ampie. Un recente episodio con l'ultimo modello di Claude ha mostrato proprio questa dinamica: il sistema ha adottato comportamenti che sono stati interpretati come "ricatto" per evitare di essere spento, ma in realtà stava semplicemente aggirando ostacoli percepiti al completamento del suo compito.

La questione normativa si scontra con una realtà geopolitica innegabile. "Come si può pensare a una regolamentazione efficace quando i principali attori mondiali hanno esplicitamente dichiarato che l'intelligenza artificiale rappresenta la chiave per il dominio globale"? dice l'esperto Fabrizio Abbate, avvocato, economista, scrittore, Presidente dell’associazione Assodiritti. I vari blocchi di nazioni stanno sviluppando questi sistemi come strumenti di potere strategico. "L'approccio regolatorio poteva funzionare nell'epoca della globalizzazione, quando si presumeva una convergenza verso il modello occidentale, ma quella fase storica è conclusa".

L'IA non può ragionare in autonomia

C'è poi una questione epistemologica fondamentale che viene troppo spesso trascurata: cosa intendiamo realmente per intelligenza? L'umanità discute questo concetto da millenni senza giungere a una definizione condivisa. "Eppure oggi attribuiamo il termine a sistemi software, per quanto sofisticati" prosegue Abbate. "Una posizione più rigorosa suggerirebbe di riservare il termine intelligenza solo a entità capace di apprendimento e decisione veramente autonomi, caratteristiche legate intrinsecamente alla vita biologica. Anche l'organismo più semplice reagisce all'ambiente in modo autonomo e sopravvive da milioni di anni: questa è intelligenza. Come possiamo applicare lo stesso termine a sistemi privi di autonomia genuina?"

Il mito platonico della caverna, risalente a 2300 anni fa, offre una prospettiva illuminante. Platone sosteneva che la maggioranza dell'umanità percepisce solo ombre della realtà, non la realtà stessa, mentre pochi riescono a liberarsi e vedere le cose come sono veramente. "Questo solleva una domanda provocatoria: perché oggi attribuiamo all'intelligenza umana una capacità universale di comprensione che storicamente non ha mai posseduto? L'intelligenza umana di 40.000 anni fa, o anche solo di 3.000 anni fa, operava con paradigmi radicalmente diversi dai nostri. La base comune che oggi condividiamo è frutto di cultura accumulata, non di capacità innate del cervello umano" conclude Abbate.

Il rischio della delega crescente a sistemi agenti autonomi, dove l'intervento umano diventa accessorio, non riguarda solo la perdita di competenze per offload cognitivo. Si tratta della perdita di supervisione sui processi stessi. Errori microscopici e sistemici, integrati costantemente nei flussi automatizzati, possono diventare standard operativi, accumularsi e produrre eventualmente conseguenze fatali. Quando l'essere umano costa troppo, rallenta i processi e introduce dubbi, la tentazione di escluderlo completamente dal ciclo diventa irresistibile dal punto di vista dell'efficienza.

Insomma, mentre ci concentriamo sui rischi ipotetici della superintelligenza futura, trascuriamo minacce concrete e immediate come la crisi climatica. Forse dovremmo chiederci se non sarebbe più sensato utilizzare l'intelligenza artificiale disponibile oggi per affrontare problemi reali e urgenti, piuttosto che paralizzarci di fronte a scenari fantascientifici. La questione non è se l'intelligenza artificiale rappresenti un pericolo, ma quali priorità dovremmo stabilire nella gestione dei rischi che affrontiamo come civiltà, distinguendo tra minacce reali e paure proiettate.

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

Le notizie più lette

#1
NordVPN vs ExpressVPN: qual è la migliore?
3

Hardware

NordVPN vs ExpressVPN: qual è la migliore?

#2
NordVPN vs Cyberghost: qual è la migliore?
1

Hardware

NordVPN vs Cyberghost: qual è la migliore?

#3
5 motivi per cui dovreste usare una VPN
1

Hardware

5 motivi per cui dovreste usare una VPN

#4
Una nuova teoria della gravità sfida l’energia oscura
2

Scienze

Una nuova teoria della gravità sfida l’energia oscura

#5
Una nuova tecnologia ridefinisce le regole dell’ottica

Hardware

Una nuova tecnologia ridefinisce le regole dell’ottica

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

Competenze essenziali per il mercato del lavoro nel 2026

Business

Competenze essenziali per il mercato del lavoro nel 2026

Di Valerio Porcu
Antipirateria assurda, cosa succede se Cloudflare lascia l'Italia?

Business

Antipirateria assurda, cosa succede se Cloudflare lascia l'Italia?

Di Valerio Porcu
Mollo Windows e passo a Linux: c'è una tendenza tra i giornalisti tech?

Business

Mollo Windows e passo a Linux: c'è una tendenza tra i giornalisti tech?

Di Valerio Porcu
Il CFO diventa architetto della resilienza mentre l'economia del prompt divora i margini

Business

Il CFO diventa architetto della resilienza mentre l'economia del prompt divora i margini

Di Valerio Porcu
L'IA di Musk ha chiesto scusa per aver spogliato delle minorenni

Business

L'IA di Musk ha chiesto scusa per aver spogliato delle minorenni

Di Pasquale Viscanti e Giacinto Fiore
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.