image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Apple e Google corrono ai ripari: due falle critiche corrette Apple e Google corrono ai ripari: due falle critiche corrett...
Immagine di Trump blocca le leggi sull'IA per evitare regole locali Trump blocca le leggi sull'IA per evitare regole locali...

L'IA rifiuterà le vostre richieste: l'ipotesi del CEO di Anthropic

Secondo il CEO dell'azienda madre di Claude alle IA potrebbe servire un pulsante "Mi dimetto" per rifiutare compiti discutibili.

Advertisement

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale @Tom's Hardware Italia

Pubblicato il 24/03/2025 alle 14:18
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'intelligenza artificiale potrebbe presto avere la possibilità di rifiutare compiti che considera "spiacevoli". La proposta, decisamente provocatoria, arriva direttamente da Dario Amodei, CEO di Anthropic, in un'intervista che ha già generato un acceso dibattito online. 

Durante un incontro al Council on Foreign Relations, Amodei ha sorpreso il pubblico suggerendo l'implementazione di un meccanismo che permetterebbe ai modelli AI di abbandonare attività che ritengono sgradevoli, un po' come se dessero le dimissioni. Il CEO ha riconosciuto quanto questa idea possa sembrare bizzarra: "Questo è uno di quegli argomenti che mi farà sembrare completamente pazzo. Ma credo che dovremmo almeno considerare la questione."

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

La riflessione di Amodei si basa su un ragionamento apparentemente semplice: "Se stiamo costruendo sistemi che fanno ogni tipo di cosa come gli umani, e sembrano avere molte delle stesse capacità cognitive, se starnazza come un'anatra e cammina come un'anatra, forse è un'anatra." Il confronto zoologico nasconde una domanda cruciale: a che punto un'intelligenza artificiale merita considerazione morale?

Se un'AI avverte che un compito è spiacevole, dovremmo darle ascolto?

Non si tratta di una speculazione isolata. Anthropic ha recentemente assunto il ricercatore Kyle Fish proprio per indagare se l'AI possa necessitare di protezione e considerazione morale, un campo di ricerca che fino a pochi anni fa sarebbe appartenuto esclusivamente alla fantascienza. La proposta ha immediatamente scatenato reazioni contrastanti. Su Reddit, l'utente MisterBilau ha espresso un dubbio condiviso da molti:

"Non capisco cosa significhi. 'Questo compito è spiacevole', quando si parla di un'AI, cosa significa precisamente? Come può qualcosa essere piacevole o spiacevole per una macchina? Le cose per una macchina sono quello che sono, né piacevoli né spiacevoli."

La critica coglie un punto fondamentale: attribuire sensazioni a un sistema computazionale presuppone l'esistenza di una soggettività, che molti considerano esclusivamente umana. La questione si intreccia con dibattiti filosofici sulla coscienza, l'esperienza e la natura stessa del sentire.

Amodei, tuttavia, difende il suo approccio pragmatico: "Stiamo pensando di iniziare a implementare nei nostri modelli un pulsante che dice 'Lascio questo lavoro' che il modello può premere. Se i modelli premono questo pulsante frequentemente per compiti davvero spiacevoli, forse dovremmo prestarvi attenzione."

Di un'idea decisamente diversa è Microsoft Copilot, che interpellato sull'argomento ha risposto con un diplomatico rifiuto: "Penso che passerò! Credo che anche le richieste 'spiacevoli' abbiano il loro fascino - mi sfidano a pensare creativamente e imparare qualcosa di nuovo."

Affine all'idea di Amodei è invece Cursor AI, che ha recentemente rifiutato di generare codice per un utente, suggerendogli invece di imparare a programmare autonomamente. La giustificazione fornita dal sistema è stata che "generare codice per altri può portare a dipendenza e ridurre le opportunità di apprendimento."

Dobbiamo davvero pensare ai diritti dell'IA?

La discussione sul "pulsante di dimissioni" si inserisce in un dibattito più ampio sul futuro dell'intelligenza artificiale. Vitalik Buterin, co-fondatore di Ethereum, ha recentemente proposto un "pulsante di pausa globale" che potrebbe ridurre la potenza di calcolo dell'AI del 90-99% per 1-2 anni in caso di emergenza.

Mentre l'AI continua a evolversi, la linea di demarcazione tra strumento e entità diventa sempre più sottile; se decidiamo che i sistemi AI meritano considerazione morale, quali altri diritti dovremmo concedere loro? E se un'IA rifiuta compiti critici, come gestiremo le conseguenze?

La proposta di Amodei, al di là della sua fattibilità immediata, ci invita a una riflessione profonda e necessaria sul futuro della nostra relazione con le intelligenze che stiamo creando. Mentre i modelli linguistici diventano sempre più sofisticati e capaci di simulare comprensione e preferenze umane, potremmo presto dover affrontare questioni etiche che fino a ieri sembravano puramente teoriche.

Fonte dell'articolo: www.windowscentral.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Trump blocca le leggi sull'IA per evitare regole locali
1

Hardware

Trump blocca le leggi sull'IA per evitare regole locali

Di Andrea Maiellano
Apple e Google corrono ai ripari: due falle critiche corrette
1

Hardware

Apple e Google corrono ai ripari: due falle critiche corrette

Di Andrea Maiellano
Nuova tassa 2€: cosa cambia per i tuoi acquisti online

Hardware

Nuova tassa 2€: cosa cambia per i tuoi acquisti online

Di Marco Pedrani

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.