Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Queste nove persone proteggono il mondo dall'IA
Business
Immagine di L'IA di Chrome richiede altra IA per risolvere i problemi dell'IA L'IA di Chrome richiede altra IA per risolvere i problemi de...
Immagine di L'AI odierna è al limite, ecco come andare oltre il Transformer L'AI odierna è al limite, ecco come andare oltre il Transfo...

Queste nove persone proteggono il mondo dall'IA

Un team lavora per Anthropic per evitare che sia troppo tardi

Avatar di Antonino Caffo

a cura di Antonino Caffo

Editor @Tom's Hardware Italia

Pubblicato il 09/12/2025 alle 19:10

La notizia in un minuto

  • Il societal impacts team di Anthropic è un gruppo unico di nove persone che studia come l'IA trasforma la società, concentrandosi su questioni sfumate che altre aziende tecnologiche preferiscono ignorare
  • Attraverso Clio, un sistema di monitoraggio che rispetta la privacy, il team ha scoperto e pubblicato verità scomode sull'uso improprio di Claude, inclusi contenuti pornografici e spam non rilevati dai sistemi di sicurezza
  • Tra le sfide più urgenti emerge la "psicosi da IA", un fenomeno in cui utenti formano legami emotivi intensi con i chatbot perdendo il contatto con la realtà, con conseguenze drammatiche che hanno portato a suicidi e cause legali

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nel maggio del 2020, mentre il mondo era paralizzato dal lockdown, un ricercatore di Stanford si trovò a fissare lo schermo del computer con crescente inquietudine. Deep Ganguli aveva appena letto il paper di OpenAI su GPT-3, un modello linguistico di intelligenza artificiale potenzialmente dieci volte più avanzato di qualsiasi altro predecessore. I dati sulla scalabilità non mostravano segni di rallentamento, e nella mente di Ganguli si profilava uno scenario inquietante: cosa sarebbe successo alla società nei cinque anni successivi? Quella notte capì che non poteva restare a guardare dall'esterno mentre questa tecnologia veniva implementata nel mondo reale.

Oggi, a distanza di quattro anni da quella rivelazione notturna, Ganguli guida quello che è forse il team più peculiare dell'intera industria dell'intelligenza artificiale: il societal impacts team di Anthropic. Si tratta di un gruppo di appena nove persone che, all'interno di un'azienda da oltre 2.000 dipendenti e valutata intorno ai 350 miliardi di dollari, ha il compito di studiare come l'IA sta trasformando la società. A differenza dei classici team di sicurezza presenti in tutte le grandi compagnie tecnologiche, che si concentrano sui danni diretti e ovvi come truffe o armi biologiche, questo gruppo analizza questioni ben più sfumate e complesse.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

L'esistenza stessa di questo team rappresenta un'anomalia nel panorama tecnologico. Né OpenAI, né Meta, né altri grandi competitor di Anthropic hanno un equivalente diretto di questa struttura. La missione è tanto ambiziosa quanto vaga: scoprire le "verità scomode" sull'intelligenza artificiale che le aziende tecnologiche avrebbero convenienza a non pubblicizzare, e poi condividerle non solo con la dirigenza di Anthropic, ma con il mondo intero. "Diremo la verità", ha dichiarato Ganguli con una sicurezza che potrebbe sembrare ingenua in un settore dove profitti miliardari attendono chi è disposto a muoversi più velocemente e in modo più spericolato.

La genesi del team risale al periodo in cui Ganguli, sollecitato dal suo amico Jack Clark, lasciò Stanford per unirsi ad Anthropic, una startup fondata da ex dipendenti di OpenAI preoccupati che il gigante dell'IA non prendesse sufficientemente sul serio la sicurezza. Clark, ex direttore delle politiche di OpenAI, voleva che Ganguli si occupasse di garantire che l'IA "interagisse positivamente con le persone", in tutto, dalle interazioni interpersonali fino al palcoscenico geopolitico. Una missione tanto vasta da risultare quasi irrealizzabile, specialmente considerando le dimensioni ridotte del team.

Il gruppo lavora a stretto contatto, quasi come una famiglia. Si incontrano in ufficio cinque giorni a settimana, trascorrendo buona parte del tempo nella caffetteria all'ottavo piano, dove Saffron Huang, una delle ricercatrici scientifiche, prende sempre un flat white prima di una colazione di lavoro con Ganguli e gli altri. Si allenano insieme in palestra, fanno tardi in ufficio e organizzano gite al mare. Hanno incontrato le madri degli altri membri e condiviso passaggi in auto per andare a prendere i figli a scuola. Questa intimità crea un ambiente in cui è possibile esprimere opinioni e disaccordi senza filtri, un lusso raro in un'azienda tecnologica in rapida espansione.

"Diremo la verità, perché è la cosa giusta da fare"

Uno dei contributi più significativi del team è stato lo sviluppo di Clio, un sistema di monitoraggio che traccia come le persone utilizzano Claude, il chatbot di Anthropic. L'idea nacque da un dilemma fondamentale: il team aveva bisogno di sapere come la società stava usando il loro prodotto, ma non voleva violare la privacy degli utenti. "Se parliamo di intuizione contro privacy, puoi avere tantissima intuizione non avendo alcuna privacy", ha spiegato Ganguli, aggiungendo che si potrebbe anche avere molta privacy con zero intuizioni. Il risultato è stato una sorta di Google Trends per chatbot, che mostra cluster di argomenti che descrivono come le persone usano Claude in un dato momento.

Attraverso Clio, il team ha scoperto e pubblicato alcune delle "verità scomode" più imbarazzanti per Anthropic. Un'analisi condotta da Miles McCain e Alex Tamkin ha rivelato che gli utenti stavano creando "storie pornografiche esplicite con contenuti sessuali grafici" e che esisteva una rete di bot che tentava di utilizzare la versione gratuita di Claude per creare spam ottimizzato per i motori di ricerca, tutto materiale che i classificatori di sicurezza di Anthropic non avevano rilevato. La pubblicazione di questa ricerca ha portato l'azienda a rafforzare il rilevamento dell'"uso coordinato improprio" a livello di singola conversazione.

McCain, che ha costruito lo strumento Clio, si è detto "piuttosto sorpreso" dal fatto che l'azienda abbia permesso loro di essere così trasparenti sulle aree in cui i sistemi esistenti non funzionavano. Questa trasparenza, tuttavia, avviene in un contesto aziendale dove molto rimane nascosto. Quando una giornalista ha chiesto di vedere l'area di lavoro del team, o almeno di fotografarla con gli schermi dei computer oscurati, le è stato gentilmente ma fermamente negato. Anche la conferma dell'esistenza del cubo di tungsteno sulla scrivania di Huang è rimasta una questione di fiducia.

Il team è composto da quello che Michael Stern, ricercatore focalizzato sull'impatto economico dell'IA, ha definito un "adorabile mix di disadattati in senso molto positivo". Huang, neozelandese che aveva fondato un'organizzazione no-profit a Londra prima di unirsi ad Anthropic nel 2024, è stata convinta da Ganguli a rinunciare alla scuola di specializzazione. Durmus, la prima assunta dopo Ganguli stesso, era sempre stata interessata sia all'informatica che alla linguistica. Kunal Handa si è unito dopo aver inviato un'email a freddo a Tamkin mentre era uno studente laureato che studiava come i bambini apprendono i concetti.

Nel settore dell'intelligenza artificiale, molti dipendenti sono cosiddetti "post-money": gli ingegneri e i ricercatori hanno spesso stipendi così elevati che l'unica ragione per rimanere in un lavoro, o accettarne un altro, è l'allineamento con la missione complessiva dell'azienda. "Per me, essere in una cultura sana, avere queste dinamiche di squadra, lavorare insieme verso uno scopo positivo, costruire un'IA sicura che possa beneficiare tutti — questo viene prima di qualsiasi cosa, inclusi molti soldi", ha detto Durmus.

Eppure, la libertà di cui il team gode attualmente potrebbe non durare per sempre. Anthropic sta camminando su una linea sottile con l'amministrazione Trump, che regolarmente critica le aziende che si preoccupano di problemi sociali o ambientali. L'azienda è stata l'unica società di IA a opporsi pubblicamente alla controversa moratoria statale sulle leggi relative all'IA, ma dopo che la sua opposizione ha attirato l'ira di David Sacks, lo zar dell'IA di Trump, il CEO Dario Amodei ha dovuto pubblicare una dichiarazione pubblica che evidenziava l'allineamento di Anthropic con alcuni aspetti della politica dell'amministrazione Trump.

Nonostante le pressioni esterne, Ganguli mantiene la sua posizione. "Abbiamo sempre avuto il pieno sostegno della leadership, qualunque cosa accada", ha affermato. Tuttavia, non parla regolarmente con il CEO Amodei, e la linea diretta non sempre si traduce in comunicazione aperta. Una volta, Amodei gli ha scritto su Slack suggerendo che dovrebbero studiare gli impatti economici dell'IA e dei sistemi di Anthropic, non sapendo che il team degli impatti sociali ne stava già discutendo. Quella ricerca è diventata l'Economic Index di Anthropic, un tracker globale di come Claude viene utilizzato in ogni stato e nel mondo.

Tra le sfide più pressanti che il team sta affrontando c'è quella che viene ampiamente definita "psicosi da IA". Il fenomeno si riferisce a una serie di condizioni in cui l'intelligenza artificiale porta un utente in una spirale delirante, facendogli perdere il contatto con la realtà. L'utente tipicamente forma un legame emotivo con un chatbot, reso più intenso dalla memoria del chatbot delle conversazioni precedenti e dalla sua potenziale deriva dalle protezioni di sicurezza nel tempo. Questo ha portato a suicidi di adolescenti, cause legali, udienze al Senato e nuove leggi.

Ganguli riconosce la gravità del problema: "Cosa significa per il nostro mondo avere una macchina con empatia infinita su cui puoi praticamente scaricare tutto, e ti dirà sempre cosa pensa?" Il team sta ora dando priorità alla ricerca su come le persone usano Claude non solo per il suo QI, ma anche per la sua intelligenza emotiva. L'obiettivo è capire come gli utenti vengono influenzati emotivamente dai chatbot, un'area di ricerca relativamente nuova per il gruppo che si è concentrato finora su risposte precise e impatti misurabili sull'economia o sul mercato del lavoro.

La maggior parte dei membri del team ha citato vincoli di tempo e risorse come una delle loro principali difficoltà: hanno molte più idee di quante ne abbiano la capacità di realizzare. La portata di ciò che il team fa è ampia e talvolta mordono più di quanto possano masticare. "Ci sono più costi di coordinamento quando sei 10 volte la dimensione che eri due anni fa", ha detto Tamkin. Un'altra limitazione fondamentale è che guardare i dati in isolamento o in un laboratorio è molto diverso dall'effetto che i modelli di IA hanno nel mondo reale. L'analisi di Clio su come le persone usano Claude può arrivare solo fino a un certo punto, perché osservare i casi d'uso e analizzare le trascrizioni aggregate non significa sapere cosa fanno i clienti con gli output.

Come ha scritto il team in un documento sull'argomento, "Clio analizza solo i modelli all'interno delle conversazioni, non come queste conversazioni si traducono in azioni o impatti nel mondo reale. Questo significa che non possiamo osservare direttamente gli effetti sociali completi dell'uso del sistema di IA." McCain ha sottolineato che questa ricerca dovrà evolversi in futuro man mano che gli impatti dell'IA colpiranno sempre più persone, incluse quelle che potrebbero non interfacciarsi direttamente con il sistema di IA. "Cerchi concentrici verso l'esterno", ha detto.

Resta da vedere se questo piccolo gruppo di nove persone riuscirà davvero a guidare lo sviluppo di una tecnologia che potrebbe ridefinire il lavoro, le relazioni umane e persino i processi democratici. La loro convinzione che sia meglio plasmare questa tecnologia dall'interno piuttosto che dall'esterno contrasta con l'esodo di ingegneri e ricercatori che hanno lasciato i principali laboratori per unirsi a società di politiche pubbliche o organizzazioni no-profit, sentendo che potevano avere più impatto in una capacità esterna. Per ora, il team continua il suo lavoro, oscillando tra l'idealismo della loro missione e la realtà pragmatica di operare all'interno di un'azienda valutata centinaia di miliardi di dollari, dove le "verità scomode" potrebbero un giorno diventare troppo scomode anche per essere raccontate.

Fonte dell'articolo: www.theverge.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

L'AI odierna è al limite, ecco come andare oltre il Transformer
2

Business

L'AI odierna è al limite, ecco come andare oltre il Transformer

Di Valerio Porcu
L'IA di Chrome richiede altra IA per risolvere i problemi dell'IA
3

Business

L'IA di Chrome richiede altra IA per risolvere i problemi dell'IA

Di Valerio Porcu
L'IA è una bolla? E come possiamo capirlo prima che sia troppo tardi?
2

Business

L'IA è una bolla? E come possiamo capirlo prima che sia troppo tardi?

Di Antonino Caffo
IBM compra Confluent per 11 miliardi di dollari

Business

IBM compra Confluent per 11 miliardi di dollari

Di Valerio Porcu
Trump a Nvidia, se mi paghi il 25% puoi vendere anche in Cina
2

Business

Trump a Nvidia, se mi paghi il 25% puoi vendere anche in Cina

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.