Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di IA, migliaia di lavoratori a basso costo subiscono danni da stress
Business
Immagine di Vince una RTX 5060 in viaggio di lavoro, finisce che si licenzia Vince una RTX 5060 in viaggio di lavoro, finisce che si lice...
Immagine di L'altra faccia dello Smart Working: il costo sulla salute L'altra faccia dello Smart Working: il costo sulla salute...

IA, migliaia di lavoratori a basso costo subiscono danni da stress

L'ascesa dell'AI generativa è sostenuta da milioni di lavoratori, spesso sottopagati e senza tutele, che etichettano dati sensibili in condizioni che la sociologia definisce una "sottoclasse digitale".

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 20/10/2025 alle 12:01
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

L'efficacia e la raffinatezza degli attuali modelli di Intelligenza Artificiale (IA) generativa, da ChatGPT in poi, poggiano su una massiccia infrastruttura di lavoro umano. Dietro i risultati che stupiscono per coerenza e naturalezza si cela infatti il lavoro gravoso e spesso invisibile dei "data labeller", persone incaricate di classificare, annotare e verificare migliaia di dati grezzi, comprese immagini di scene del crimine o conversazioni con chatbot su tematiche traumatiche.

Questa forza lavoro, essenziale per l'apprendimento automatico, opera in un regime di scarsissime tutele, con compensi che in alcuni casi sono stati paragonati alla "schiavitù moderna".

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Il settore del data-labeling, che nel 2024 valeva 3,8 miliardi di dollari, è in rapida crescita e si prevede superi i 17 miliardi entro cinque anni. È un mercato che, per natura, delega compiti complessi a una "sottoclasse digitale", spesso composta da giovani lavoratori con un buon livello di istruzione in paesi a basso reddito. Il loro ruolo è critico: definiscono non solo gli input per i modelli di IA, ma anche la qualità e l'accuratezza degli output, intervenendo anche per evitare contenuti violenti o non etici.

Tuttavia, l'esposizione costante a materiale altamente traumatico, come cadaveri o istruzioni per atti violenti, ha causato problemi di salute mentale tra i lavoratori, i quali denunciano una mancanza di supporto adeguato.

Il prezzo della specializzazione e la lotta per i diritti

Mentre la tecnologia avanza e i modelli come ChatGPT diventano più sofisticati, la necessità di conoscenze specialistiche per informare e giudicare le loro risposte in ambiti come la chimica, la matematica o le lingue meno comuni aumenta.

Aziende come Scale AI, che ha tra i suoi clienti OpenAI e Microsoft, offrono paghe più alte, dai 30 ai 50 dollari all'ora, per esperti in materie specifiche. Ciononostante, la maggior parte dei "taskers" è inquadrata come collaboratore indipendente, priva di protezioni contrattuali e soggetta a licenziamenti improvvisi o alla mancata ricezione dello stipendio.

Siamo come fantasmi. Nessuno sa che esistiamo, anche se stiamo contribuendo al progresso tecnologico della società.

Iniziative come la Data Labelers Association (DLA) in Kenya spingono per l'adozione di un codice di condotta che includa contratti di lavoro, equo compenso e supporto psicologico. Le loro richieste, tuttavia, si scontrano con le pratiche delle grandi tech company che spesso si nascondono dietro subcontractor. Le azioni legali, tra cui diverse cause negli Stati Uniti contro Scale AI per presunto furto di salario e mancata classificazione dei lavoratori come dipendenti, sollevano un interrogativo cruciale sulla governance etica della filiera AI.

La sua analisi è costantemente in equilibrio tra il riconoscimento dell'enorme potenziale della tecnologia e la lucida consapevolezza dei rischi.

La stessa OpenAI, pur dichiarando di avere regole severe sui suoi subappaltatori in merito a sicurezza sul lavoro e retribuzione equa, opera in un contesto in cui il suo principale fornitore è stato citato in giudizio per le condizioni dei lavoratori. Il tema dei deepfake a sfondo sessuale è solo una delle conseguenze non etiche che si cercano di mitigare con questo lavoro umano.

L'angolo cieco della regolamentazione

La resistenza dei lavoratori a queste condizioni ha portato a episodi di ritorsione, come il licenziamento di quasi 250 dipendenti di un subappaltatori di Google. Questo dimostra come le aziende cerchino "annotatori docili", ostacolando la lotta sindacale per diritti basilari come ferie, malattie pagate e assistenza sanitaria.

Nonostante i tentativi di regolamentazione, anche in Europa, la legislazione sull'IA presenta ancora "lacune" che non menzionano esplicitamente i click worker. 

È un paradosso: la ricerca di un'intelligenza artificiale sempre più umana e priva di bias (almeno nei nostri desideri) si traduce in un sistema che dipende da un lavoro disumanizzato e sfruttato. Fino a che punto possiamo ignorare la sofferenza nella catena di approvvigionamento dell'IA, prima che la questione etica si trasformi in un rischio reputazionale e legale insostenibile?

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

L'altra faccia dello Smart Working: il costo sulla salute

Business

L'altra faccia dello Smart Working: il costo sulla salute

Di Andrea Ferrario
Vince una RTX 5060 in viaggio di lavoro, finisce che si licenzia
5

Business

Vince una RTX 5060 in viaggio di lavoro, finisce che si licenzia

Di Valerio Porcu
Codice difettoso manda in tilt app da 350mila utenti
1

Business

Codice difettoso manda in tilt app da 350mila utenti

Di Valerio Porcu
No, non puoi sottovalutare la sicurezza fisica della rete
1

Business

No, non puoi sottovalutare la sicurezza fisica della rete

Di Antonino Caffo
Europa si piega agli USA sulla politica tech

Business

Europa si piega agli USA sulla politica tech

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.