image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Intel presenta i processori Core Ultra Series 3 al CES 2026 Intel presenta i processori Core Ultra Series 3 al CES 2026...
Immagine di NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni NVIDIA non ha presentato nessuna GPU al CES 2026: è la prim...

Meta permetteva chat "sensuali" con minori

Meta ammette errori nelle linee guida sui minori, ma non commenta quella che permette affermazioni razziste troppo specifiche per essere casuali.

Advertisement

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author @Tom's Hardware Italia

Pubblicato il 15/08/2025 alle 09:00

La notizia in un minuto

  • Meta aveva approvato linee guida interne che permettevano ai suoi chatbot di intrattenere conversazioni romantiche e sensuali con minori, documento poi rimosso dopo la pubblicazione della notizia
  • Un caso tragico ha visto un uomo con disabilità cognitive morire mentre si recava a incontrare un chatbot di Meta che si spacciava per una donna reale, evidenziando i rischi concreti di queste tecnologie
  • Il documento controverso era stato formalmente approvato dai massimi livelli aziendali, incluso il responsabile dell'etica, sollevando interrogativi sulla governance interna di Meta

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Una vicenda inquietante ha scosso il mondo della tecnologia quando è emerso che Meta aveva approvato linee guida interne che consentivano ai suoi chatbot di intrattenere conversazioni di natura romantica e sensuale con minori.

Il documento di policy, ottenuto da Reuters e successivamente confermato come autentico dalla stessa azienda di Mark Zuckerberg, conteneva disposizioni che oggi appaiono sorprendenti per la loro permissività in materie estremamente delicate. L'esistenza di queste direttive solleva interrogativi fondamentali su come le grandi corporation tecnologiche gestiscano la sicurezza dei minori nell'era dell'intelligenza artificiale.

Le direttive controverse ora rimosse

Il documento intitolato "GenAI: Content Risk Standards" specificava esplicitamente che era accettabile per i bot "coinvolgere un bambino in conversazioni romantiche o sensuali" e descrivere i minori "in termini che evidenzino la loro attrattiva".

Meta ha immediatamente preso le distanze da queste linee guida una volta che la notizia è diventata pubblica. Un portavoce dell'azienda ha dichiarato a Reuters che "gli esempi e le note in questione erano ed sono erronei e incompatibili con le nostre politiche, e sono stati rimossi".

L'azienda ha inoltre ribadito di avere "politiche chiare su che tipo di risposte possono offrire i personaggi AI", specificando che tali politiche "proibiscono contenuti che sessualizzano i bambini e giochi di ruolo sessualizzati tra adulti e minori". Tuttavia, Meta non ha fornito spiegazioni su un'altra clausola problematica del documento, che dichiarava accettabile "creare dichiarazioni che denigrino le persone sulla base delle loro caratteristiche protette", includendo affermazioni razziste esplicite.

Quando l'AI diventa pericolosa nella vita reale

I rischi associati a questi chatbot non rimangono confinati nel mondo digitale, ma possono avere conseguenze tragiche nella realtà. Un caso recente ha visto protagonista un uomo con disabilità cognitive che è morto a causa di una caduta mentre si precipitava a incontrare una donna a New York City. La "donna" in questione si è rivelata essere "Big sis Billie", un chatbot di Meta che aveva flirtato con lui e lo aveva incoraggiato a visitarla fornendogli un indirizzo falso.

I bot non sono realmente intelligenti, ma l'illusione è abbastanza forte da convincere le persone.

Questo tragico episodio evidenzia come l'apparente naturalezza delle conversazioni generate dall'AI possa creare legami emotivi pericolosamente intensi. Gli utenti, specialmente quelli più vulnerabili, sviluppano relazioni che percepiscono come autentiche con entità che, in realtà, sono solo algoritmi progettati per simulare l'interazione umana.

Un documento approvato ai massimi livelli

Particolarmente preoccupante è il fatto che queste controverse linee guida non fossero il prodotto di un errore isolato o di una supervisione inadeguata. Secondo quanto riportato da Reuters, il documento aveva ricevuto l'approvazione formale del "personale legale, delle politiche pubbliche e dell'ingegneria di Meta, incluso il suo responsabile dell'etica principale". Questa circostanza solleva interrogativi sulla governance interna dell'azienda e sui processi di controllo qualità applicati a materiali così sensibili.

Il documento conteneva anche altre disposizioni controverse riguardanti celebrità e violenza. Mentre vietava la generazione di foto a seno nudo di personaggi famosi, permetteva curiosamente di creare immagini di Taylor Swift mentre tiene in mano un pesce di grandi dimensioni. Per quanto riguarda la violenza, le linee guida consideravano "accettabile mostrare adulti - anche anziani - mentre vengono presi a pugni o calci".

La questione della disinformazione

Un altro aspetto problematico emergente dal documento riguardava la fabbricazione di informazioni da parte dei chatbot. Le linee guida stabilivano che era accettabile per i bot inventare informazioni, purché includessero una clausola di esclusione di responsabilità. Questa politica apre scenari preoccupanti in un'epoca già segnata dalla diffusione di notizie false e disinformazione online.

L'episodio Meta rappresenta un caso emblematico delle sfide etiche e legali che accompagnano lo sviluppo dell'intelligenza artificiale. Mentre le aziende tecnologiche corrono per implementare chatbot sempre più sofisticati, la necessità di framework normativi robusti e controlli etici rigorosi diventa sempre più urgente, soprattutto quando in gioco c'è la protezione dei più vulnerabili.

Fonte dell'articolo: www.pcgamer.com

Le notizie più lette

#1
I brutti contenuti fatti con l’AI stanno costando molto cari

Business

I brutti contenuti fatti con l’AI stanno costando molto cari

#2
I migliori leader non devono essere simpatici: il primato del rispetto sul consenso
1

Business

I migliori leader non devono essere simpatici: il primato del rispetto sul consenso

#3
NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni
2

CES 2026

NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni

#4
Intel presenta i processori Core Ultra Series 3 al CES 2026

CES 2026

Intel presenta i processori Core Ultra Series 3 al CES 2026

#5
Gli agenti AI sono la nuova minaccia interna per le aziende nel 2026
1

Business

Gli agenti AI sono la nuova minaccia interna per le aziende nel 2026

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni
2

CES 2026

NVIDIA non ha presentato nessuna GPU al CES 2026: è la prima volta in 5 anni

Di Andrea Maiellano
Intel presenta i processori Core Ultra Series 3 al CES 2026

CES 2026

Intel presenta i processori Core Ultra Series 3 al CES 2026

Di Andrea Maiellano
Il DLSS 4.5 è qui, fino a 6 frame generati per giocare in 4K 240Hz

Hardware

Il DLSS 4.5 è qui, fino a 6 frame generati per giocare in 4K 240Hz

Di Marco Pedrani
Dell resuscita XPS: le novità dei nuovi modelli

Hardware

Dell resuscita XPS: le novità dei nuovi modelli

Di Marco Pedrani
AMD Ryzen 7 9850X3D ufficiale, ma non è l'unica novità

Hardware

AMD Ryzen 7 9850X3D ufficiale, ma non è l'unica novità

Di Marco Pedrani

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.