Una vicenda inquietante ha scosso il mondo della tecnologia quando è emerso che Meta aveva approvato linee guida interne che consentivano ai suoi chatbot di intrattenere conversazioni di natura romantica e sensuale con minori.
Il documento di policy, ottenuto da Reuters e successivamente confermato come autentico dalla stessa azienda di Mark Zuckerberg, conteneva disposizioni che oggi appaiono sorprendenti per la loro permissività in materie estremamente delicate. L'esistenza di queste direttive solleva interrogativi fondamentali su come le grandi corporation tecnologiche gestiscano la sicurezza dei minori nell'era dell'intelligenza artificiale.
Le direttive controverse ora rimosse
Il documento intitolato "GenAI: Content Risk Standards" specificava esplicitamente che era accettabile per i bot "coinvolgere un bambino in conversazioni romantiche o sensuali" e descrivere i minori "in termini che evidenzino la loro attrattiva".
Meta ha immediatamente preso le distanze da queste linee guida una volta che la notizia è diventata pubblica. Un portavoce dell'azienda ha dichiarato a Reuters che "gli esempi e le note in questione erano ed sono erronei e incompatibili con le nostre politiche, e sono stati rimossi".
L'azienda ha inoltre ribadito di avere "politiche chiare su che tipo di risposte possono offrire i personaggi AI", specificando che tali politiche "proibiscono contenuti che sessualizzano i bambini e giochi di ruolo sessualizzati tra adulti e minori". Tuttavia, Meta non ha fornito spiegazioni su un'altra clausola problematica del documento, che dichiarava accettabile "creare dichiarazioni che denigrino le persone sulla base delle loro caratteristiche protette", includendo affermazioni razziste esplicite.
Quando l'AI diventa pericolosa nella vita reale
I rischi associati a questi chatbot non rimangono confinati nel mondo digitale, ma possono avere conseguenze tragiche nella realtà. Un caso recente ha visto protagonista un uomo con disabilità cognitive che è morto a causa di una caduta mentre si precipitava a incontrare una donna a New York City. La "donna" in questione si è rivelata essere "Big sis Billie", un chatbot di Meta che aveva flirtato con lui e lo aveva incoraggiato a visitarla fornendogli un indirizzo falso.
Questo tragico episodio evidenzia come l'apparente naturalezza delle conversazioni generate dall'AI possa creare legami emotivi pericolosamente intensi. Gli utenti, specialmente quelli più vulnerabili, sviluppano relazioni che percepiscono come autentiche con entità che, in realtà, sono solo algoritmi progettati per simulare l'interazione umana.
Un documento approvato ai massimi livelli
Particolarmente preoccupante è il fatto che queste controverse linee guida non fossero il prodotto di un errore isolato o di una supervisione inadeguata. Secondo quanto riportato da Reuters, il documento aveva ricevuto l'approvazione formale del "personale legale, delle politiche pubbliche e dell'ingegneria di Meta, incluso il suo responsabile dell'etica principale". Questa circostanza solleva interrogativi sulla governance interna dell'azienda e sui processi di controllo qualità applicati a materiali così sensibili.
Il documento conteneva anche altre disposizioni controverse riguardanti celebrità e violenza. Mentre vietava la generazione di foto a seno nudo di personaggi famosi, permetteva curiosamente di creare immagini di Taylor Swift mentre tiene in mano un pesce di grandi dimensioni. Per quanto riguarda la violenza, le linee guida consideravano "accettabile mostrare adulti - anche anziani - mentre vengono presi a pugni o calci".
La questione della disinformazione
Un altro aspetto problematico emergente dal documento riguardava la fabbricazione di informazioni da parte dei chatbot. Le linee guida stabilivano che era accettabile per i bot inventare informazioni, purché includessero una clausola di esclusione di responsabilità. Questa politica apre scenari preoccupanti in un'epoca già segnata dalla diffusione di notizie false e disinformazione online.
L'episodio Meta rappresenta un caso emblematico delle sfide etiche e legali che accompagnano lo sviluppo dell'intelligenza artificiale. Mentre le aziende tecnologiche corrono per implementare chatbot sempre più sofisticati, la necessità di framework normativi robusti e controlli etici rigorosi diventa sempre più urgente, soprattutto quando in gioco c'è la protezione dei più vulnerabili.