L'intelligenza artificiale si prepara a invadere le camerette dei bambini di tutto il mondo attraverso un accordo che potrebbe ridefinire il concetto stesso di giocattolo. Mattel, il colosso americano dietro icone come Barbie, Hot Wheels e Fisher-Price, ha siglato una partnership con OpenAI per integrare ChatGPT nei propri prodotti. Mentre l'azienda promette di "stimolare la creatività" e "migliorare l'interazione", esperti e genitori si interrogano sulle implicazioni di questa rivoluzione tecnologica che trasforma semplici bambole in assistenti conversazionali alimentati da algoritmi.
La questione solleva interrogativi profondi che vanno ben oltre il semplice marketing aziendale. Secondo gli esperti del settore, fornire ai bambini accesso diretto a sistemi di intelligenza artificiale rappresenta un esperimento su scala globale privo di precedenti storici e di studi a lungo termine sui possibili effetti psicologici e sociali.
L'idea di una Barbie con ChatGPT può lasciare perplessi, di sicuro solleva qualche dubbio. Ne abbiamo parlato nel podcast Two humans in the loop". Questo articolo è infatti tratto da una conversazione in cui esploriamo l'impatto dell'AI generativa sui più piccoli e sul futuro del gioco. Per ascoltare l'analisi completa e scoprire cosa ne pensiamo, trovi la puntata del nostro podcast qui.
Il precedente di Mattel nel settore dei giocattoli connessi non è incoraggiante. Circa dieci anni fa, l'azienda aveva già commercializzato una Barbie dotata di connessione Wi-Fi capace di registrare conversazioni, riassumerle e inviare report ai genitori via email. Il prodotto, descritto da molti come una versione reale degli scenari distopici di Black Mirror, venne successivamente ritirato dal mercato a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati.
I rischi nascosti dell'interazione continua
"Il vantaggio di un assistente IA è poter parlare con lui per avere diversi punti di vista. Che non è detto siano corretti ma sono comunque differenti. Spesso partiamo da un'idea per raggiungere un fine e proseguiamo fin quando non raggiungiamo quel fine, seguendo quello che abbiamo già in testa. ChatGpt ci spinge a dover considerare anche spunti variegati. Questo è un aspetto interessante per un adulto ma che un bambino non riesce a considerare" dice Fabrizio Degni, direttore del Dipartimento di Ricerca e Innovazione di ENIA (Ente Nazionale per l’Intelligenza Artificiale).
L'aspetto più preoccupante dell'iniziativa riguarda l'impatto sulla socializzazione infantile. I bambini potrebbero sviluppare una dipendenza emotiva da questi giocattoli "intelligenti", trovando in essi un'alternativa più semplice e sempre disponibile rispetto alle relazioni umane reali. Un giocattolo che risponde sempre, è costantemente disponibile e si adatta perfettamente alle richieste del bambino rischia di compromettere lo sviluppo delle competenze sociali necessarie per affrontare la complessità delle relazioni interpersonali.
Durante la pandemia, molti genitori hanno osservato i propri figli interagire con assistenti vocali come Alexa per combattere l'isolamento forzato. Tuttavia, quella era una situazione di emergenza temporanea, mentre l'integrazione di ChatGPT nei giocattoli rappresenterebbe una condizione permanente che potrebbe alterare il modo in cui i bambini apprendono a relazionarsi con il mondo.
"È come se OpenAI voglia fare un esperimento su larga scala. La bambina e la bambola parleranno tante ore al giorno e in questo modo potrebbe anche venir meno la necessità di uscire di casa e avere amici 'veri'".
La capacità di ChatGPT di fornire risposte immediate e apparentemente autorevoli a qualsiasi domanda pone questioni etiche significative. I bambini, naturalmente inclini a considerare gli adulti e le figure autoritarie come fonti affidabili di informazione, potrebbero attribuire la stessa credibilità alle risposte generate dall'IA. Questo scenario apre la strada a potenziali manipolazioni ideologiche, considerando che i modelli linguistici riflettono inevitabilmente i bias culturali dei dati su cui sono stati addestrati.
Il problema si complica ulteriormente quando si considera l'imprevedibilità delle interazioni. Mentre gli adulti possono valutare criticamente le risposte di ChatGPT, riconoscendone i limiti e le possibili inesattezze, i bambini non possiedono ancora gli strumenti cognitivi necessari per questa valutazione critica. L'azienda ha annunciato che il prodotto sarà destinato a utenti dai 13 anni in su, ma questa limitazione appare più come una strategia di protezione legale che una reale barriera all'utilizzo da parte di bambini più piccoli.
La sfida normativa europea
L'arrivo di questi giocattoli in Europa potrebbe incontrare ostacoli significativi. Il regolamento sull'Intelligenza Artificiale dell'Unione Europea classifica come "ad alto rischio" i sistemi IA che possono influenzare emotivamente gli utenti, categoria in cui rientrerebbero chiaramente i giocattoli dotati di ChatGPT. Questa classificazione comporterebbe requisiti di trasparenza e controllo molto più stringenti, potenzialmente incompatibili con il modello di business tradizionale dei giocattoli.
La questione della raccolta dati rappresenta un ulteriore elemento critico. Nonostante le assicurazioni di OpenAI sul rispetto del GDPR, i server dell'azienda rimangono negli Stati Uniti, dove le normative sulla privacy sono meno restrittive. Inoltre, il passato di OpenAI in Europa è stato caratterizzato da alcuni passi falsi proprio in relazione alla protezione dei minori, tanto da portare a blocchi temporanei del servizio in alcuni paesi.
Gli esperti suggeriscono che un approccio responsabile richiederebbe lo sviluppo di modelli linguistici specificamente progettati per l'infanzia, addestrati con la supervisione di psicologi dello sviluppo e testati accuratamente prima della commercializzazione. Tuttavia, questi processi comporterebbero costi significativi che le multinazionali potrebbero essere riluttanti ad affrontare per preservare i margini di profitto.
"Servirebbe uno small language model", molto piccolo, addestrato solo per conversazioni con i più piccoli, magari creato anche con la supervisione di psicologi. Dopo un certo periodo di test si potrebbe valutare l'introduzione di un modello simile su un giocattolo. Adesso non solo è qualcosa di profondamente irresponsabile ma anche dagli effetti collaterali non prevedibili per l'assenza di studi a lungo termine sulle conseguenze" prosegue Degni.
L'utilizzo di strumenti di intelligenza artificiale per la creazione di contenuti è ormai diffuso anche tra i professionisti, ma richiede sempre la supervisione umana. Un recente episodio che ha coinvolto il presidente della Regione Sicilia, Renato Schifani, dimostra come la pubblicazione di contenuti generati dall'IA senza un'adeguata revisione possa portare a figuracce pubbliche. Il messaggio è chiaro: l'intelligenza artificiale può essere un potente strumento di supporto, ma l'elemento umano rimane indispensabile nel processo di controllo e validazione.
Mentre Mattel e OpenAI procedono con i loro piani commerciali, la comunità scientifica e i regolatori europei si preparano a valutare attentamente le implicazioni di questa nuova frontiera tecnologica. La sfida consiste nel bilanciare l'innovazione con la protezione dell'infanzia, evitando di trasformare i bambini in inconsapevoli cavie di un esperimento sociale dalle conseguenze imprevedibili.