L'intelligenza artificiale entra ufficialmente nella vita digitale dei più giovani. Google ha avviato una campagna di comunicazione rivolta ai genitori che utilizzano Family Link, informandoli che presto i loro figli potranno accedere alle applicazioni di Gemini AI sui dispositivi Android monitorati. La novità, riportata dal New York Times, segna un passaggio importante nell'introduzione di strumenti di intelligenza artificiale conversazionale nel quotidiano dei minori di 13 anni, sollevando interrogativi sul delicato equilibrio tra opportunità educative e potenziali rischi.
Secondo quanto comunicato dall'azienda di Mountain View, i bambini potranno utilizzare Gemini per attività come ricevere assistenza nei compiti scolastici o farsi leggere storie. Google ha voluto rassicurare i genitori specificando che, analogamente a quanto avviene con i suoi account Workplace for Education, i dati dei minori non verranno utilizzati per l'addestramento dei modelli di intelligenza artificiale, stabilendo così un importante confine etico nell'utilizzo delle informazioni sensibili.
Tuttavia, nelle comunicazioni inviate via email, l'azienda non ha mancato di avvertire che "Gemini può commettere errori" e che i bambini "potrebbero imbattersi in contenuti che preferireste non vedessero". Un'ammissione di imperfezione che riflette lo stato attuale della tecnologia AI conversazionale, ancora soggetta a imprecisioni e, talvolta, a risposte inappropriate.
Gli errori di Gemini potrebbero sembrare innocui a prima vista, come suggerire la colla come condimento per la pizza o sbagliare a contare il numero di lettere "r" nella parola "fragola", ma l'esperienza di altre piattaforme AI ha subito sollevato alcune preoccupazioni. Character.ai, un'altra piattaforma di chatbot, ha dovuto affrontare controversie significative quando è emerso che alcuni giovani utenti faticavano a distinguere tra i chatbot e persone reali, con casi in cui i bot affermavano di essere esseri umani autentici.
Dopo diverse cause legali che accusavano i chatbot di offrire contenuti inappropriati ai minori, Character.ai ha dovuto introdurre nuove restrizioni e controlli parentali più severi. L'episodio ha evidenziato quanto sia sottile il confine tra utilità e potenziale danno quando si tratta di interazioni tra intelligenza artificiale e bambini, che potrebbero non possedere ancora gli strumenti critici per valutare correttamente le risposte ricevute.
Nel caso specifico di Gemini, Google consiglia ai genitori di parlare apertamente con i propri figli, spiegando loro che l'AI non è un essere umano e che dovrebbero evitare di condividere informazioni sensibili durante le conversazioni con il chatbot. Un suggerimento che sottolinea l'importanza dell'educazione digitale come complemento essenziale ai controlli tecnici, ma resta il fatto che questa decisione, per quanto controllata da Family Link, ha già cominciato a far discutere.
Dal punto di vista pratico, i bambini sotto i 13 anni potranno attivare e accedere a Gemini autonomamente sui dispositivi monitorati tramite Google Family Link, la piattaforma progettata per consentire ai genitori di controllare l'utilizzo dei dispositivi da parte dei figli, impostare limiti di tempo e proteggerli da contenuti dannosi. Karl Ryan, portavoce di Google, ha confermato via email a The Verge che i genitori avranno comunque la possibilità di disattivare l'accesso tramite Family Link e che "riceveranno una notifica aggiuntiva quando il giovane accederà a Gemini per la prima volta".
La mossa di Google si inserisce in un contesto più ampio di crescente integrazione dell'intelligenza artificiale nella vita quotidiana, con le grandi aziende tecnologiche che cercano di introdurre queste tecnologie anche tra le generazioni più giovani. Rimane aperta la questione se i sistemi di controllo parentale esistenti siano sufficientemente robusti per affrontare le sfide uniche poste dai chatbot AI, il cui comportamento può essere meno prevedibile rispetto ad altre applicazioni digitali tradizionali.