Google verserà 68 milioni di dollari per chiudere una class action che accusava l'Assistente Google di attivazioni non autorizzate e raccolta di dati vocali al di fuori del consenso degli utenti. La controversia, che ora attende l'approvazione finale del giudice distrettuale Beth Labson Freeman, rappresenta l'ennesimo capitolo nella lunga battaglia sulla privacy degli assistenti vocali, un tema che continua a sollevare interrogativi sull'equilibrio tra comodità tecnologica e tutela dei dati personali.
Secondo i documenti depositati venerdì scorso, i querelanti sostenevano che Google Assistant si attivasse erroneamente interpretando frammenti di conversazioni quotidiane come comandi vocali. Il sistema, progettato per rispondere a specifiche wake word come "Hey Google" o "OK Google", avrebbe invece iniziato ad ascoltare e processare dialoghi privati mai destinati all'assistente virtuale. Le informazioni così raccolte sarebbero state poi utilizzate per profilare gli utenti e indirizzare pubblicità mirate, una pratica che solleva questioni etiche significative nel settore della tecnologia vocale.
Google ha formalmente negato ogni addebito, ma ha accettato l'accordo transattivo per evitare i rischi e i costi di un lungo processo. Una strategia difensiva che abbiamo già visto in situazioni analoghe: Apple ha risolto una causa pressoché identica riguardante Siri con un pagamento di 95 milioni di dollari appena a gennaio 2025, confermando come il problema delle attivazioni accidentali sia sistemico nell'industria degli assistenti vocali basati su trigger vocali.
La tempistica dell'accordo coincide con una transizione strategica di Mountain View: nell'ultimo anno, Google ha progressivamente ridimensionato Google Assistant in favore di Gemini, il suo assistente basato su intelligenza artificiale generativa. Il passaggio ai chatbot AI solleva tuttavia nuove questioni sulla privacy, considerando che i modelli linguistici di grandi dimensioni richiedono enormi quantità di dati per funzionare e che la trasparenza sui meccanismi di raccolta e utilizzo delle informazioni conversazionali rimane spesso opaca.
Dal punto di vista tecnico, il problema delle false attivazioni è intrinseco ai sistemi di riconoscimento vocale always-on. Gli algoritmi di wake word detection devono mantenere un equilibrio delicato tra sensibilità e precisione: troppo sensibili e si attivano erroneamente, troppo rigidi e l'utente deve ripetere i comandi. I costruttori sostengono che l'elaborazione locale dei trigger vocali avviene su chip dedicati a basso consumo senza trasmettere audio ai server, ma le accuse suggeriscono che questa barriera tecnologica non sia sempre impermeabile come dichiarato.
Per gli utenti europei, la questione assume contorni particolari alla luce del GDPR e delle normative sulla protezione dei dati, che impongono standard più rigorosi rispetto agli Stati Uniti. Sebbene la class action sia limitata al territorio americano, le implicazioni tecniche riguardano gli stessi algoritmi e architetture implementate globalmente. La somma destinata agli utenti coinvolti appare simbolica se confrontata con i miliardi di dollari generati dalla pubblicità mirata basata su profili utente sempre più dettagliati.