Google ammette: con l'iPhone abbiamo barato

Google ammette di aver violato le regole di Apple per sviluppare la ricerca vocale su iPhone, usando API non presenti sul SDK.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

La funzione di ricerca vocale ha richiamato moltissima attenzione: basta avvicinare il telefono all'orecchio, infatti, per attivare la funzione di ricerca, grazie al sensore di prossimità. Il problema è che questo tipo di funzione non è attivabile usando l'SDK, nel quale non sono presenti API per sfruttare il sensore. Google, in altre parole, ha usato API non documentate, seppure conosciute, per attivare il sensore.

Il sensore serve a disattivare lo schermo quando si usa il telefono, per evitare di interrompere la chiamata accidentalmente, per un contatto tra schermo e viso. Qualcuno, però, aveva notato qualche stranezza, confrontando il lavoro di Google con le regole imposte da Apple.

Google ammette la colpa, e aggiunge di aver affrontato gli stessi rischi di qualsiasi altro sviluppatore, nella speranza che Apple non rifiutasse l'applicazione, né modificasse l'accesso al sensore. In questi casi, infatti, il codice dovrebbe essere riscritto, e non si escluderebbe la possibilità di mettere mano all'interfaccia utente dell'applicazione.

Tra l'altro, non è nemmeno la prima volta che succede. Anche Chrome sfrutterebbe API Windows non documentate, per ottenere una maggiore sicurezza. Trovare queste API, tra l'altro, presuppone un lavoro di "reverse engineering" direttamente su Windows, un'azione espressamente vietata dall'accordo EULA. D'altra parte l'obiettivo, in quest'ultimo caso, è la sicurezza: è un argomento valido?

Forse in casa Apple hanno esaminato il codice in fretta e furia, e non si sono accorti di questo "dettaglio", o forse hanno preferito fare finta di niente. Difficile capire le ragioni che ci sono dietro a questa scelta. Può anche darsi che queste API saranno documentate in futuro, e inserite nel prossimo SDK.  L'applicazione di Google, dopotutto, mostra come sia possibile sfruttare il sensore per ottenere applicazioni innovative e di stile, proprio quello che vogliono a Cupertino.

Resta però qualche dubbio: se invece di Google queste azioni fossero opera di sviluppatori indipendenti, come sarebbe andata? Apple e Microsoft avrebbero comunque fatto finta di nulla o, più probabilmente, avrebbero bloccato lo sviluppo delle applicazioni? C'è qualcosa che Google non può permettersi?