Spazio e Scienze

Apple, un’Intelligenza Artificiale fatta per sorprenderci

Apple non è certo una delle aziende più note per la trasparenza sui propri movimenti e sulle proprie ricerche e già nel recente passato è stata criticata dagli studiosi di reti neurali e deep learning, in una parola di Intelligenza Artificiale, perché non condivide i propri risultati. Nei giorni scorsi però una timida apertura c'è stata e quello che è emerso è sbalorditivo.

Durante un pranzo a inviti svoltosi durante la AI Conference, l'azienda di Cupertino ha infatti illustrato ai presenti alcuni dei progressi e degli ambiti su cui è al lavoro. In realtà in California stanno lavorando ‎sugli stessi problemi che impegnano le altre aziende: riconoscimento ed elaborazione delle immagini, previsione del comportamento degli utenti e degli eventi nel mondo fisico, sviluppo del linguaggio per l'utilizzo in assistenti personali e tentativo di comprendere come trattare l'incertezza quando gli algoritmi non sono in grado di fornire una decisione affidabile. I risultati ottenuti e le tecnologie impiegate per raggiungerli però sarebbero completamente differenti.

untitled2

Tra le aree interessate da studi c'è quella che riguarda la "rilevazione volumetrica tramite LiDAR" e la "previsione di risultati strutturati". Gli argomenti in sé non sono innovativi ma testimoniano che Apple sia ancora impegnata nel settore, al di là dell'effettivo abbandono dell'idea di realizzare una propria automobile, probabilmente sviluppando software per terze parti.

Decisamente più interessanti sono invece gli altri sviluppi. Ad esempio Apple starebbe lavorando a una rete neurale 4,5 volte più piccola di quelle attuali e con una velocità di esecuzione doppia, che però al tempo stesso garantisce la stessa accuratezza nei risultati rispetto a quelle tradizionali. Il risultato viene ottenuto mandando la AI più snella "a scuola" da una tradizionale, in modo che la prima impari ad eseguire le stesse predizioni della prima senza la necessità di utilizzarne lo stesso esteso apparato. In questo modo dovrebbe essere possibile ad esempio eseguire i calcoli in locale su smartphone e tablet anziché tramite connessione a server remoti, garantendo dunque risultati molto più immediati.

untitled3

Un'altra slide mostra invece che l'algoritmo per il riconoscimento delle immagini avrebbe una capacità di processare i dati doppia rispetto a quella di Google: 3000 immagini al secondo anziché 1500, per di più utilizzando un terzo delle GPU impiegate dal colosso di Mountain View. Come ciò possa essere ottenuto non è chiaro. Tutti nel settore impiegano le GPU, ma mentre Google e Microsoft si stanno indirizzando verso l'impiego di chip specializzati come Tensor Processing Unit o FPGA, Apple impiegherebbe i comuni chip presenti sul mercato. Non è chiaro però se, come nel settore dei SoC, Apple realizzi in proprio le sue GPU o se gliele fornisca ad esempio Nvidia. Anche il database di immagini utilizzato per istruire le reti neurali al riconoscimento delle immagini inoltre sembrerebbe essere proprietario ed avrebbe dimensioni doppie rispetto all'ImageNet databese usato solitamente.