La battaglia per l'intelligenza artificiale si combatte anche nei dettagli tecnici più nascosti, e Apple ha appena sollevato il velo su alcune delle innovazioni più interessanti dei suoi nuovi modelli di AI. Un rapporto tecnico pubblicato di recente dalla compagnia di Cupertino rivela strategie ingegnose per ottimizzare le prestazioni dei suoi sistemi di intelligenza artificiale, dalla gestione della memoria locale fino all'architettura cloud più complessa. Il documento, intitolato "Apple Intelligence Foundation Language Models – Tech Report 2025", offre uno sguardo raro dietro le quinte di come Apple stia tentando di recuperare terreno in un settore dominato da giganti come OpenAI e Google.
La strategia del "divide et impera" per i dispositivi locali
Una delle scoperte più affascinanti riguarda l'approccio adottato per il modello on-device da 3 miliardi di parametri. Apple ha implementato una soluzione che ricorda un po' il principio della divisione del lavoro nelle catene di montaggio industriali. Il modello è stato suddiviso in due blocchi distinti: il primo contiene il 62,5% dei livelli transformer, mentre il secondo ospita il restante 37,5% ma con una modifica cruciale.
Gli ingegneri di Apple hanno rimosso le proiezioni chiave e valore dal secondo blocco, una mossa che potrebbe sembrare controintuitiva ma che ha prodotti risultati sorprendenti. Questa architettura riduce del 37,5% sia la memoria necessaria per il caching sia il tempo richiesto per generare il primo token di risposta. È come avere un'auto che consuma meno carburante senza perdere potenza.
L'architettura cloud che sfida le convenzioni
Per i servizi basati su cloud, Apple ha sviluppato un'architettura personalizzata chiamata Parallel-Track Mixture-of-Experts (PT-MoE), progettata specificamente per la sua piattaforma Private Cloud Compute. Il concetto di Mixture of Experts non è nuovo nel mondo dell'AI, ma l'implementazione di Apple introduce elementi innovativi.
Invece di processare i token attraverso un'unica sequenza di livelli, come fanno i transformer tradizionali, il sistema di Apple divide il modello in percorsi paralleli multipli. Ogni percorso elabora i token in modo indipendente, sincronizzandosi solo in punti specifici. È una strategia che ricorda l'organizzazione del traffico nelle moderne rotonde italiane: invece di un'unica coda che rallenta tutto, ci sono multiple corsie che si coordinano solo quando necessario.
Il grande salto verso il multilinguismo
Uno dei talloni d'Achille di Apple Intelligence è sempre stato il supporto linguistico limitato. Il nuovo rapporto rivela gli sforzi concreti per affrontare questa debolezza. La quantità di dati multilingue utilizzati durante l'addestramento è passata dall'8% al 30%, un incremento che testimonia l'impegno dell'azienda verso un'AI più globale.
Il vocabolario del tokenizer è stato ampliato del 50%, raggiungendo 150.000 token diversi rispetto ai precedenti 100.000. Per il pubblico italiano, questo significa che strumenti come Writing Tools dovrebbero funzionare in modo più affidabile e naturale. Apple ha anche condotto valutazioni utilizzando prompt scritti da parlanti nativi piuttosto che traduzioni, un approccio che dimostra attenzione per le sfumature culturali e linguistiche locali.
Le fonti dei dati e la questione della privacy
La provenienza dei dati di addestramento resta un tema sensibile nell'industria dell'AI. Apple dichiara che la maggior parte del materiale proviene dal web crawling attraverso Applebot, ma con un approccio che rispetta le esclusioni robots.txt. Se un sito web non vuole essere indicizzato, Applebot si astiene dal raccogliere quel contenuto.
Il mix include anche dati sintetici generati da modelli più piccoli, particolarmente per matematica, codice e supporto multilingue, oltre a oltre 10 miliardi di coppie immagine-didascalia per il riconoscimento visuale. Apple conferma di aver utilizzato dati sotto licenza da editori, probabilmente frutto delle negoziazioni con realtà come Condé Nast e NBC News riportate in precedenza.
La sfida del recupero
Nonostante questi progressi tecnici, Apple continua ad essere percepita come in ritardo rispetto alla concorrenza nell'AI. Tuttavia, il rapporto dimostra che la compagnia non è rimasta ferma. L'approccio focalizzato sulla privacy rappresenta una differenziazione significativa in un mercato dove poche aziende stanno tentando strategie simili. La vera prova sarà vedere se queste innovazioni tecniche si tradurranno in vantaggi concreti per gli utenti finali e in una maggiore competitività nel panorama dell'intelligenza artificiale.