Apple pubblica le sue IA open source, pronte per il prossimo iPhone?

Apple rilascia nuovi modelli di linguaggio open source progettati per funzionare su dispositivi anziché su cloud, un chiaro segnale per il futuro?

Avatar di Luca Rocchi

a cura di Luca Rocchi

Managing Editor

Nell'ambito delle novità tecnologiche più attese, Apple ha fatto una mossa audace e forse inaspettata nel settore dell'intelligenza artificiale, con il rilascio di diversi modelli di linguaggio (LLM) open source. Questa collezione, denominata OpenELM (Open-source Efficient Language Models), rappresenta un notevole passo avanti nell'integrazione dell'AI sui dispositivi, piuttosto che sull'elaborazione basata su server cloud. Disponibili sulla piattaforma Hugging Face Hub, queste risorse hanno lo scopo di stimolare ulteriormente la ricerca e l'innovazione nel campo dell'AI.

La pubblicazione di questi modelli segue la divulgazione di un white paper, in cui Apple dettaglia otto versioni di OpenELM. Quattro di questi modelli sono stati pre-addestrati utilizzando la libreria CoreNet, mentre gli altri quattro sono stati sviluppati attraverso un processo di instradamento preciso delle istruzioni. Uno dei punti di forza di OpenELM risiede nella sua strategia di scaling layer-wise, pensata per ottimizzare la distribuzione dei parametri all'interno di ciascun strato del modello, migliorando così l'efficienza e l'accuratezza.

Al contrario delle pratiche abituali che vedevano gli sviluppatori condividere solo i pesi del modello e il codice per l'inferenza, pre-addestrandoli su set di dati privati, Apple ha deciso di fornire un pacchetto completo. Questo include codice, registri di addestramento, checkpoint multipli e configurazioni pre-addestramento, tutti basati su dataset pubblicamente disponibili. L'obiettivo è quello di garantire risultati più affidabili e accelerare il progresso nel campo dell'intelligenza artificiale legata al linguaggio naturale.

OpenELM si presenta come un modello di linguaggio di ultima generazione che, con un bilancio di circa un miliardo di parametri, riesce a migliorare l'accuratezza del 2,36% rispetto al modello OLMo, pur richiedendo la metà dei token per il pre-addestramento. Questo rappresenta un significativo avanzamento tecnologico sia in termini di efficienza che di efficacia.

Il rilascio di modelli open source come OpenELM sottolinea la volontà di Apple di impiegare e arricchire la comunità di ricerca aperta, mettendo a disposizione strumenti di ultima generazione per esaminare rischi, dati e pregiudizi dei modelli. Oltretutto, ciò apre la strada a sviluppatori e aziende, offrendo la possibilità di utilizzare i modelli così come sono o di modificarli secondo necessità.

La condivisione aperta ha anche l'intento di attrarre ingegneri, scienziati ed esperti di prim'ordine. Fornendo opportunità per pubblicazioni scientifiche che, data la nota riservatezza delle politiche aziendali di Apple, non sarebbero altrimenti possibili. Questo si allinea anche con l'attesa introduzione di nuove funzionalità AI in iOS 18, alimentando speculazioni su un possibile utilizzo on-device dei LLM per rafforzare la privacy degli utenti.