Un vecchio Raspberry Pi Model B del 2011, con un solo core e appena 256 MB di memoria RAM, può ancora insegnare qualcosa di fondamentale sull'intelligenza artificiale: che comprendere come funziona è più importante della velocità con cui opera. Mentre l'industria tech insegue prestazioni sempre più elevate e modelli sempre più complessi, c'è chi ha deciso di fare un passo indietro per ricordarci che la trasparenza cognitiva vale più della potenza bruta. È da questa riflessione che nasce Datapizza-AI PHP, un esperimento didattico tutto italiano, creato da Paolo Mulas, che porta la logica dei modelli linguistici su hardware "d'epoca" utilizzando PHP, il linguaggio che ha costruito il web moderno.
L'ispirazione viene da Datapizza AI, un framework open-source sviluppato da un team italiano che ha reso comprensibile il funzionamento interno dei modelli linguistici di grandi dimensioni. La sua architettura modulare basata su API ha dimostrato che dietro l'apparente magia dell'intelligenza artificiale c'è semplicemente ragionamento trasparente, un dialogo tra codice e cognizione. Partendo da questo principio, Paolo Mulas ha deciso di adattare quella stessa filosofia a un contesto radicalmente diverso: una scheda Raspberry Pi di prima generazione, alimentata da PHP, quel linguaggio che molti considerano superato ma che in realtà continua a sostenere Facebook, Wikipedia, WordPress, Slack e milioni di altri sistemi che definiscono internet.
La scelta di PHP non è nostalgica, ma strategica. Questo linguaggio mantiene caratteristiche preziose: leggibilità immediata, diffusione capillare e capacità di mantenere l'essere umano nel ciclo decisionale, non ai margini. Mentre ci si spinge verso sistemi sempre più autonomi, questo progetto ribalta la prospettiva: l'obiettivo non è far girare AI in locale, ma insegnarle a spiegare se stessa. E nel processo, insegnare anche a noi come funziona realmente.
L'implementazione è volutamente minimale. Un singolo file PHP permette di inviare un prompt a un modello linguistico e ricevere una risposta, senza framework complessi né dipendenze esterne. Bastano poche righe di codice procedurale per far dialogare il vecchio Raspberry con modelli AI contemporanei. Non si tratta di simulare intelligenza, ma di comprendere il processo che sta dietro ogni risposta generata.
Il cuore del progetto risiede nella sua architettura multi-client. Ogni fornitore di servizi AI è implementato in un singolo file PHP di circa cento righe, tutti seguendo la stessa convenzione. Cambiare modello significa modificare una sola riga di codice, passando da OpenAI ad Anthropic Claude, Google Gemini, DeepSeek, Mistral AI o altri provider. Niente SDK pesanti, niente gestori di pacchetti: solo richieste HTTP, JSON e curiosità intellettuale. Ogni client può essere letto, compreso e modificato da chiunque abbia competenze di base, perché l'obiettivo è rendere accessibile la logica sottostante.
La sfida più interessante riguarda l'implementazione del RAG (Retrieval-Augmented Generation) su hardware così limitato. Il framework originale Datapizza AI utilizza embeddings e database vettoriali, soluzione impraticabile su un Raspberry del 2011. La versione PHP adotta invece un approccio alternativo: i documenti vengono suddivisi in piccoli blocchi di testo, ogni frammento viene trasformato in vettore tramite chiamate API, i risultati vengono salvati come file JSON nella cartella locale, e la ricerca semantica avviene attraverso una funzione di similarità coseno scritta in PHP puro, senza l'uso di librerie esterne, o estensioni.
Il framework integra due standard aperti particolarmente potenti: n8n per l'automazione tramite workflow cloud, e MCP (Model Context Protocol), un protocollo emergente che sta diventando "l'USB degli strumenti AI". Attraverso semplici webhook, il Raspberry può innescare automazioni su Slack, aggiornare fogli Google o concatenare più agenti AI. Con un client JSON-RPC leggero, può chiamare strumenti ospitati su server MCP remoti, proprio come fa Claude di Anthropic. Questi due ponti trasformano la piccola scheda in un nodo minimo di una rete di ragionamento globale.
Il progetto arriva in un momento particolare per l'industria AI. Mentre si parla sempre più di modelli giganteschi che richiedono datacenter interi, Google e Microsoft stanno paradossalmente portando LLM completi dentro browser e dispositivi edge con Gemini Nano e Phi-4-mini flash. L'AI locale e leggera non è nostalgia: è la prossima frontiera della comprensione. Come disse Jaron Lanier, capire è l'antidoto all'automazione. E su questo minuscolo Raspberry Pi, quell'antidoto funziona ancora perfettamente.
Il codice sorgente è disponibile su GitHub come progetto open-source intenzionalmente minimale. Ogni esempio funziona come una lezione autonoma, senza script di configurazione o strumenti di build. Basta clonare il repository, aprire un file qualsiasi e iniziare a esplorare la logica dietro il ragionamento artificiale.