Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Google Titans, ecco l'AI che risolve i problemi di memoria e di efficienza (forse)
Business
Immagine di WhatsApp, attacco invisibile: le tue chat restano in mano agli hacker anche se cancelli l'app WhatsApp, attacco invisibile: le tue chat restano in mano ag...
Immagine di 8 linguaggi di programmazione vecchi ma ancora in uso 8 linguaggi di programmazione vecchi ma ancora in uso...

Google Titans, ecco l'AI che risolve i problemi di memoria e di efficienza (forse)

Dopo l'esordio su arXiv a fine 2024 e il consolidamento a NeurIPS 2025, Google presenta l'architettura Titans per implementare una memoria neurale persistente e lineare.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 24/12/2025 alle 14:35

L'articolo in un minuto

  • Google presenta Titans, un'architettura che supera l'amnesia anterograda dei modelli linguistici attraverso il Nested Learning, permettendo alle macchine di apprendere permanentemente durante l'interazione invece di dimenticare tutto a fine sessione
  • Il Continuum Memory System gestisce oltre dieci milioni di token con complessità lineare, abbattendo il costo quadratico dei Transformer e riducendo drasticamente l'impatto energetico dei data center
  • La memoria persistente solleva questioni etiche critiche sul diritto all'oblio e sulla privacy: una macchina progettata per non dimenticare mai potrebbe trasformare ogni interazione in una forma di sorveglianza permanente

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Google ha presentato nel 2025 l'architettura Titans, una soluzione volta a risolvere il problema dell'amnesia anterograda nei modelli linguistici. Il percorso scientifico, iniziato su arXiv a fine 2024 e culminato a NeurIPS, introduce il paradigma del Nested Learning per la gestione dinamica della memoria. Questa tecnologia permette alle macchine di apprendere permanentemente durante l'interazione, superando la staticità dei sistemi attuali.

Guarda su

La pubblicazione di queste ricerche segna il passaggio cruciale dalla teoria alla realizzazione di sistemi adattivi. Proponendo un'architettura capace di gestire milioni di token con complessità lineare, Google cerca un'alternativa alla rigidità strutturale dei Transformer. Questo tentativo è fondamentale per abbattere il muro energetico dei data center, garantendo prestazioni elevate senza richiedere un aumento insostenibile delle risorse computazionali fisiche.

Anche competitor come OpenAI o Anthropic sono impegnati in una corsa per estendere la finestra di contesto. Ma somiglia al tentativo di costruire una scrivania enorme per ammucchiare tutto in modo caotico, invece di fornire al lavoratore un archivio funzionale. La proposta di Mountain View introduce una distinzione qualitativa tra l'elaborazione immediata e la conservazione del sapere, mettendo in discussione le basi stesse del deep learning contemporaneo.

L'obiettivo della ricerca non è la semplice potenza bruta, ma la sostenibilità delle infrastrutture digitali. Attraverso l'introduzione di parametri dinamici per la memoria, Titans evita il costo quadratico tipico dei modelli odierni. 

Questo approccio potrebbe ridefinire le strategie delle imprese, offrendo una soluzione concreta al problema del blocco tecnologico legato ai limiti di memoria e all'impatto ambientale delle grandi infrastrutture.

Sì, “potrebbe”, ma ci sono ancora alcune lacune da colmare prima di poterlo prendere seriamente in considerazione

L'illusione della conoscenza e il limite del transformer

Immagine id 79784

Il cuore del problema risiede nel fatto che i modelli attuali soffrono di quella che in neurologia viene definita amnesia anterograda. Una volta terminata la fase di addestramento iniziale, la loro conoscenza rimane cristallizzata e ogni nuova interazione è destinata a svanire non appena la sessione di chat viene chiusa, rendendo impossibile un vero apprendimento evolutivo basato sull'esperienza quotidiana accumulata nel tempo. 

Tutti vorremmo invece un chatbot che impara con il tempo, che migliora via via che gli diamo nuove informazioni. Invece, oggi, ogni nuova chat riparte da zero. 

Per comprendere questa dinamica, si può ricorrere all'analogia del nastro trasportatore: il modello vede passare i token uno dopo l'altro, ma non ha la capacità di fermare il nastro per fissare un concetto in modo permanente nella sua struttura interna. Questo limite costringe le organizzazioni a fare affidamento su sistemi esterni come la RAG (Retrieval-Augmented Generation), che però rappresenta solo un palliativo e non una soluzione integrata nel cuore pulsante dell'algoritmo.

L'architettura Transformer, pur avendo garantito i successi di ChatGPT o Claude, presenta un difetto di fabbrica: l'attenzione quadratica. Più il contesto si allunga, più l'energia e la memoria necessarie per processarlo aumentano in modo esplosivo, creando un muro fisico per l'elaborazione di interi database o codici sorgente complessi. Titans nasce proprio con l'obiettivo di abbattere questo muro attraverso una gestione lineare delle risorse computazionali disponibili nel sistema.

L'idea alla base di Titans è legata al concetto di Nested Learning, un paradigma che vede l'apprendimento non come un blocco monolitico, ma come una sovrapposizione di processi neurali che operano a velocità differenti. In questo modo, il sistema può dedicarsi ai dettagli immediati del discorso senza perdere di vista le informazioni strutturali apprese ore o giorni prima, imitando la gerarchia temporale dei segnali elettroencefalografici del cervello umano.

Anatomia tecnica del continuum memory system

Entrando nel dettaglio ingegneristico, Titans introduce un modulo denominato Continuum Memory System (CMS) che funge da ponte tra la memoria a breve termine e quella a lungo termine. A differenza dei pesi statici di un modello tradizionale, questo modulo è composto da parametri dinamici che si aggiornano in tempo reale mentre il modello elabora i dati, permettendo una forma di auto-modifica sicura e controllata durante l'inferenza.

Secondo i test effettuati sui benchmark BABILong, questa architettura è in grado di gestire oltre dieci milioni di token mantenendo un'accuratezza elevata nel recupero delle informazioni. Questo risultato è possibile perché Titans non tenta di "tenere tutto a mente" contemporaneamente, ma utilizza un meccanismo di apprendimento basato sulla sorpresa: il modello aggiorna la sua memoria interna solo quando incontra informazioni che non riesce a prevedere correttamente con la sua conoscenza attuale.

In questo senso, il sistema opera come un esperto ricercatore che prende appunti solo sulle novità rilevanti, evitando di ingolfare i propri circuiti con dati ridondanti o inutili. Questo approccio riduce drasticamente l'impatto ambientale dei data center, poiché ottimizza i cicli di calcolo necessari per mantenere la coerenza del discorso su sequenze temporali molto estese, un problema che affligge pesantemente le attuali architetture di Microsoft e Meta.

Nonostante l'entusiasmo della comunità accademica, il passaggio dalla teoria alla pratica industriale rimane l'incognita principale di questa ricerca. Implementare Titans su sistemi di produzione massivi richiede una revisione completa degli stack software e hardware attuali, spesso ottimizzati esclusivamente per accelerare le operazioni matriciali tipiche dei Transformer. Come abbiamo già detto altre volte, il punto chiave si sta spostando dal training all’inferenza. 

La scommessa di Google è dunque tecnologica ma anche strategica, puntando a una leadership basata sulla superiorità architettonica piuttosto che sulla forza bruta del calcolo.

Dalla teoria alla pratica, ci sono anche dei rischi

Immagine id 79785

Per una piccola o media impresa che oggi utilizza il cloud per l'analisi dei dati, Titans potrebbe rappresentare un bel risparmio, perché permetterebbe di avere un LLM personalizzato formato sui dati aziendali ma capace anche di imparare cose nuove dagli utenti. Potrebbe "ricordare" l'intera storia di un cliente o di un progetto senza dover ricaricare ogni volta migliaia di documenti, portando a un bel risparmio in termini di API e di latenza. 

È opportuno però osservare che altre realtà non restano a guardare; Nvidia, ad esempio, continua a spingere su ottimizzazioni hardware che potrebbero rendere l'efficienza lineare di Titans meno determinante nel breve periodo. 

La sfida si sposta quindi dal piano della pura potenza a quello dell'intelligenza dell'architettura: vincerà chi saprà offrire un sistema capace di ragionare su contesti infiniti senza richiedere la costruzione di nuove centrali elettriche per ogni aggiornamento del modello.

L'integrazione di memorie persistenti solleva inoltre dubbi tecnici sulla stabilità dei pesi dinamici nel lungo periodo. Esiste il rischio concreto che il modello possa "derivare" verso comportamenti indesiderati o accumulare pregiudizi durante l'interazione continua, un fenomeno che richiede lo sviluppo di nuovi protocolli di monitoraggio e sicurezza. La gestione della memoria non è solo una questione di bit, ma di controllo del flusso informativo che alimenta la logica della macchina. Qualcosa che andrebbe affidato a umani molto competenti, il che ci riporta al cronico problema della carenza di competenze. 

In ogni caso, la capacità di Titans di apprendere apre la strada a sistemi di intelligenza artificiale veramente personalizzati, capaci di adattarsi al gergo tecnico di un'azienda o alle specifiche esigenze di un mercato locale senza dover passare per un nuovo addestramento centralizzato, riducendo i tempi di deployment da mesi a pochi minuti di interazione diretta.

Aspetti etici

Se la soluzione tecnologica proposta da Google sembra promettente, è necessario fermarsi a riflettere sulle implicazioni etiche di un'intelligenza artificiale dotata di memoria totale. In un mondo in cui il diritto all'oblio è una conquista giuridica fondamentale, cosa succede quando interagiamo con una macchina che, per design, è progettata per non dimenticare mai nulla di ciò che le viene comunicato? 

Se un lavoratore lascia l’azienda o viene licenziato, come ci assicuriamo che tutto il suo sapere e la sua identità siano rimossi? Non dovremmo considerare il rischio che la sua competenza resti scritta nel modello? E allora, forse dovremmo cominciare a pensare che questi LLM personalizzati siano da associare a ogni individuo? Sicuramente non è facile rispondere a queste domande. 

La persistenza della memoria nelle mani di sistemi algoritmici centralizzati potrebbe trasformare ogni sessione di lavoro in una forma di sorveglianza Se il modello aggiorna i propri parametri in base alle nostre confidenze o ai nostri segreti aziendali, chi garantisce che tali informazioni non filtrino, in forma latente, attraverso le risposte fornite ad altri utenti o durante futuri aggiornamenti della rete neurale stessa?

Dobbiamo anche chiederci se la perfezione del ricordo non sia, in realtà, un ostacolo al ragionamento critico. La mente umana funziona in modo efficiente proprio perché dimentica il superfluo, permettendo all'astrazione di emergere dal rumore di fondo dei dettagli insignificanti. Una macchina che conserva ogni singolo token rischia di diventare un archivio immenso ma privo di quella capacità di creare senso e significa che è alla base della vera saggezza e della creatività umana. In altre parole dobbiamo nuovamente ricordare che la macchina non ha Capitale Semantico. 

Infine, la sostenibilità di queste memorie eterne non riguarda solo i gigawattora consumati dai server, ma la qualità del nostro ecosistema informativo. Come riportato molte volte, l'accumulo infinito di dati senza filtri etici chiari può portare a una saturazione digitale pericolosa. È indispensabile che lo sviluppo di Titans sia accompagnato da una governance che definisca non solo come ricordare, ma soprattutto quando e perché una macchina debba avere il permesso di dimenticare. Si aprirebbe un nuovo capitolo nel già difficile discorso sull’Epistemia - concetto quanto mai azzeccato coniato dal professor Quattrociocchi. 

La tecnologia non è mai neutra e una memoria che non svanisce mai potrebbe rivelarsi una gabbia dorata per la nostra privacy. Mentre ci avviciniamo a sistemi sempre più simili al funzionamento biologico, dobbiamo assicurarci che mantengano anche quei limiti che ci rendono umani, compresa la fragilità e la selettività del nostro ricordo. Solo così potremo costruire strumenti che siano realmente al servizio della società e non semplici guardiani infaticabili di una conoscenza senza fine.

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

Le notizie più lette

#1
8 linguaggi di programmazione vecchi ma ancora in uso
7

Business

8 linguaggi di programmazione vecchi ma ancora in uso

#2
Queste modifiche al registro accelerano gli SSD NVMe su Windows
4

Hardware

Queste modifiche al registro accelerano gli SSD NVMe su Windows

#3
La pirateria non deve essere spacciata per preservazione!

Editoriale

La pirateria non deve essere spacciata per preservazione!

#4
Che fine hanno fatto i God Game? Ridateceli!
9

Editoriale

Che fine hanno fatto i God Game? Ridateceli!

#5
Windows 11 25H2 aggiorna il driver NVMe, ma è opzionale

Hardware

Windows 11 25H2 aggiorna il driver NVMe, ma è opzionale

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

8 linguaggi di programmazione vecchi ma ancora in uso
7

Business

8 linguaggi di programmazione vecchi ma ancora in uso

Di Valerio Porcu
WhatsApp, attacco invisibile: le tue chat restano in mano agli hacker anche se cancelli l'app

Business

WhatsApp, attacco invisibile: le tue chat restano in mano agli hacker anche se cancelli l'app

Di Valerio Porcu
Agenti AI autonomi in azienda, è tempo di prepararsi
1

Business

Agenti AI autonomi in azienda, è tempo di prepararsi

Di Valerio Porcu
Microsoft punta a eliminare C e C++ entro il 2030
2

Business

Microsoft punta a eliminare C e C++ entro il 2030

Di Valerio Porcu
IA: quanto si stanno indebitando le Big Tech?
2

Business

IA: quanto si stanno indebitando le Big Tech?

Di Antonino Caffo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.