La diffusione dell'intelligenza artificiale nelle grandi organizzazioni resta ancora oggi una sfida per la maggior parte delle aziende, che faticano a superare la resistenza dei dipendenti e a trasformare progetti pilota in strumenti di uso quotidiano. Eppure JPMorgan Chase ha dimostrato che è possibile ribaltare questo scenario, raggiungendo un risultato che pochi possono vantare: oltre il 60% della forza lavoro utilizza regolarmente la propria suite di assistenti intelligenti basati su modelli linguistici di grandi dimensioni. Una percentuale che assume ancora più valore se si considera che l'adozione è stata completamente volontaria, senza imposizioni dall'alto.
Derek Waldron, chief analytics officer del colosso finanziario, racconta in un recente episodio del podcast VB Beyond the Pilot come questo successo sia arrivato quasi inaspettato. Quando due anni e mezzo fa il suo team tecnico lanciò la piattaforma interna con assistenti personali basati su intelligenza artificiale, il contesto era ancora dominato dallo scetticismo. ChatGPT aveva appena fatto la sua dirompente apparizione sul mercato, ma nel mondo enterprise prevaleva la prudenza.
Il punto di svolta è arrivato grazie a un meccanismo organico di diffusione dal basso. Nel giro di pochi mesi, l'utilizzo della piattaforma è passato da zero a 250.000 dipendenti, coinvolgendo reparti che vanno dalle vendite alla finanza, dalla tecnologia alle operazioni. Waldron ammette di essere rimasto sorpreso dalla velocità con cui lo strumento è diventato "virale" all'interno dell'organizzazione. I dipendenti non si sono limitati a utilizzare i prompt standard, ma hanno iniziato a costruire e personalizzare assistenti con istruzioni specifiche, ruoli definiti e personalità distintive, condividendo poi le proprie scoperte sulle piattaforme interne.
Questo approccio bottom-up ha generato quello che Waldron definisce un vero e proprio volano dell'innovazione. Gli early adopter hanno condiviso casi d'uso concreti che hanno alimentato l'entusiasmo dei colleghi, creando un circolo virtuoso di apprendimento e sperimentazione. "Abbiamo una popolazione profondamente orientata all'innovazione", spiega Waldron. "Se continuiamo a fornirle capacità potenti e facili da usare, può accelerare la prossima evoluzione di questo percorso."
Il segreto del successo di JPMorgan non risiede tanto nella tecnologia dei modelli linguistici in sé, quanto nell'architettura tecnica che l'azienda ha costruito intorno ad essi. La strategia si è basata su una visione contrarian emersa già nelle fasi iniziali: i modelli stessi sarebbero diventati una commodity, mentre il vero vantaggio competitivo sarebbe derivato dalla connettività dell'intero ecosistema. Una scommessa che si è rivelata vincente.
L'investimento si è concentrato su una tecnologia nota come retrieval-augmented generation multimodale, ora giunta alla quarta generazione. La suite di intelligenza artificiale è ospitata al centro di una piattaforma aziendale equipaggiata con connettori e strumenti che supportano analisi e preparazione dei dati. Il risultato è un sistema che permette ai dipendenti di accedere a un ecosistema in continua espansione di dati aziendali critici, interagendo con documenti sofisticati, archivi di conoscenza e dati strutturati, oltre che con sistemi di CRM, risorse umane, trading, finanza e gestione del rischio.
Waldron sottolinea come il suo team aggiunga nuove connessioni mese dopo mese, seguendo il principio che l'intelligenza artificiale rappresenta una tecnologia general-purpose destinata a crescere in potenza. Tuttavia, senza un accesso significativo ai dati e casi d'uso critici, si spreca un'opportunità fondamentale. "Anche se domani dovesse emergere una superintelligenza", sostiene Waldron, "non potrebbe generare valore ottimale se non fosse in grado di connettersi ai sistemi, ai dati, agli strumenti, alla conoscenza e ai processi che esistono all'interno dell'azienda."
Questa filosofia ha guidato anche l'approccio operativo interno. Waldron racconta di aver adottato una strategia personale che prevede di fermarsi prima di rivolgersi a un collega, valutando invece come il proprio assistente AI potrebbe rispondere alla domanda e risolvere il problema. Un cambio di paradigma che riflette la cultura che JPMorgan sta cercando di instillare nell'intera organizzazione.
L'architettura tecnologica adottata segue un modello definibile come "una piattaforma, molti ruoli". Partendo dal presupposto che nessuna posizione lavorativa sia identica a un'altra, la strategia si concentra su building block riutilizzabili che i dipendenti possono assemblare per creare strumenti specifici per il proprio ruolo. Questi componenti includono sistemi RAG, document intelligence e query su dati strutturati, tutti integrati in modo modulare.
La maturità tecnologica del sistema di retrieval rappresenta un altro elemento distintivo. JPMorgan ha attraversato diverse generazioni evolutive, passando da una semplice ricerca vettoriale a pipeline di conoscenza gerarchiche, autorevoli e multimodali. Questa progressione ha permesso di affinare progressivamente la capacità degli assistenti di fornire risposte pertinenti e contestualizzate, aumentando la fiducia degli utenti e consolidando l'adozione su larga scala.
Il caso di JPMorgan dimostra che il successo dell'intelligenza artificiale in ambito enterprise non dipende esclusivamente dalla sofisticazione degli algoritmi, ma dalla capacità di integrarli in un ecosistema tecnologico coerente e accessibile. La chiave sta nel costruire un'infrastruttura che tratti l'AI come componente centrale e non come semplice novità, creando al contempo le condizioni perché i dipendenti possano sperimentare liberamente e condividere le proprie scoperte. Solo così l'innovazione può diffondersi in modo virale e sostenibile.