Il dibattito sull'intelligenza artificiale nel mondo del lavoro attraversa una fase di riflessione critica, lontana dall'entusiasmo iniziale che aveva caratterizzato il settore. Dopo mesi di investimenti massicci e aspettative elevate, molte aziende si trovano ora a fare i conti con risultati inferiori alle previsioni, mentre crescono i dubbi sulla capacità di questa tecnologia di generare un reale ritorno economico. La questione centrale non riguarda più le potenzialità teoriche degli strumenti, ma la loro effettiva implementazione nei processi operativi quotidiani.
Mattia Gallegati, AI Solution Leader presso GFT, offre una prospettiva privilegiata su questo scenario. Con oltre un decennio di esperienza nel settore dell'innovazione tecnologica, ha seguito l'evoluzione dell'intelligenza artificiale dal periodo dell'Industria 4.0 fino all'avvento dei modelli generativi che oggi dominano la scena. La sua analisi parte da un'osservazione apparentemente contraddittoria: la tecnologia è matura e funziona, ma fatica a produrre i benefici promessi.
Il problema principale risiede nell'integrazione. Secondo Gallegati, numerose iniziative si arrestano proprio nel momento cruciale in cui dovrebbero diventare parte integrante dei flussi di lavoro aziendali. Le organizzazioni riescono a portare in produzione soluzioni basate sull'intelligenza artificiale, ma incontrano difficoltà enormi quando si tratta di farle adottare su larga scala dai dipendenti. Gli strumenti vengono percepiti come estranei ai processi esistenti, difficili da comprendere e complicati da utilizzare quotidianamente.
Nel settore finanziario e assicurativo, dove Gallegati concentra la sua attività, questa dinamica emerge con particolare evidenza. La crescita della maturità tecnologica dei casi d'uso è significativa, ma il passaggio dalla fase pilota all'utilizzo massivo rappresenta ancora un ostacolo considerevole. Le banche e le compagnie assicurative sviluppano prototipi sofisticati che dimostrano le potenzialità dell'AI, salvo poi scoprire che trasformarli in strumenti di uso quotidiano richiede uno sforzo ben maggiore del previsto.
L'intelligenza artificiale generativa ha catalizzato l'attenzione negli ultimi anni, oscurando in parte i sistemi tradizionali che continuano invece ad avere un ruolo rilevante. Questi ultimi, basati su tecniche di classificazione e addestramento su dataset specifici, risultano spesso più appropriati per determinati compiti. Tuttavia, la GenAI viene percepita come più accessibile: funziona tramite semplici chiamate API, non richiede l'addestramento di modelli dedicati e offre un'interfaccia conversazionale intuitiva per gli utenti finali.
Questo approccio "plug and play" spiega il successo dell'intelligenza artificiale generativa, ma nasconde insidie significative. La facilità d'uso crea l'illusione di uno strumento affidabile al cento per cento, quando invece rimane soggetta a errori, allucinazioni e bias. Gallegati sottolinea come questa caratteristica rappresenti un rischio concreto: l'abitudine può portare gli operatori a delegare decisioni senza mantenere il necessario livello di controllo.
Il tema della supervisione umana emerge come centrale, non solo per questioni di efficacia ma anche per obblighi normativi. L'AI Act europeo impone esplicitamente il mantenimento di un operatore umano nel processo decisionale, specialmente per applicazioni sensibili. Questa prescrizione riflette una consapevolezza diffusa: nonostante i progressi tecnologici, l'intelligenza artificiale necessita ancora della capacità di giudizio e contestualizzazione che solo l'essere umano può fornire.
L'esempio della produzione di codice software illustra efficacemente questo concetto. Anche quando l'AI genera autonomamente porzioni di programma, un technical leader deve verificare il risultato, assicurandosi che rispetti le best practice dell'organizzazione e non contenga errori o incongruenze. Questo ruolo di supervisione aggiunge valore e rappresenta una garanzia di qualità che la tecnologia da sola non può ancora garantire.
Emerge però una dicotomia preoccupante tra il mondo professionale e quello quotidiano. Negli ambienti lavorativi specializzati, la formazione e la consapevolezza dei limiti tecnologici permettono un utilizzo appropriato degli strumenti. Al di fuori di questi contesti, l'accessibilità dell'intelligenza artificiale può trasformarsi in un'arma a doppio taglio. Gallegati riporta esempi di persone che si affidano completamente alle risposte di ChatGPT per questioni personali o addirittura per autodiagnosi mediche, dimenticando che dall'altra parte non c'è una fonte infallibile.
Il problema generazionale aggrava ulteriormente la situazione. Chi non ha avuto l'opportunità di familiarizzare gradualmente con l'evoluzione tecnologica degli ultimi anni rischia di rimanere escluso o, peggio, di utilizzare questi strumenti senza comprenderne i meccanismi e i limiti. La soluzione proposta passa attraverso la diffusione capillare della tecnologia accompagnata da un'adeguata formazione, ma questo approccio mostra limiti evidenti quando si esce dagli ambiti altamente professionalizzati.
Gallegati identifica un paradosso nel panorama attuale: mentre la ricerca corre verso modelli sempre più potenti e sofisticati, l'adozione reale negli ambienti pubblici e nelle strutture di base della società rimane limitata. Ospedali e pubbliche amministrazioni mostrano ancora scarsa presenza di soluzioni basate sull'intelligenza artificiale, concentrate eventualmente in centri molto specializzati. Questa disparità crea un divario crescente tra chi ha accesso alle tecnologie più avanzate e chi rimane escluso dai benefici dell'innovazione.
La metafora del mattone utilizzata per descrivere l'intelligenza artificiale coglie un aspetto fondamentale: si tratta di uno strumento estremamente efficace per compiti specifici, ma privo di vera comprensione. Come il mattone è perfetto per costruire case ma non può spiegare filosofia, l'AI eccelle in determinati ambiti senza possedere una reale intelligenza generale. Questa consapevolezza dovrebbe guidare l'approccio all'adozione tecnologica, evitando aspettative irrealistiche e utilizzi inappropriati.
Il futuro prossimo, secondo l'esperto, vedrà le aziende concentrarsi proprio sul governo di questi strumenti e sulla loro integrazione efficace nei processi di business. Non si tratta più di dimostrare che la tecnologia funziona, ma di renderla utilizzabile quotidianamente da persone che non sono specialisti. Questo richiede un cambiamento di prospettiva: dall'innovazione fine a se stessa all'adozione consapevole e diffusa, che sola può trasformare la promessa tecnologica in valore concreto per le organizzazioni e la società.