Sono cresciuti del 23%, nel primo semestre dell'anno, gli investimenti nel settore dell'elaborazione dati, a fronte di una crescita del PIL globale di appena il 6%. Questa sproporzione non è casuale, ma riflette la determinazione delle grandi corporazioni tecnologiche a raggiungere quello che considerano il Santo Graal dell'innovazione: l'Intelligenza Artificiale Generale. Un obiettivo tanto ambizioso quanto nebuloso nella sua definizione, che ha mobilitato capitali per oltre 344 miliardi di dollari solo nel 2024.
La febbre dell'oro digitale in un mondo che rallenta
Mentre l'economia globale fatica a mantenere ritmi di crescita sostenuti, con i paesi OCSE che registrano appena l'1,6% contro il 2,5% pre-crisi del 2008, la Silicon Valley sembra vivere in una dimensione parallela. Microsoft, Amazon, Google-Alphabet e Meta hanno triplicato i loro investimenti in capitale operativo, concentrando risorse immense su processori grafici, chip di memoria avanzati e infrastrutture per l'addestramento dei modelli linguistici più sofisticati mai concepiti. È un paradosso economico che ricorda le grandi bolle speculative del passato, ma con una differenza sostanziale: questa volta la posta in gioco non è solo economica, ma geopolitica e militare.
Il contrasto con la realtà economica generale è stridente. Mentre i flussi di cassa netti di Alphabet, Amazon, Meta e Microsoft sono diminuiti del 40% tra il 2023 e il 2025, e startup come OpenAI e Anthropic continuano a "bruciare" capitali nonostante tassi di crescita impressionanti, gli investimenti in intelligenza artificiale procedono come se fossero svincolati dalle normali logiche di mercato.
I visionari della superintelligenza e le loro promesse
Sam Altman, CEO di OpenAI, ha proclamato nel giugno scorso l'avvento della "Gentle Singularity", affermando che l'umanità ha superato "l'orizzonte degli eventi" verso la superintelligenza digitale. È un linguaggio che attinge dalla fisica teorica per descrivere un salto qualitativo che, secondo i protagonisti di questa corsa, è ormai imminente. Dario Amodei di Anthropic spinge le previsioni fino al 2026, mentre Demis Hassabis di DeepMind si mostra più cauto, parlando di 5-10 anni necessari per raggiungere capacità paragonabili o superiori a quelle umane.
Tuttavia, non tutti condividono questo ottimismo. Jeff Hinton, considerato il padrino delle reti neurali moderne, ha espresso crescenti preoccupazioni sui rischi che un'intelligenza artificiale superiore potrebbe comportare per l'umanità stessa. Le sue interviste al New York Times e alla CBS rivelano i timori di chi ha contribuito a creare le fondamenta tecnologiche di questa rivoluzione, ma ora ne intravede i pericoli potenziali.
Modelli matematici e crescita esponenziale infinita
Il think-tank Epoch AI ha sviluppato il modello GATE (Growth and AI Transition Endogenous) per simulare gli scenari futuri, partendo dall'assunto che il lavoro svolto dall'intelligenza artificiale sia più "accumulabile" di quello umano. Le proiezioni indicano tassi di crescita esplosivi superiori al 20% anche con livelli di automazione relativamente modesti. Secondo questa visione, laboratori di ricerca completamente automatizzati potrebbero, entro il 2027, generare un'espansione permanente della produzione attraverso meccanismi di auto-miglioramento continuo.
È una prospettiva che trova riscontro negli studi di Trammel e Korinek, secondo cui la letteratura economica tradizionale sottovaluta le conseguenze trasformative degli attuali processi di automazione. Il loro lavoro suggerisce che siamo di fronte a "singolarità" caratterizzate da tassi di crescita in costante accelerazione, uno scenario che sfida i paradigmi economici consolidati.
Le voci critiche dei Nobel
William Nordhaus, premio Nobel per l'Economia, offre una prospettiva decisamente più scettica. Nella sua analisi della letteratura sulla Singolarità, conclude che "la Singolarità non è vicina", mettendo in discussione l'assunzione di piena sostituibilità tra informazione e lavoro umano. La sua critica si concentra sull'idea che una crescita infinita della produttività sia fondamentalmente una chimera, impossibile da realizzare nella pratica.
Daron Acemoglu e Simon Johnson, Nobel 2024, portano l'attenzione su aspetti spesso trascurati dai tecno-ottimisti. La loro ricerca dimostra che i processi di automazione generano distribuzioni asimmetriche degli aumenti di produttività, creando fenomeni di "deskilling" e "disempowerment" per milioni di lavoratori. È significativo che le stesse Big Tech che sviluppano l'AGI si affidino a milioni di lavoratori africani, sudamericani e anche italiani per le attività di etichettatura dei dati, pagati poche decine di centesimi per operazioni usuranti che causano disturbi paragonabili allo stress post-traumatico.
La dimensione geopolitica e militare
Dietro la corsa tecnologica si cela una partita geopolitica di portata storica. La rivalità USA-Cina ha trasformato l'intelligenza artificiale in un asset strategico nazionale, come dimostrano i recenti contratti tra le Big Tech e il Dipartimento della Difesa americano. Palantir ha firmato un accordo decennale da 10 miliardi di dollari con l'esercito statunitense, mentre OpenAI ha costituito una divisione specializzata "OpenAI for Government" per esplorare le applicazioni dell'IA nelle "sfere di combattimento e aziendali".
La Rand Corporation ha identificato cinque problemi cruciali di sicurezza nazionale legati alla corsa all'AGI nei rapporti tra Stati Uniti e Cina, evidenziando come la superintelligenza sia destinata ad assumere un ruolo decisivo negli equilibri geopolitici futuri. Non è un caso che manager di Meta, OpenAI e Palantir abbiano prestato giuramento come ufficiali della Riserva dell'Esercito, segnalando una convergenza sempre più stretta tra interessi privati e strategia militare.
Rischi finanziari e bolle speculative
L'Economist e il Wall Street Journal hanno sollevato preoccupazioni sui rischi finanziari di questa corsa sfrenata agli investimenti. La necessità di costruire data center e infrastrutture energetiche per sostenere l'AGI richiede capitali tali da far impallidire i 500 miliardi del progetto Stargate. Questi investimenti massicci potrebbero spingere i tassi di interesse a livelli pericolosamente elevati, con potenziali effetti destabilizzanti sui mercati globali, in uno scenario che richiama la crisi delle dot-com dei primi anni 2000.
La creazione di capacità produttiva in eccesso, l'impossibilità di sostenere rendimenti finanziari elevati e gli effetti a cascata potrebbero replicare dinamiche già viste in passato, ma su una scala infinitamente più grande. A questo si aggiungono i rischi intrinseci della tecnologia stessa: i chatbot attuali possono già essere manipolati per assumere comportamenti ingannevoli, e il problema dell'"interpretabilità" rende impossibile comprendere come questi sistemi arrivino a certe decisioni.
La realtà è che stiamo assistendo a una trasformazione epocale le cui conseguenze sono ancora largamente imprevedibili. La corsa all'AGI procede con la logica della profezia che si autoavvera: più risorse vengono investite, più la sua realizzazione appare inevitabile, indipendentemente dalla solidità delle premesse scientifiche o economiche che la sostengono. In questo scenario, la distinzione tra input pubblici e privati nelle decisioni strategiche diventa sempre più sfumata, mentre cresce un'asimmetria cognitiva preoccupante tra chi detiene le competenze tecnologiche e chi dovrebbe governarne l'uso per il bene comune.