Quando provo a spiegarmi perché l'AI stia avendo un successo così ampio, soprattutto presso il grande pubblico, mi accorgo che la risposta più comoda ("perché è potente") è anche la meno utile. La potenza conta, certo, ma la storia vera è un'altra: l'AI sta diventando uno strumento d'uso diffuso, quasi banale, nello stesso modo in cui, a suo tempo, lo sono diventati Excel e poi PowerPoint. E com'è successo con quei due strumenti? Il punto non è che "fanno risparmiare tempo": è che, una volta entrati stabilmente nelle abitudini, cambiano la grammatica del lavoro.
Excel non è stato soltanto un programma per fare conti: ha reso naturale il pensiero in griglia, la realtà come modello tabellare, la decisione come "scenario" ricalcolabile. PowerPoint non è stato soltanto un modo per mostrare slide: ha reso naturale la narrazione in sequenza, l'idea che ogni concetto debba avere un titolo e tre punti chiave, e che una strategia "esista" davvero quando può stare in 12 slide. Il loro successo non è arrivato perché erano perfetti, ma perché erano una protesi cognitiva che chiunque poteva usare. Nel tempo hanno smesso di essere strumenti e sono diventati forme: forme di pensiero, di comunicazione, di organizzazione del lavoro.
Io trovo che l'AI stia facendo qualcosa di analogo, ma su un campo più vasto: non impone solo una nuova forma di reportistica o presentazione; introduce una nuova forma di interazione con il software e, in prospettiva, una nuova forma di produzione di contenuti e decisioni. La differenza è che Excel e PowerPoint chiedevano di imparare una sintassi (celle, formule; layout, master, bullet). L'AI, invece, si presenta con la sintassi più universale che esista: il linguaggio umano.
Qui sta la prima ragione del successo: gli LLM hanno trasformato l'interazione uomo-macchina in qualcosa che assomiglia a una conversazione. Chiedo, ricevo una bozza, correggo, aggiungo vincoli, spiego meglio. È un gesto naturale, molto più accessibile di menu profondi, schermate piene di opzioni e workflow da manuale. Ed è un passaggio che, per me, ricorda da vicino un'altra rivoluzione dell'informatica: quando i sistemi operativi hanno smesso di chiedere agli utenti di parlare la lingua della macchina (comandi, parametri, sintassi) e hanno iniziato a parlare la lingua dell'utente tramite interfacce grafiche. La GUI non ha eliminato la complessità, ma l'ha resa abitabile: ha spostato "dietro le quinte" molte difficoltà e ha portato davanti un gesto semplice (puntare, cliccare, trascinare). È lo stesso schema che vedo oggi: l'AI abbassa la complessità dell'accesso.
La seconda ragione del successo è la promessa che segue immediatamente quella conversazione: l'AI dà l'impressione — spesso fondata, a volte pericolosamente illusoria — di poter attingere a un bacino informativo enorme e restituire sintesi e organizzazione. Qui il confronto con la ricerca tradizionale è inevitabile. Un motore di ricerca è potentissimo, ma chiede all'utente di fare il lavoro più costoso: formulare query, aprire risultati, valutare fonti, confrontare, sintetizzare, trasformare tutto in un output. Gli LLM comprimono questa catena: mi restituiscono subito una bozza, una struttura, una risposta "preconfezionata". Anche quando devo verificare e rifinire, la frizione scende drasticamente. E quando una tecnologia abbassa la frizione, diventa contagiosa.
La terza ragione del successo, quella che rende l'AI non solo "curiosa" ma interessante, è l'integrazione con i dati e gli strumenti: sistemi aziendali, documentazione interna, SaaS, ticketing, CRM, suite collaborative. Da qui in poi l'AI smette di essere soltanto un generatore di testo e diventa un elemento di collegamento: recupera informazioni, le riassume, propone azioni, compila campi, prepara risposte, suggerisce passaggi. È il punto in cui, storicamente, molte adozioni sono partite dal customer service e dal supporto: perché lì il materiale di lavoro è già linguaggio, e l'impatto è misurabile (tempi di risposta, tasso di risoluzione, riduzione escalation). Poi, quasi inevitabilmente, l'uso si è esteso: helpdesk IT, onboarding, knowledge management, sales enablement, legale, marketing, procurement.
A queste tre ragioni — linguaggio naturale, sintesi su larga scala, integrazione con dati e strumenti — aggiungo un quarto elemento, decisivo per la dimensione culturale: l'AI ha rapidamente conquistato un altro linguaggio umano fondamentale, quello visivo. La facilità con cui oggi si generano o si manipolano immagini, e sempre più video, è un acceleratore culturale enorme. Perché un output visivo è immediatamente condivisibile: diventa uno screenshot, un meme, una clip. Non richiede di "capire" come funziona il modello: basta vedere il risultato. Questo spiega perché l'AI sia uscita dall'ambito della "produttività" e sia entrata nel costume, sui social, nelle chat, nelle discussioni di bar. È una tecnologia che produce contenuti nel formato più virale del nostro tempo.
Perché proprio adesso: la convergenza storica
Fin qui, però, ho descritto il presente. Per capire perché tutto questo avvenga adesso, e perché questa ondata sia diversa dalle precedenti, devo guardare la storia con un occhio meno sentimentale e più industriale.
L'AI non nasce ieri. Come campo, prende forma nella seconda metà del Novecento, con l'idea ambiziosa di descrivere aspetti dell'intelligenza in modo sufficientemente preciso da poterli riprodurre in una macchina. Da lì in poi, la storia è fatta di cicli: grandi promesse, risultati impressionanti in ambiti specifici, poi limiti pratici che frenano la diffusione. È ciò che spesso si riassume nell'espressione "inverni dell'AI": momenti in cui l'aspettativa supera la tecnologia disponibile.
Un passaggio simbolico è il 1997 con Deep Blue e Kasparov. È una dimostrazione spettacolare, ma non diventa uno strumento quotidiano. E questo dettaglio è importante: l'AI può essere culturalmente enorme senza essere diffusamente utilizzata. Deep Blue è una vittoria in un dominio chiuso e formalizzato, ma non è un'interfaccia universale.
La trasformazione che prepara il successo di massa arriva quando si allineano tre ingredienti che, per decenni, sono stati il collo di bottiglia: dati, potenza di calcolo e architetture capaci di assorbirli entrambi. È qui che il deep learning, a partire dagli anni 2010, cambia davvero la traiettoria: dataset più grandi, GPU più potenti, framework più maturi. Nel 2012, la svolta nella visione artificiale rende evidente che le reti profonde addestrate su molti dati possono superare gli approcci tradizionali. Nel 2016 AlphaGo mostra che, integrando reti neurali con strategie e ricerca, si possono dominare compiti considerati per lungo tempo "troppo complessi" per una macchina. Questi momenti hanno un impatto culturale enorme, ma, ancora una volta, non sono interfacce.
La svolta verso l'interfaccia arriva con il linguaggio e un'architettura che rendono la scala più praticabile: i Transformer, dal 2017 in poi. Quel passaggio ha un significato industriale: se un'architettura è parallelizzabile e scala bene con l'hardware, allora la crescita non è più soltanto un esperimento accademico, ma una traiettoria competitiva. Nel 2018 la comprensione del linguaggio migliora sensibilmente grazie a modelli che diventano rapidamente standard; nel 2020 la generazione di testo a scala molto grande rende popolare l'idea che "più dati e più parametri" possano generare capacità generaliste. Ma non basta ancora: un modello potente non è automaticamente un prodotto usabile.
Qui entra un passaggio che considero cruciale: l'allineamento all'utente, cioè la capacità del sistema di seguire le istruzioni, mantenere il tono e restare coerente in un dialogo. Quando questi elementi si combinano con una UX elementare — una chat — avviene la trasformazione culturale. L'AI diventa qualcosa che non devo "studiare": posso semplicemente provarla. E in quel momento accade ciò che accadde con la GUI: la tecnologia scavalca il confine degli esperti.
Se riprendo il parallelismo con Excel e PowerPoint, vedo lo stesso meccanismo: nessuno ha adottato Excel perché era concettualmente elegante; lo ha adottato perché era concretamente utile e relativamente semplice. Nessuno ha adottato PowerPoint perché era la migliore teoria della comunicazione; lo ha adottato perché era una scorciatoia concreta per produrre materiale condivisibile. L'AI ha fatto lo stesso: ha offerto una scorciatoia concreta per produrre testi, riassunti, traduzioni, idee, bozzetti, e poi immagini e video. Ha vinto perché riduce i costi d'ingresso e quelli mentali.
Dall'AI come strumento all'AI come infrastruttura
A questo punto, però, devo affrontare l'obiezione più frequente e più legittima: "Sì, ma l'AI sbaglia". Sbaglia i calcoli, confonde fatti, inventa dettagli, può essere incoerente. È vero. E questo, per me, è un altro motivo per cui l'AI ha avuto successo: perché l'industria non ha aspettato che i modelli diventassero perfetti. Ha costruito intorno ai modelli un modo pragmatico per aggirare i limiti.
È qui che entrano la fase degli agenti e quella dei tool. Invece di pretendere che il modello faccia tutto, lo si usa per ciò che sa fare meglio — comprendere gli intenti, pianificare, generare testo — e gli si affiancano strumenti esterni per ciò che richiede determinismo: calcolo, interrogazioni su database, recupero di documenti, verifica dei dati, esecuzione di azioni. È una mossa concettualmente simile a quella che Excel ha normalizzato: Excel non "capisce" il mondo, ma delega parte dell'intelligenza a formule e funzioni precise; l'utente costruisce un sistema che combina flessibilità (la griglia) e determinismo (la matematica delle funzioni). Con l'AI succede qualcosa di analogo: il modello genera e ragiona in linguaggio naturale, ma quando serve precisione, chiama uno strumento esterno e incorpora il risultato.
Questo è uno spartiacque importante, soprattutto in azienda. Un assistente che "scrive bene" è interessante; un sistema che esegue passi concreti — aprire un ticket, compilare un modulo, aggiornare un CRM, cercare tra documenti autorizzati, generare un report — diventa un investimento. È in questo passaggio che l'AI esce dalla fase "demo" e diventa infrastruttura operativa.
E qui torna l'osservazione iniziale sull'integrazione tra dati aziendali e SaaS: è il punto in cui il valore si stacca dall'hype. Non perché la generazione di testo non sia utile, ma perché la vera produttività arriva quando l'AI vive all'interno dei processi. Un esempio concreto, molto comune: nel supporto clienti non si chiede all'AI di "inventare risposte", ma di riassumere il problema, recuperare la policy corretta, suggerire una risposta coerente con il tono e le regole e, magari, predisporre i passaggi per la risoluzione. Un altro esempio: nell'IT interno, l'AI trasforma richieste confuse in classificazioni corrette, indica la procedura, guida l'utente con domande mirate, e se serve aprire automaticamente un ticket già completo di contesto. È una catena di lavoro in cui l'AI funziona bene non perché sia infallibile, ma perché riduce i tempi e aumenta la consistenza.
Arrivati qui, la dimensione culturale — immagini e video — sembra quasi un "extra", ma in realtà è parte integrante del successo. Perché la cultura digitale di oggi non è solo testo. È soprattutto visivo. Quando l'AI rende facile trasformare o generare un'immagine, abbassa il costo della creatività visiva nello stesso modo in cui Excel ha ridotto il costo della modellazione numerica: prima servivano skill e tempo, ora servono soprattutto intenzione e iterazione. Il video amplifica ulteriormente questa dinamica, perché è la grammatica dominante della comunicazione contemporanea: ritmo, montaggio, continuità, atmosfera. Quando un sistema consente di "scrivere" video con istruzioni e esempi, non sta soltanto automatizzando: sta rendendo accessibile una forma espressiva che prima era costosa.
Questo spiega perché l'AI sia diventata rapidamente un fenomeno culturale: produce output in un formato più condivisibile ed emotivo. Ed è anche qui che emergono le ambivalenze: se rendere facile produrre è un bene, rende anche più facile saturare lo spazio informativo; se rendere facile manipolare immagini e video è creativo, rende anche più difficile fidarsi del "visivo". È il rovescio della democratizzazione: quando tutti possono produrre, il volume cresce e la fiducia si sposta dalla "verosimiglianza" alla tracciabilità e al contesto.
Il circuito hardware-software che amplifica tutto
A questo punto entra in gioco un'altra osservazione che considero fondamentale e che spesso viene trattata come contorno, mentre è la struttura: l'hardware e la sua evoluzione consequenziale.
Nella storia dell'informatica, l'hardware è quasi sempre cresciuto per soddisfare nuove richieste generate dal software e dalle abitudini. Le interfacce grafiche hanno richiesto più memoria e maggiore capacità di rendering; il web moderno ha richiesto più CPU e più RAM; il multimedia ha richiesto accelerazione; il gaming ha spinto le GPU; la virtualizzazione ha spinto i core e lo storage. Ogni ondata ha generato un nuovo carico di lavoro standard. E quando un carico diventa standard, il mercato lo ottimizza.
L'AI sta facendo la stessa cosa, con una peculiarità: crea domanda sia nel data center sia sul dispositivo. Addestrare e servire modelli grandi ha reso centrali le GPU e l'infrastruttura cloud, ma l'adozione di massa sta spingendo anche verso l'esigenza opposta: l'inferenza locale per latenza, privacy, costo, offline, efficienza energetica. Da qui la spinta verso acceleratori dedicati (NPU) e un'integrazione più stretta con sistemi operativi e applicazioni. È un circuito di retroazione: più l'AI diventa parte dell'esperienza quotidiana, più si cercano soluzioni efficienti; più l'hardware offre soluzioni efficienti, più è sensato integrare l'AI ovunque.
E questo ci riporta al tema delle interfacce, poiché l'integrazione con il sistema operativo è una forma di "normalizzazione" culturale. Quando una funzione è nel sistema, smette di essere un tool: diventa aspettativa. È successo con la stampa, con la gestione delle foto, con la ricerca nei file, con la sincronizzazione, con la condivisione. Sta succedendo con l'AI: suggerimenti, trascrizioni, riassunti, generazione di contenuti, assistenza contestuale. È un passaggio simile a quello che ha reso Linux e altri ambienti più accessibili nel tempo: non perché la complessità sparisca, ma perché l'esperienza standard si avvicina al gesto umano.
A questo punto posso ricomporre il quadro e dire, senza scorciatoie, perché l'AI abbia avuto successo.
Ha avuto successo perché è stata "consegnata" al pubblico nella forma più naturale possibile: la conversazione. Ha avuto successo perché ha ridotto il costo cognitivo del lavoro informativo, trasformando la ricerca in sintesi e la pagina bianca in una bozza. Ha avuto successo perché si è integrata con i dati e gli strumenti, diventando un pezzo dei processi e non un gadget. Ha avuto successo perché i suoi limiti più evidenti sono stati affrontati con architetture e sistemi che combinano modello e tool, anziché aspettare la perfezione. Ha avuto successo perché ha conquistato immagini e video, cioè il linguaggio più potente e condivisibile della cultura digitale contemporanea. Ha avuto successo perché si innesta nel ciclo storico software→abitudini→richieste→hardware, e quindi spinge a ottimizzazioni che, a loro volta, ne amplificano la diffusione.
E soprattutto, ha avuto successo perché sta diventando ciò che Excel e PowerPoint sono stati per il lavoro d'ufficio: una tecnologia che, quando entra stabilmente nella quotidianità, cambia la grammatica. Se Excel ha reso normale ragionare per modelli tabellari e PowerPoint ha reso normale ragionare per narrazioni in slide, l'AI rende normale un modo di lavorare in cui gran parte della produzione inizia come bozza generata e poi viene guidata, revisionata, vincolata, verificata. Il lavoro si sposta dal "produrre da zero" al "dirigere e controllare". Nasce una nuova alfabetizzazione: saper chiedere bene, saper dare vincoli, saper riconoscere quando serve una fonte, saper verificare e integrare.
Qui c'è anche un rischio che ritengo utile esplicitare: ogni grammatica comporta distorsioni. Excel ha potenziato l'analisi, ma ha anche normalizzato modelli fragili e errori silenziosi, e ha reso "vero" ciò che era in tabella. PowerPoint ha reso più efficiente la comunicazione, ma ha anche favorito semplificazioni e il pensiero "a punti". L'AI può portare benefici enormi, ma può anche normalizzare la dipendenza dalla bozza e l'illusione di comprensione: quando un testo è fluido, sembra credibile; quando un'immagine è convincente, sembra vera; quando un video è coerente, sembra reale. La nuova grammatica richiede quindi una nuova disciplina: verificare, ancorare, controllare i permessi, misurare l'affidabilità, progettare flussi che tollerino l'errore e lo rendano visibile.
Se devo chiudere con un'idea unica, scelgo questa: il successo dell'AI non è un incidente né è solo hype. È la conseguenza di una convergenza storica tra interfacce più naturali, modelli scalabili, infrastrutture mature, integrazioni operative e un ecosistema hardware che si sta adattando alle nuove richieste. È lo stesso tipo di convergenza che, in passato, ha trasformato strumenti come il foglio di calcolo e la presentazione digitale in standard di fatto. La differenza è che, stavolta, lo standard non è soltanto un formato o un'applicazione: è un modo di dialogare con il software e, sempre di più, un modo di produrre linguaggio in tutte le sue forme — testo, immagine, video — con una facilità che fino a pochi anni fa sembrava irrealistica.
L’Autore - Antonio Ieranò
Sono un cybersecurity strategist, scrittore e “professionista del disturbo”, con oltre vent’anni trascorsi nelle trincee fra tecnologia, diritto e quel raro animale mitologico chiamato buon senso.
Tra le varie cose, Ex Security Evangelist in Cisco, Huawei e Proofpoint, mi diverto a tradurre complessità in qualcosa che gli esseri umani possano usare davvero: trasformo acronimi in storie, e storie in decisioni un po’ meno sbagliate.
Scrivo di cybersecurity, regolazione e dell’assurdità dell’era digitale con umorismo, ironia e una fastidiosa precisione tecnica. Il tono può strappare un sorriso, ma il messaggio tende a lasciare il segno.
Quando non scrivo, non parlo o non discuto (quasi sempre) educatamente con le normative, di solito suono la chitarra abbastanza forte da interferire con il Wi-Fi. 🎸