Durante un recente evento pubblico Sam Altman, fondatore e CEO di OpenAI, ha toccato alcuni dei “temi caldi” in tema di Intelligenza Artificiale. L’imprenditore ha cercato di rispondere ai timori riguardo a una possibile crisi occupazionale, e di definire con maggiore precisione quale sarà l’impatto di questa tecnologia sul mondo del lavoro. Confermando che, secondo lui, la richiesta di sviluppatori non diminuirà in virtù del paradosso di Jevons, ma ci saranno cambiamenti enormi - li stiamo già vedendo - nel modo di lavorare.
Questo cambio di prospettiva è cruciale per comprendere come le imprese debbano muoversi in un mercato dove persino un punto di riferimento come OpenAI rischia perdite miliardarie. Il punto focale tuttavia non è una novità, anzi è qualcosa che negli ultimi due anni si è ripetuto allo sfinimento: noi esseri umani dobbiamo lasciar andare il lavoro di base, quello semplice, quello che la macchina sa fare meglio di noi. Come per esempio scrivere codice. E dobbiamo dedicarci a compiti più complessi e avanzati, come la revisione dei risultati e l’orchestrazione degli strumenti.
Si tratta di saper dirigere un'intelligenza artificiale per eseguire intenti complessi. Gli sviluppatori che si limitano alla sintassi e al debugging rischiano di diventare obsoleti, mentre chi padroneggia l'orchestrazione dei risultati vedrà esplodere il proprio valore professionale. Altman ha chiarito che "il ruolo dell'ingegnere sta cambiando fondamentalmente; passerai meno tempo a scrivere codice e più tempo a comandare il computer".
Quando si parla di prodotti software, poi, gli strumenti AI rendono molto facile creare un nuovo prodotto. Oggi un solo fondatore può costruire una piattaforma SaaS in un fine settimana, eliminando le barriere tecniche storiche. Tuttavia, OpenAI avverte che la sfida si è spostata dal prodotto alla distribuzione: in un mercato inondato di software, il vero collo di bottiglia è diventato l'attenzione dell'utente. Altman osserva cinicamente che "la parte più difficile non è più realizzare il prodotto, ma fare in modo che alla gente importi".
Il futuro prossimo vedrà anche il tramonto del software statico a favore di soluzioni bespoke o "liquide". I programmi non saranno più blocchi fissi uguali per tutti, ma codice generato in tempo reale per adattarsi alle esigenze specifiche del singolo utente. Altman immagina un'interfaccia che si riscrive da sola basandosi sull'intento del momento, trasformando la tecnologia in un organismo dinamico e non più in uno strumento rigido.
Questa accelerazione produce un boom deflattivo dove il costo dell'intelligenza digitale crolla verso lo zero. In questo scenario un singolo individuo può avere la produttività di un intero team; qui Altman forse esagera un po’ con la fantasia, ma il pensiero che ne consegue ha una precisione chirurgica: vendere il proprio tempo a ore diventerà una strategia perdente, spingendo i professionisti verso il possesso di asset o leve tecnologiche proprietarie.
In altre parole, il “nuovo professionista” che emerge dall’AI è qualcuno che possiede competenze e strumenti specifici, ma non lavora “a ore”.
Resilienza e l’era dell’intelligenza a costo zero
Il passaggio più critico dell'analisi riguarda la biosicurezza, identificata come il rischio più grave per il 2026. I modelli attuali dimostrano competenze pericolose in campo biologico, rendendo necessaria una transizione dalla prevenzione alla resilienza sociale. Altman sostiene che dobbiamo trattare l'AI come il fuoco: non si può vietare, ma servono codici antincendio e materiali resistenti per limitare i danni di attori malevoli.
L'istruzione deve subire una rotazione analoga, abbandonando l'enfasi sulla memorizzazione nozionistica. Altman consiglia di tenere i bambini lontani dall'AI per favorire il contatto con la fisica reale, mentre per gli adulti le competenze chiave diventano l'agency e la capacità di disimparare i propri flussi di lavoro ogni sei mesi. Chi si nasconde dietro l'orgoglio professionale per evitare i nuovi strumenti finisce semplicemente per rendersi non assumibile in un mercato che corre.
Il processo di selezione di OpenAI riflette già questa mutazione: i candidati devono risolvere in venti minuti problemi che un tempo richiedevano due settimane. Non conta il metodo, ma la velocità della soluzione e l'efficacia nell'uso degli strumenti disponibili. Questa pressione sulla velocità ignora però il problema della coerenza logica sui compiti lunghi, dove anche un'accuratezza del 99% fallisce matematicamente su sequenze di cento passaggi.
Le prossime iterazioni dei modelli non punteranno solo sulla potenza bruta ma sulla coerenza dei risultati. È una rincorsa necessaria per abilitare un futuro di agenti autonomi affidabili, superando la fase delle allucinazioni croniche. Scommettere sulla permanenza dei difetti attuali dell'AI significa scommettere contro la tecnologia che evolve più rapidamente nella storia umana.
L'analisi di Altman delinea un panorama dove l'efficienza non è più un vantaggio competitivo, ma un requisito minimo di sopravvivenza. Non si tratta tanto, o non solo di sostituzione: le AI sono in grado di fare cose che ci immaginavamo fossero possibili solo con una grande intelligenza umana.
Invece le macchine ci stanno mostrando che certi lavori “alti” in verità sono attività di bassa lega facilmente replicabili con un algoritmo. Il nostro compito è diventare migliori di così, fare le cose che sono impossibili per le macchine. Cose come assicurare la qualità e la sicurezza dei risultati, o orchestrare molte AI in modo sensato.
Le AI non sono in grado di fare queste cose ma purtroppo ad oggi nemmeno molti esseri umani. Ed è quella - solo quella - la direzione che dobbiamo prendere sia come professionisti sia come formatori.
Se l'intelligenza diventa troppo economica per essere misurata, l'unica variabile scarsa resterà la capacità di giudizio etico e strategico su ciò che le macchine producono.
La gestione di questa transizione richiederà un realismo brutale da parte dei decisori, evitando l'entusiasmo cieco tipico delle bolle speculative; sarà difficile trovare senso e significato in tutto questo, e sarà difficile non farsi accecare da mode passeggere che si alternano nei nostri feed senza soluzione di continuità. Ma dobbiamo farcela. Il successo dipenderà dalla capacità di integrare queste potenze in flussi di lavoro resilienti, senza delegare alla macchina la responsabilità ultima del risultato.