È una delle frasi più ricorrenti nel dibattito sull'intelligenza artificiale: "L'AI non ti ruberà il lavoro, ma qualcuno che la usa sì". Apparentemente è un consiglio utile: sembra suggerire un modo per mettersi al sicuro. Ma in realtà è una verità inutile. È corretta solo se si guarda il problema dalla prospettiva sbagliata. Il rischio, spiega Sangeet Paul Choudary, è che questo tipo di slogan dia un'illusione di comprensione, mentre in realtà porta le persone a smettere di farsi le domande giuste.
Ciò che dovremmo capire è che l’AI sta ridefinendo la realtà (Luciano Floridi parla di e-ontologizzazione), e quindi non si tratta di fare il proprio lavoro in un modo nuovo, usando l’AI. Ma di prepararsi - per quanto possibile - a un mondo che ancora non esiste e che sarà plasmato dall’AI stessa.
L’autore ricorre a una metafora storica basata sulla linea Maginot: una formidabile opera ingegneristica, costruita dalla Francia per difendersi da una guerra che non si sarebbe mai combattuta in quel modo. Era tecnicamente impeccabile, ma strategicamente irrilevante. Anche in quel caso, la soluzione era giusta rispetto a un problema mal posto. Lo stesso accade oggi: chi si limita a usare bene l’AI, come chi presidiava i bunker della Maginot, rischia di trovarsi del tutto fuori contesto quando il sistema cambia struttura.
Per tentare di “smontare” quella frase a effetto, poco più di un meme in effetti, l’autore ne individua otto punti deboli. Ogni fallacia rappresenta un errore di interpretazione diffuso, che impedisce a imprenditori, manager e lavoratori di comprendere dove si gioca davvero la partita dell'AI. Non è sul singolo strumento, ma sulla trasformazione del sistema.
Automazione vs. aumento di produttività
Molti credono che basti scegliere il giusto strumento di AI per migliorare le proprie performance: se l'automazione è una minaccia, allora diventare bravi con l’AI sarà la salvezza. Ma Choudary spiega che questa dicotomia è fuorviante: l'intelligenza artificiale non si limita a ottimizzare un compito, ma può ristrutturare l'intero sistema in cui quel compito aveva senso.
Un esempio concreto viene dalla portualità: l'introduzione del container standard non ha solo automatizzato il carico e scarico delle navi, ma ha cambiato completamente la geografia economica del trasporto marittimo. Alcuni porti sono diventati marginali, altri centrali. I lavoratori non hanno perso il lavoro per colpa di una gru automatica, ma perché la logica del sistema era cambiata.
L'aumento di produttività garantisce valore
Una convinzione radicata è che produrre di più significhi automaticamente essere più competitivi. Ma è vero solo se il sistema di distribuzione del valore resta stabile. In realtà, come mostra l'esempio del fast fashion, l'aumento della produttività può coincidere con un abbassamento dei margini per i produttori, mentre il valore viene catturato da chi coordina il sistema.
Fare di più in meno tempo, diventare più efficienti, rischia quindi di avere l’effetto contrario. Nel momento in cui tutti siamo più bravi e più efficienti, il lavoratore è di nuovo un ingranaggio intercambiabile.
Bisogna invece focalizzarsi sulla creazione e sul controllo del valore. Un principio sui cui ci siamo già soffermati di recente parlando di smart working.
I lavori sono entità fisse
Molte professioni sono considerate "blocchi" stabili, composti da compiti ben definiti. Ma Choudary evidenzia come questa visione sia una semplificazione funzionale, utile per organizzare il lavoro ma fuorviante per comprenderne la natura reale. I ruoli professionali, infatti, non sono entità fisse: sono soluzioni transitorie a specifici problemi di coordinamento all’interno di un sistema dato. Esistono finché servono a risolvere certe interdipendenze; quando il sistema cambia, quei ruoli possono perdere significato, anche se i compiti individuali restano validi.
Un esempio efficace viene dal basket: per decenni il gioco è stato strutturato attorno a cinque posizioni fisse, ciascuna con un insieme di responsabilità chiare. Ma con l’introduzione massiccia dell’analisi dati, la logica di gioco si è trasformata. I ruoli si sono fluidificati, alcune funzioni sono diventate ridondanti, altre sono emerse in modo trasversale. Lo schema precedente, pur tecnicamente funzionante, non era più vantaggioso nel nuovo contesto competitivo.
Nelle organizzazioni accade lo stesso. Continuare a perfezionarsi nel proprio ruolo può sembrare prudente, ma rischia di essere una forma di inerzia strategica. Senza chiedersi se quel ruolo ha ancora senso nel sistema che si sta configurando, si rischia di investire in una traiettoria destinata all’obsolescenza.
Competizione tra individui che usano l'AI
"Basta imparare a usare bene l'AI" è il nuovo mantra. Un'illusione simile ha coinvolto anche i correttori di bozze, figura un tempo cruciale nell'editoria. Con l'arrivo dei software di videoscrittura e degli strumenti di autocorrezione, il controllo ortografico è diventato un compito integrato e automatizzato. Ma non sono stati i programmi a rimpiazzare direttamente i correttori: è cambiato l'intero ciclo di produzione dei testi. Il valore del controllo linguistico si è spostato o ridotto, rendendo il ruolo superfluo.
Nelle aziende si continuano a produrre moltissimi documenti, anche più di prima, ma non servono più persone che si occupino esclusivamente di correggere i refusi. Similmente, il computer ha reso la dattilografia una competenza base di tutte le persone, smettendo di essere una specializzazione. Oggi chi non sa scrivere velocemente con una tastiera, banalmente, non ha una competenza essenziale per fare più o meno qualunque lavoro.
Anche in questo caso, la trasformazione non è stata tecnica, ma sistemica. Ma come mostra l'esempio dei dattilografi professionisti, non basta usare il nuovo strumento per rimanere rilevanti. I word processor non hanno portato a una nuova gerarchia tra dattilografi, li hanno resi del tutto superflui.
La tecnologia non ristruttura solo il modo in cui si esegue un compito: può rimuovere del tutto la necessità di quel compito. Pensare che la competizione sia tra colleghi che imparano a usare Copilot o ChatGPT è una semplificazione: è il sistema a decidere se quel ruolo ha ancora senso.
I flussi di lavoro restano invariati
Un altro errore frequente è credere che l'AI acceleri le attività senza modificarne la struttura. In realtà, molte tecnologie cambiano la sequenza delle operazioni e ridistribuiscono il potere decisionale. È simile
Lo stesso avviene nelle organizzazioni. Chi adotta l'AI per "fare prima" rischia di investire risorse in processi destinati a scomparire. Il vantaggio non è rendere più veloce l'esistente, ma costruire da zero nuovi modelli operativi.
L'AI è un semplice strumento neutrale
Molti considerano l'AI come un tool neutro, da usare a piacimento. Ma ogni strumento tecnologico porta con sé una visione implicita del mondo e un modello di azione. Già con Excel, l'accesso al calcolo e alla modellizzazione ha spostato il centro decisionale verso chi sapeva usare il foglio di calcolo per simulare scenari, strutturare KPI e misurare performance. In quel contesto, non era il tool in sé a contare, ma chi deteneva la capacità di impostarlo e leggerlo.
L'intelligenza artificiale fa un passo ulteriore: non si limita a fornire strumenti analitici, ma può influenzare o direttamente determinare le scelte operative, specialmente quando viene delegata a operare in autonomia (come nel caso degli agenti AI o dei sistemi di raccomandazione). La questione allora non è solo tecnica, ma politica: chi ha accesso al modello? Chi decide cosa ottimizzare? Chi imposta gli obiettivi, i limiti e le soglie?
In assenza di consapevolezza critica, il rischio per manager e lavoratori è che la delega si trasformi in deresponsabilizzazione. Più un'organizzazione automatizza, più i centri di potere si spostano verso chi governa l'infrastruttura algoritmica. Senza un disegno consapevole, il rischio è ritrovarsi a eseguire decisioni prese altrove, da logiche modellate da altri, in contesti non sempre trasparenti.
Se il ruolo resta, resta anche il valore
Un ruolo può restare sulla carta, ma perdere progressivamente il suo valore economico. Choudary porta l'esempio dei musicisti da studio: più lavoro, più canzoni, meno guadagni. L'inflazione del contenuto, favorita dalla distribuzione digitale, ha ridotto il compenso medio, anche se il lavoro in sé è aumentato.
Con l'intelligenza artificiale si rischia lo stesso meccanismo: la facilità di produzione porta a una compressione dei margini. La differenza tra un professionista esperto e uno supportato da AI si assottiglia. E con essa, la giustificazione per una retribuzione più alta.
Le imprese possono integrare l'AI senza cambiare struttura
Molte aziende parlano di "integrazione dell'AI" come se fosse una funzione da aggiungere. Ma se l'intelligenza artificiale cambia come si prendono decisioni, allora cambia anche il modo in cui un'impresa è organizzata.
Trattare l'AI come un semplice upgrade, senza rivedere strategia, cultura aziendale e flussi di lavoro, è come usare strumenti moderni in una logica gestionale del secolo scorso. Le imprese che resistono al cambiamento strutturale rischiano di restare ferme mentre il mercato evolve.
La tesi di Choudary, utile per chi dirige imprese o lavora nel mondo B2B, è che il vero impatto dell'intelligenza artificiale non è tecnologico, ma sistemico. Non riguarda i compiti, ma la ridefinizione di ciò che ha valore. Non è questione di imparare ad usare l'AI, ma di capire come cambia il contesto in cui la si usa.
Imprenditori, dirigenti e professionisti non possono limitarsi a seguire l'ultima moda tecnologica. Devono chiedersi: in che tipo di sistema opereremo tra cinque anni? Quali competenze avranno ancora un senso? Chi controllerà le interazioni, i dati, le decisioni?
Restare nel frame attuale significa investire nel passato. Capire il nuovo sistema, invece, è la sola strategia sensata.
Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?