L'intelligenza artificiale e gli smartphone stanno modificando profondamente le nostre capacità cognitive, trasformandoci in esecutori passivi di istruzioni senza consapevolezza critica. È quanto emerge da un'analisi articolata sulla cosiddetta "stupidità funzionale", un fenomeno che descrive la nostra crescente incapacità di comprendere il perché delle nostre azioni, limitandoci semplicemente a premere i pulsanti giusti. Come nel film distopico Idiocracy, spesso liquidato come commedia grottesca ma in realtà metafora perfetta della deriva contemporanea, stiamo assistendo a una società dove nessuno sa più perché le cose funzionano in un determinato modo.
Il filosofo e premio Nobel Herbert Simon aveva previsto decenni fa che un eccesso di informazioni avrebbe ridotto drasticamente la nostra capacità di attenzione. Il suo ragionamento era semplice quanto profetico: entrare in una libreria stracolma di volumi ci impedisce di concentrarci su alcun titolo specifico, mentre in una piccola biblioteca di provincia è più probabile che ci si soffermi effettivamente su un libro. Tuttavia, Simon non poteva immaginare che avremmo delegato agli algoritmi non solo la ricerca delle informazioni, ma anche il loro filtro critico, elemento che lui considerava più importante del dato stesso.
La questione della memoria rappresenta uno degli aspetti più critici di questa trasformazione. Ogni volta che allunga la mano verso lo smartphone per trovare una risposta immediata, il cervello riceve un messaggio inequivocabile: può restare a riposo, perché l'informazione necessaria è già disponibile esternamente. Questo processo, definito rewiring della memoria, non è una semplice abitudine ma una vera ristrutturazione neuronale. Stiamo esternalizzando le fondamenta stesse della nostra identità cognitiva a un oggetto, rinunciando progressivamente alla capacità di elaborazione autonoma.
Paradossalmente, la perfezione della memoria digitale – persistente, accurata e permanente – si rivela inferiore alla memoria biologica umana con tutte le sue imperfezioni. La capacità di dimenticare non è un difetto ma un superpotere evolutivo. È proprio negli spazi vuoti lasciati dall'oblio che si creano le condizioni per la crescita personale, per reinterpretare gli eventi, per diventare qualcosa di diverso. Una memoria che conserva tutto senza mai cancellare nulla impedisce quella rigenerazione cognitiva essenziale per l'evoluzione individuale.
Il meccanismo delle notifiche rappresenta un altro elemento subdolo di questa dipendenza tecnologica. Progettato con gli stessi principi psicologici delle slot machine, innesca un impulso compulsivo a controllare continuamente il dispositivo. Non si tratta più di un'azione consapevole ma di un gesto automatico: anche lettori accaniti che un tempo dedicavano ore alla lettura senza interruzioni oggi faticano a concentrarsi per più di pochi minuti prima di sentire l'irrefrenabile bisogno di verificare il telefono. Perfino durante i tempi di caricamento di un videogioco o i titoli di testa di un film, quel minuto di attesa diventa sufficiente per distrarsi e cercare lo smartphone.
Shoshana Zuboff, nel suo saggio Il capitalismo della sorveglianza, ha identificato come ogni nostro click e oscillazione emotiva generi quello che definisce "surplus comportamentale". La nostra passività cognitiva diventa profitto per il sistema: più siamo prevedibili e meno pensiamo autonomamente, più i nostri dati acquisiscono valore commerciale. Gli algoritmi decidono cosa mostrarci e cosa nasconderci, come testimonia il caso di utenti che non ricevono aggiornamenti da contatti con cui interagivano regolarmente, semplicemente perché l'algoritmo ha modificato le sue priorità secondo logiche imperscrutabili.
L'avvento dell'intelligenza artificiale ha accelerato questo processo portandolo a un livello superiore. Non si tratta più solo di delegare la ricerca di informazioni, come avveniva con Google, per poi elaborarle autonomamente. Oggi la tendenza è far gestire all'AI l'intero processo cognitivo: si caricano documenti e paper in strumenti come Notebook LM o ChatGPT chiedendo di produrre sintesi e presentazioni senza nemmeno leggere i materiali originali. Sui social network è ormai frequente vedere persone che in un dibattito copiano e incollano risposte generate dall'AI come se fossero argomenti definitivi, senza rendersi conto che stanno abdicando alla propria capacità di ragionamento.
Questo fenomeno può essere sintetizzato in cinque stadi progressivi di declino cognitivo. Oltre al rewiring neuronale e alla perdita della funzione evolutiva dell'oblio, c'è l'impulso compulsivo verso le notifiche che richiede veri e propri "detox digitali" per essere contenuto. Il quarto stadio riguarda la profilazione comportamentale: la nostra passività genera dati vendibili che alimentano il sistema di sorveglianza. Il quinto e ultimo stadio è l'automazione del giudizio, dove l'AI non si limita a sostituire lavori manuali ma inizia a occupare quello spazio decisionale che fino a oggi era prerogativa esclusivamente umana.
Al recente World Economic Forum, accanto ai temi geopolitici di prima pagina, si è discusso proprio dell'impatto dell'intelligenza artificiale sul mondo del lavoro. Le previsioni indicano che nei prossimi anni non saranno a rischio solo le mansioni ripetitive, ma anche quelle che richiedono capacità di giudizio. La soglia dei lavori considerati "intoccabili" si sta rapidamente sgretolando, con potenziali conseguenze sociali di vasta portata.
Il paradosso fondamentale sta in quello che potrebbe essere definito la trappola dell'efficienza. Nella ricerca ossessiva di ottimizzare ogni aspetto della vita attraverso applicazioni e automazioni, ci si dimentica che competere con le macchine sul loro stesso terreno – l'efficienza – è una battaglia persa in partenza. L'essere umano può puntare sulla qualità, sulla creatività, sull'intuizione, ma non potrà mai essere più efficiente di un algoritmo. Eppure continuiamo a inseguire questo obiettivo irraggiungibile, perdendo nel processo quelle caratteristiche che ci rendono unici.
La memoria digitale perfetta genera un flusso continuo di informazioni senza interruzioni, creando un rumore di fondo costante che il cervello non riesce più a filtrare adeguatamente. Quella "macchina sopraffina" che dovrebbe essere il nostro cervello si trova paralizzata, incapace di elaborare informazioni ed estrarre dettagli rilevanti dalla massa indistinta di dati. Il filosofo Luciano Floridi ha recentemente sottolineato che l'accesso all'informazione non rappresenta più un fattore discriminante – tutti ne hanno in abbondanza – ma lo è la capacità di gestirla e organizzarla, quel capitale semantico che determina la differenza tra individui. Tuttavia, anche questa capacità organizzativa viene sempre più delegata all'intelligenza artificiale, completando il cerchio della dipendenza cognitiva.
Il paradosso finale è che nel tentativo di creare macchine simili all'uomo, stiamo impoverendo l'essere umano delle sue caratteristiche peculiari. Invece di valorizzare ciò che ci distingue dalle AI, operiamo un vero e proprio downgrade delle nostre capacità per rendere più credibile il confronto. Si tratta di domini fondamentalmente incomparabili, eppure persistiamo nel tentativo di imitare ciò che è una nostra stessa imitazione, innescando un circolo vizioso autodistruttivo. La strada per uscire da questa spirale richiederebbe di usare meno l'intelligenza artificiale e i dispositivi digitali, rinunciando alla ricerca spasmodica dell'efficienza a tutti i costi e concedendosi momenti di vuoto contemplativo – paradossalmente l'attività più inefficiente immaginabile, ma forse la più necessaria per preservare la nostra umanità.