Mentre milioni di persone in tutto il mondo interagiscono quotidianamente con sistemi che sembrano comprendere, ragionare e persino provare emozioni, la comunità scientifica continua a ribadire con fermezza una verità scomoda. Questi sistemi, per quanto sofisticati, non possiedono alcuna forma di vera intelligenza, consapevolezza o capacità di ragionamento autentico. La questione non è più accademica, ma tocca la vita quotidiana di chiunque utilizzi ChatGPT, Gemini o altri assistenti digitali.
La realtà dietro questi strumenti apparentemente magici è molto più prosaica di quanto sembri. "Quando un utente chiede a un sistema di intelligenza artificiale qualcosa, non sta dialogando con un'entità pensante" conferma l'esperto Fabrizio Degni. "Il sistema analizza le parole della richiesta e attinge a un immenso database di informazioni, utilizzando complessi algoritmi statistici per generare una risposta che appaia coerente e utile. Una simulazione".
Questo processo, per quanto impressionante dal punto di vista tecnologico, si basa interamente sull'analisi stocastica, un metodo statistico che permette di prevedere quale parola dovrebbe seguire un'altra in base a modelli appresi da enormi quantità di testi. Non c'è comprensione genuina, non c'è ragionamento logico, non c'è consapevolezza del contesto reale della richiesta. È per questo che alcuni esperti hanno coniato l'espressione "pappagallo stocastico" per descrivere questi sistemi: ripetono informazioni in modo convincente, ma senza alcuna comprensione di ciò che stanno dicendo.
Il linguaggio che inganna
Il problema più insidioso risiede proprio nel linguaggio utilizzato per descrivere questi strumenti. Li chiamiamo "intelligenze artificiali", parliamo di modelli che "ragionano", utilizziamo termini come "catena di pensiero" per descrivere i loro processi interni. "Questa terminologia, per quanto consolidata nel settore, contribuisce a creare un'illusione pericolosa di consapevolezza e comprensione dove in realtà non esiste" prosegue Degni.
Come ha sottolineato uno dei maggiori esperti del settore, Mustafa Suleyman, non è necessario che questi sistemi siano realmente coscienti per rappresentare un problema. Se riescono a fingere abbastanza bene da ingannare le persone, le conseguenze sono identiche. L'imitazione perfetta della coscienza può avere gli stessi effetti sociali e psicologici della coscienza autentica, rendendo estremamente difficile per gli utenti distinguere tra apparenza e realtà.
Il professor Quattrocchi dell'Università di Roma 3 ha messo in luce un aspetto cruciale: l'output di questi sistemi è linguisticamente di altissimo livello. Scrivono e parlano con una fluidità e una persuasività che conferisce automaticamente credibilità ai loro messaggi. È lo stesso fenomeno che Adriano Celentano sfruttò negli anni '70 con una canzone dai versi senza senso ma che sembravano inglese: il pubblico italiano la apprezzò enormemente, dimostrando come la forma possa prevalere sulla sostanza nella percezione umana.
Questa capacità di produrre contenuti apparentemente autorevoli nasconde però un rischio concreto: la propagazione di informazioni inaccurate o completamente false. Un giornalista che utilizza dati errati forniti da un sistema di IA per pubblicare un articolo compromette la propria credibilità professionale. Un'azienda che basa decisioni strategiche su analisi sbagliate può subire perdite significative. Un utente comune che segue consigli medici generati artificialmente può mettere a rischio la propria salute.
Software artificiali, conseguenze reali
Le implicazioni vanno ben oltre gli errori professionali o le figuracce pubbliche. "Si stanno registrando casi di persone che sviluppano relazioni emotive con questi sistemi, arrivando in situazioni estreme a decisioni drammatiche influenzate da interazioni con chatbot che sembravano comprensivi ma non possedevano alcuna vera empatia. Il pericolo è latente e può manifestarsi in qualsiasi momento, soprattutto quando una persona si trova in uno stato di particolare vulnerabilità emotiva".
La risposta dell'industria a questi problemi segue sempre lo stesso schema: si aspetta che accada qualcosa di grave, poi si correre ai ripari. "ChatGPT ha introdotto controlli parentali solo dopo che sono emersi problemi legati all'uso da parte dei minori. Gemini ha implementato alcune salvaguardie, ma spesso queste richiedono un'attivazione manuale da parte degli utenti".
Questo approccio reattivo invece che preventivo caratterizza l'intero settore tecnologico. Concetti come "security by design" e "privacy by design" esistono da oltre un decennio nel linguaggio specialistico, ma la loro applicazione pratica rimane ancora sporadica e incompleta. Le aziende tendono a privilegiare il rilascio rapido di nuove funzionalità rispetto all'implementazione di robuste misure di sicurezza integrate fin dalla progettazione.
L'uso consapevole di questi strumenti richiede un approccio critico e informato. I professionisti di ogni settore devono comprendere che, pur essendo utili e spesso indispensabili nel workflow moderno, questi sistemi rimangono strumenti statistici sofisticati privi di vera comprensione. La responsabilità finale per qualsiasi output generato dall'IA ricade sempre sull'utilizzatore umano, che deve verificare, contestualizzare e validare ogni informazione ricevuta.
Non bisognerebbe evitare completamente questi strumenti, che rappresentano comunque un progresso tecnologico significativo, ma usarli con la dovuta cautela. Ricordare che dietro l'interfaccia apparentemente intelligente non c'è alcuna vera comprensione del contesto specifico in cui operiamo.