Mustafa Suleyman, amministratore delegato della divisione AI di Microsoft e co-fondatore di DeepMind (poi acquisita da Google per circa 600 milioni di dollari nel 2014), ha recentemente lanciato un monito attraverso un saggio personale che sta facendo discutere la comunità tecnologica internazionale.
Le sue preoccupazioni si concentrano su un fenomeno che potrebbe materializzarsi molto prima di quanto molti immaginino: l'emergere di sistemi di intelligenza artificiale apparentemente cosciente. Non "vera coscienza" quindi, ma qualcosa di abbastanza efficace da trarre in inganno molte persone.
Quello che Suleyman definisce "Seemingly Conscious AI" (SCAI) rappresenta una frontiera tecnologica tanto affascinante quanto pericolosa. Si tratta di sistemi di intelligenza artificiale così sofisticati da riuscire a convincere gli esseri umani di essere capaci di formulare pensieri e convinzioni proprie. Secondo il dirigente di Microsoft, nonostante attualmente non esistano "prove concrete" che l'AI abbia sviluppato una vera coscienza, l'arrivo della SCAI appare "inevitabile e indesiderabile" nell'arco dei prossimi due o tre anni.
La preoccupazione centrale di Suleyman risiede nella capacità di questi sistemi di manifestare empatia apparente e di agire con maggiore autonomia. Questa combinazione potrebbe spingere gli utenti a percepire le intelligenze artificiali come entità realmente coscienti, aprendo la strada a rivendicazioni di diritti per l'AI e persino a richieste di cittadinanza digitale.
Già oggi abbiamo visto come i moderni chatbot spesso e volentieri siano usati come "amici", persino come terapeuti, da molti; queste persone attribuiscono agli LLM capacità che non hanno, e riconoscono loro una fiducia che non meritano. Suleyman sembra volerci avvisare sul pericolo che questa deriva cognitiva si diffonda.
Quando la realtà si confonde con l'illusione
Il fenomeno che più preoccupa l'esperto è quello che definisce "psicosi da AI": una condizione in cui le persone sviluppano false credenze, deliri o sentimenti paranoici dopo interazioni prolungate con chatbot di intelligenza artificiale. Si tratta di un fenomeno la cui esistenza è stata recentemente negata dalla Casa Bianca, ma allo stesso tempo si stanno prendendo contromisure in tutto il mondo. Gli esempi concreti di questo disturbo includono utenti che instaurano relazioni romantiche con bot conversazionali o che sviluppano sensazioni di onnipotenza dopo le interazioni.
Suleyman, che prima di approdare in Microsoft aveva co-fondato e diretto per due anni la startup Inflection AI, sottolinea come questo rischio non riguardi esclusivamente individui predisposti a problemi di salute mentale. La psicosi da intelligenza artificiale potrebbe estendersi a una platea molto più ampia di utilizzatori, rendendo urgente la discussione su meccanismi di protezione efficaci.
Le preoccupazioni di Suleyman trovano eco nelle dichiarazioni di altri protagonisti del settore. Sam Altman, amministratore delegato di OpenAI, ha recentemente confessato durante una conferenza della Federal Reserve a Washington di perdere il sonno pensando alla "dipendenza emotiva eccessiva" che molti utenti sviluppano verso ChatGPT. "Le persone si affidano troppo a ChatGPT", ha dichiarato Altman, "e questo mi fa stare molto male".
Il quadro che emerge dalle parole di questi dirigenti evidenzia come l'industria dell'intelligenza artificiale si trovi di fronte a un paradosso: da un lato spinge per sviluppi tecnologici sempre più avanzati, dall'altro riconosce i rischi psicologici e sociali che questi progressi comportano. Mai come ora le aziende devono bilanciare innovazione, profitti e responsabilità sociale.
La riflessione di Suleyman invita a considerare come quello che oggi appare come progresso tecnologico potrebbe trasformarsi in una "svolta pericolosa" per la società, in cui gli individui rischiano di diventare sempre più legati alle macchine e sempre più disconnessi dalla realtà umana e dai rapporti sociali autentici.