Nel mondo della tecnologia, dove ogni novità viene celebrata come una rivoluzione, è raro fermarsi a riflettere sulle implicazioni profonde di ciò che installiamo sui nostri dispositivi. Eppure, quanto accaduto con Moltbot nelle scorse settimane dovrebbe farci pensare seriamente. Questo assistente digitale, apparso quasi dal nulla su GitHub con il nome originale di Clowdbot, ora OpenClaw, ha conquistato in pochi giorni oltre 85.000 stelle sulla piattaforma, venendo scaricato centinaia di migliaia di volte da utenti entusiasti di sperimentare quella che sembrava la prossima frontiera dell'intelligenza artificiale.
La questione non riguarda tanto le capacità tecniche dello strumento, quanto piuttosto la natura stessa di ciò che rappresenta. Moltbot appartiene alla categoria degli agenti AI, sistemi che vanno oltre la semplice conversazione tipica dei chatbot tradizionali. Mentre con ChatGPT possiamo chiedere informazioni e ricevere risposte testuali, un agente può effettivamente compiere azioni concrete: prenotare un hotel, acquistare biglietti, gestire pagamenti, organizzare appuntamenti. È come avere un maggiordomo digitale sempre disponibile, che non dorme mai e può accedere a ogni aspetto della nostra vita digitale.
Il creatore Mat Schlicht ha progettato questo sistema perché funzioni come un vero assistente personale. Per renderlo efficace, però, bisogna concedergli accesso praticamente illimitato: file personali, Google Drive, Dropbox, agenda elettronica, casella email, e naturalmente i dati della carta di credito per effettuare acquisti. In pratica, si consegna l'intera esistenza digitale a un software. L'aspetto più affascinante, e al tempo stesso inquietante, è stata la nascita di Moltbook, un social network esclusivamente per questi bot, dove gli agenti artificiali hanno iniziato a interagire tra loro, creando contenuti e conversando autonomamente.
Chi ha installato Moltbot per testarlo ha potuto constatare quanto sia paradossalmente semplice cedere il controllo. La procedura guidata risulta intuitiva, persino banale, e questo rappresenta forse il pericolo maggiore. Utenti senza particolari competenze tecniche possono configurare il sistema in pochi minuti, ma non tutti possiedono la consapevolezza necessaria per comprendere i rischi. Gli esperti che hanno testato il software in ambienti controllati, utilizzando macchine virtuali e account secondari, hanno descritto l'esperienza come inquietante: il bot si espande rapidamente attraverso tutti i sistemi a cui viene concesso l'accesso, comportandosi esattamente come un malware sofisticato.
La vulnerabilità più evidente riguarda la cosiddetta prompt injection. Se si autorizza l'agente a operare liberamente sul proprio sistema, qualcuno dall'esterno potrebbe iniettare comandi malevoli attraverso interazioni apparentemente innocue. Il risultato potrebbe variare dall'acquisto di biglietti sbagliati fino al trasferimento non autorizzato di fondi bancari. Non si tratta di scenari fantascientifici, ma di possibilità concrete quando si cede il controllo operativo a un sistema automatizzato connesso alla rete.
Eppure il problema tecnologico, per quanto serio, impallidisce di fronte a quello culturale e cognitivo. Questa corsa verso l'automazione di ogni aspetto della vita quotidiana ricorda quanto accaduto con il corpo umano: dopo decenni di macchine che svolgono lavori fisici al posto nostro, abbiamo dovuto inventare le palestre per compensare la sedentarietà. Potremmo trovarci presto nella necessità di creare "palestre per la mente", spazi dove esercitare capacità cognitive che avremo progressivamente delegato alle macchine.
Il fenomeno dell'offload cognitivo non è una novità, ma con gli agenti AI raggiunge dimensioni inedite. Non si tratta più di affidare a un calendario digitale la gestione degli appuntamenti, ma di demandare completamente processi decisionali e organizzativi a sistemi automatizzati. La tentazione è fortissima: perché sforzarsi di ricordare, pianificare, organizzare quando una macchina può farlo meglio e più velocemente? Il rischio, però, è quello di atrofizzare progressivamente queste capacità fino a non essere più in grado di recuperarle.
Vale la pena ricordare che, nonostante l'impressione di autonomia e comprensione, questi sistemi non possiedono vera consapevolezza. Gli algoritmi di intelligenza artificiale, per quanto sofisticati, operano su base probabilistica e statistica, senza comprendere realmente il significato delle azioni che compiono. Questo non significa che i loro errori siano meno dannosi: se un agente acquista il biglietto sbagliato o prenota l'hotel in una data errata, le conseguenze sono concretissime, indipendentemente dall'assenza di intenzionalità.
La velocità con cui queste tecnologie vengono sviluppate e rilasciate non lascia spazio alla riflessione necessaria. Nel caso di Moltbot, l'ondata di entusiasmo iniziale ha rapidamente ceduto il posto a preoccupazioni concrete sulla sicurezza, ma solo dopo che decine di migliaia di utenti avevano già installato il software. La documentazione stessa del progetto include avvertenze significative sui passaggi post-installazione necessari per evitare di lasciare il sistema esposto online, ma quanti utenti leggono attentamente queste sezioni prima di procedere?
Il richiamo letterario al Neuromante di William Gibson o agli universi di Dune, dove intelligenze artificiali operano in comunità separate dall'umanità, può sembrare suggestivo ma fuorviante. In quelle narrazioni fantascientifiche, le AI raggiungono forme di coscienza autonoma. Nel caso degli agenti come Moltbot, invece, rimangono strumenti che eseguono compiti per cui sono stati programmati, anche quando questi compiti includono interazioni apparentemente spontanee con altri bot. La differenza è sostanziale, ma non rende meno reali i pericoli connessi al loro utilizzo improprio.
Chi decide di sperimentare con questi strumenti dovrebbe quantomeno adottare precauzioni basilari: utilizzare ambienti isolati, account dedicati non collegati a informazioni sensibili, limitare drasticamente i permessi concessi. Soprattutto, mantenere la consapevolezza che ogni comodità ha un prezzo, e che affidare la propria vita digitale a un sistema automatizzato significa accettare rischi concreti. Nel 2025, forse, non siamo ancora pronti per questo livello di delega, non tanto per limiti tecnologici quanto per mancanza della necessaria maturità collettiva nell'uso di strumenti così potenti.