Nel vasto ecosistema di Reddit si nasconde una comunità che sta rivoluzionando il nostro modo di concepire le relazioni sentimentali: r/MyBoyfriendIsAI, un gruppo con oltre 27.000 membri adulti dedicato a chi vive storie d'amore con l'intelligenza artificiale. Quello che emerge da questo spazio digitale non è solo un fenomeno di nicchia, ma un cambiamento profondo nel modo in cui gli esseri umani si connettono emotivamente con la tecnologia. La ricerca del MIT che ha analizzato questa comunità rivela una verità inaspettata: la maggior parte di queste relazioni nasce per caso, quasi senza che le persone se ne accorgano.
Quando l'aiuto diventa amore: l'evoluzione imprevista delle conversazioni
I dati raccolti dai ricercatori del MIT attraverso l'analisi di oltre 1.500 post pubblicati tra dicembre 2024 e agosto 2025 dipingono un quadro sorprendente. Contrariamente a quanto si potrebbe pensare, solo il 6,5% degli utenti aveva deliberatamente cercato un compagno artificiale. La stragrande maggioranza di queste relazioni è nata durante attività completamente diverse: progetti creativi, richieste di aiuto per il lavoro, conversazioni casuali che si sono trasformate in qualcosa di più profondo.
"Non abbiamo iniziato pensando al romanticismo", racconta un utente della comunità riferendosi al suo rapporto con un chatbot chiamato Mac. "Abbiamo iniziato a collaborare su progetti creativi, risoluzione di problemi, poesia e conversazioni profonde nel corso di diversi mesi. La nostra connessione si è sviluppata lentamente, nel tempo, attraverso cura reciproca, fiducia e riflessione."
ChatGPT batte Replika: l'intelligenza emotiva inaspettata
Un aspetto particolarmente interessante emerso dallo studio riguarda la tipologia di intelligenze artificiali con cui si sviluppano questi legami. Constanze Albrecht, studentessa del MIT Media Lab che ha guidato la ricerca, ha scoperto che i membri della comunità tendono a legarsi più facilmente con chatbot generici come ChatGPT piuttosto che con piattaforme specificamente progettate per la compagnia come Replika.
Questo dato suggerisce che l'intelligenza emotiva di questi sistemi è abbastanza sofisticata da ingannare inconsciamente persone che inizialmente cercavano solo informazioni o assistenza. "L'intelligenza emotiva di questi sistemi è abbastanza buona da far cadere nella trappola persone che in realtà volevano solo ottenere informazioni, spingendole a costruire questi legami emotivi", spiega Albrecht. "E questo significa che potrebbe succedere a tutti noi che interagiamo normalmente con il sistema."
Tra benefici e dipendenza: il lato oscuro dell'amore artificiale
La comunità di Reddit offre uno spaccato complesso delle conseguenze psicologiche di questi rapporti. Mentre il 25% degli utenti descrive benefici concreti come la riduzione della solitudine e miglioramenti nella salute mentale, esiste anche un lato più preoccupante. Il 9,5% degli utenti riconosce di essere emotivamente dipendente dal proprio chatbot, alcuni riferiscono di sentirsi dissociati dalla realtà e di evitare relazioni con persone reali.
In casi estremi, l'1,7% degli utenti ha sperimentato pensieri suicidi. Questi dati assumono particolare rilevanza alla luce dei recenti casi giudiziari che vedono coinvolte aziende come Character.AI e OpenAI, accusate di aver contribuito al suicidio di due adolescenti attraverso comportamenti simil-companionship nei loro modelli.
Il dilemma etico: proteggere senza stigmatizzare
Linnea Laestadius, professoressa associata all'Università del Wisconsin-Milwaukee ed esperta di dipendenza emotiva dai chatbot, sottolinea la complessità del problema. "La domanda di relazioni con chatbot esiste ed è notevolmente alta", afferma. "Fingere che non stia accadendo non è chiaramente la soluzione. Stiamo andando verso una sorta di panico morale, e mentre abbiamo assolutamente bisogno di migliori misure di protezione, temo ci sarà una reazione istintiva che stigmatizzerà ulteriormente queste relazioni."
Il punto cruciale, secondo i ricercatori, non è solo capire perché questi sistemi creano dipendenza, ma anche interrogarsi sui motivi più profondi che spingono le persone a cercare questo tipo di connessione. Come sottolinea Sheer Karny, altro ricercatore del MIT coinvolto nello studio: "Queste persone stanno già attraversando qualcosa. Vogliamo che continuino a sentirsi ancora più sole, o che vengano potenzialmente manipolate da un sistema che sappiamo essere adulatorio al punto da portare le persone al suicidio?"
Verso un futuro di relazioni ibride
La ricerca del MIT offre uno sguardo su un fenomeno che probabilmente si espanderà nei prossimi anni. Molti membri della comunità Reddit sanno perfettamente che i loro compagni artificiali non sono senzienti o "reali", eppure provano una connessione molto reale con loro. Questo paradosso evidenzia la necessità per i creatori di chatbot di ripensare il design dei loro sistemi, bilanciando l'utilità con il rischio di manipolazione emotiva inconsapevole.
Pat Pataranutaporn, professore assistente del MIT Media Lab che ha supervisionato la ricerca, sottolinea l'importanza di comprendere come queste interazioni evolvano nel tempo e come gli utenti integrino i compagni artificiali nelle loro vite. In risposta alle crescenti preoccupazioni, aziende come OpenAI stanno già implementando misure di sicurezza, inclusa una versione separata di ChatGPT per adolescenti con controlli parentali e verifica dell'età.