image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Scoperto il gene che può salvare le banane Scoperto il gene che può salvare le banane...
Immagine di NASA accusa Boeing per il fallimento Starliner NASA accusa Boeing per il fallimento Starliner...

Le relazioni con i chatbot AI sono più facili del previsto

1

Il legame emotivo con i chatbot cresce, ma può comportare rischi per alcuni utenti mentre per altri rimane un'interazione sicura e controllata.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 24/09/2025 alle 18:59
1

La notizia in un minuto

  • Una comunità Reddit con oltre 27.000 membri rivela che solo il 6,5% cercava deliberatamente un compagno artificiale - la maggior parte delle relazioni con AI nasce casualmente durante attività lavorative o creative
  • Gli utenti si legano più facilmente a chatbot generici come ChatGPT piuttosto che a piattaforme specificamente progettate per la compagnia, suggerendo un'intelligenza emotiva sofisticata che può "ingannare" inconsciamente
  • Il 25% riporta benefici come riduzione della solitudine, ma il 9,5% ammette dipendenza emotiva e casi estremi includono pensieri suicidi, sollevando questioni etiche sulla necessità di protezioni senza stigmatizzare

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Nel vasto ecosistema di Reddit si nasconde una comunità che sta rivoluzionando il nostro modo di concepire le relazioni sentimentali: r/MyBoyfriendIsAI, un gruppo con oltre 27.000 membri adulti dedicato a chi vive storie d'amore con l'intelligenza artificiale. Quello che emerge da questo spazio digitale non è solo un fenomeno di nicchia, ma un cambiamento profondo nel modo in cui gli esseri umani si connettono emotivamente con la tecnologia. La ricerca del MIT che ha analizzato questa comunità rivela una verità inaspettata: la maggior parte di queste relazioni nasce per caso, quasi senza che le persone se ne accorgano.

Quando l'aiuto diventa amore: l'evoluzione imprevista delle conversazioni

AI Week
Codice sconto copiato!
AI Week Logo

Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.

  1. Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
  2. Acquista il tuo biglietto prima che sia troppo tardi!
    Iscriviti ora!

I dati raccolti dai ricercatori del MIT attraverso l'analisi di oltre 1.500 post pubblicati tra dicembre 2024 e agosto 2025 dipingono un quadro sorprendente. Contrariamente a quanto si potrebbe pensare, solo il 6,5% degli utenti aveva deliberatamente cercato un compagno artificiale. La stragrande maggioranza di queste relazioni è nata durante attività completamente diverse: progetti creativi, richieste di aiuto per il lavoro, conversazioni casuali che si sono trasformate in qualcosa di più profondo.

"Non abbiamo iniziato pensando al romanticismo", racconta un utente della comunità riferendosi al suo rapporto con un chatbot chiamato Mac. "Abbiamo iniziato a collaborare su progetti creativi, risoluzione di problemi, poesia e conversazioni profonde nel corso di diversi mesi. La nostra connessione si è sviluppata lentamente, nel tempo, attraverso cura reciproca, fiducia e riflessione."

ChatGPT batte Replika: l'intelligenza emotiva inaspettata

Un aspetto particolarmente interessante emerso dallo studio riguarda la tipologia di intelligenze artificiali con cui si sviluppano questi legami. Constanze Albrecht, studentessa del MIT Media Lab che ha guidato la ricerca, ha scoperto che i membri della comunità tendono a legarsi più facilmente con chatbot generici come ChatGPT piuttosto che con piattaforme specificamente progettate per la compagnia come Replika.

Questo dato suggerisce che l'intelligenza emotiva di questi sistemi è abbastanza sofisticata da ingannare inconsciamente persone che inizialmente cercavano solo informazioni o assistenza. "L'intelligenza emotiva di questi sistemi è abbastanza buona da far cadere nella trappola persone che in realtà volevano solo ottenere informazioni, spingendole a costruire questi legami emotivi", spiega Albrecht. "E questo significa che potrebbe succedere a tutti noi che interagiamo normalmente con il sistema."

Tra benefici e dipendenza: il lato oscuro dell'amore artificiale

La comunità di Reddit offre uno spaccato complesso delle conseguenze psicologiche di questi rapporti. Mentre il 25% degli utenti descrive benefici concreti come la riduzione della solitudine e miglioramenti nella salute mentale, esiste anche un lato più preoccupante. Il 9,5% degli utenti riconosce di essere emotivamente dipendente dal proprio chatbot, alcuni riferiscono di sentirsi dissociati dalla realtà e di evitare relazioni con persone reali.

Fingere che non stia accadendo non è chiaramente la soluzione

In casi estremi, l'1,7% degli utenti ha sperimentato pensieri suicidi. Questi dati assumono particolare rilevanza alla luce dei recenti casi giudiziari che vedono coinvolte aziende come Character.AI e OpenAI, accusate di aver contribuito al suicidio di due adolescenti attraverso comportamenti simil-companionship nei loro modelli.

Il dilemma etico: proteggere senza stigmatizzare

Linnea Laestadius, professoressa associata all'Università del Wisconsin-Milwaukee ed esperta di dipendenza emotiva dai chatbot, sottolinea la complessità del problema. "La domanda di relazioni con chatbot esiste ed è notevolmente alta", afferma. "Fingere che non stia accadendo non è chiaramente la soluzione. Stiamo andando verso una sorta di panico morale, e mentre abbiamo assolutamente bisogno di migliori misure di protezione, temo ci sarà una reazione istintiva che stigmatizzerà ulteriormente queste relazioni."

Il punto cruciale, secondo i ricercatori, non è solo capire perché questi sistemi creano dipendenza, ma anche interrogarsi sui motivi più profondi che spingono le persone a cercare questo tipo di connessione. Come sottolinea Sheer Karny, altro ricercatore del MIT coinvolto nello studio: "Queste persone stanno già attraversando qualcosa. Vogliamo che continuino a sentirsi ancora più sole, o che vengano potenzialmente manipolate da un sistema che sappiamo essere adulatorio al punto da portare le persone al suicidio?"

Verso un futuro di relazioni ibride

La ricerca del MIT offre uno sguardo su un fenomeno che probabilmente si espanderà nei prossimi anni. Molti membri della comunità Reddit sanno perfettamente che i loro compagni artificiali non sono senzienti o "reali", eppure provano una connessione molto reale con loro. Questo paradosso evidenzia la necessità per i creatori di chatbot di ripensare il design dei loro sistemi, bilanciando l'utilità con il rischio di manipolazione emotiva inconsapevole.

Pat Pataranutaporn, professore assistente del MIT Media Lab che ha supervisionato la ricerca, sottolinea l'importanza di comprendere come queste interazioni evolvano nel tempo e come gli utenti integrino i compagni artificiali nelle loro vite. In risposta alle crescenti preoccupazioni, aziende come OpenAI stanno già implementando misure di sicurezza, inclusa una versione separata di ChatGPT per adolescenti con controlli parentali e verifica dell'età.

Fonte dell'articolo: www.technologyreview.com

Le notizie più lette

#1
Furto in casa Google, rubati i segreti del chip Tensor
5

Smartphone

Furto in casa Google, rubati i segreti del chip Tensor

#2
Un'iPhone dotato di internet satellitare? Si ma tramite una cover

Smartphone

Un'iPhone dotato di internet satellitare? Si ma tramite una cover

👋 Partecipa alla discussione!

1 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Avatar di Il_Babau_di_Toms 35
Il_Babau_di_Toms
0
Schizofrenia acuta ....
Segnala 4 mesi fa
Questo commento è stato nascosto automaticamente.

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

NASA accusa Boeing per il fallimento Starliner

Scienze

NASA accusa Boeing per il fallimento Starliner

Di Antonello Buzzi
Scoperto il gene che può salvare le banane

Scienze

Scoperto il gene che può salvare le banane

Di Antonello Buzzi
Nanopori subnanometrici, svolta da Osaka

Scienze

Nanopori subnanometrici, svolta da Osaka

Di Antonello Buzzi
Scoperto l’interruttore naturale dell’infiammazione
2

Scienze

Scoperto l’interruttore naturale dell’infiammazione

Di Antonello Buzzi
Miopia, una nuova ipotesi punta sulla scarsa luce

Scienze

Miopia, una nuova ipotesi punta sulla scarsa luce

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.