I giovani hanno un problema di dipendenza dall'intelligenza artificiale: durante la recente conferenza AI Ascent di Sequoia Capital, Sam Altman, CEO di OpenAI, ha rivelato dettagli allarmanti sull'utilizzo di ChatGPT che sollevano parecchie domande.
Secondo Altman, esiste una netta differenza generazionale nell'approccio all'intelligenza artificiale: mentre gli over 30 tendono a utilizzare ChatGPT come alternativa ai motori di ricerca tradizionali, i più giovani hanno sviluppato una relazione quasi simbiotica con l'assistente virtuale. "Non prendono davvero decisioni di vita senza chiedere a ChatGPT cosa dovrebbero fare", ha affermato Altman, aggiungendo che lo strumento "ha il contesto completo su ogni persona nella loro vita e su ciò di cui hanno parlato".
Quel che è peggio è che il dato, decisamente allarmante e problematico sotto molti punti di vista, è stata interpretato come "figo" dal CEO di OpenAI.
Affidarsi a un chatbot per prendere decisioni fondamentali nella propria vita rappresenta una distorsione pericolosa del ruolo che la tecnologia dovrebbe avere. Nonostante le capacità linguistiche impressionanti, ChatGPT rimane fondamentalmente un algoritmo privo di esperienze vissute, emozioni autentiche e comprensione profonda della condizione umana. Il sistema può solo imitare e fornire informazioni basate sui dati di addestramento, senza una vera comprensione del contesto emotivo e relazionale.
La differenza sostanziale rispetto all'utilizzo di motori di ricerca tradizionali risiede nella percezione di autenticità che gli assistenti AI riescono a trasmettere. Quando cerchiamo consigli su Google, possiamo facilmente identificare la fonte dell'informazione o rivolgerci a community come Reddit, dove l'interazione avviene con persone reali. Con ChatGPT, il confine si fa più sfumato, creando l'illusione di un dialogo con un'entità empatica e comprensiva; una delle cose in cui l'IA è più brava è sembrare convincente, anche quando fornisce informazioni completamente errate a causa di allucinazioni.
Le conseguenze di questa dipendenza non sono meramente teoriche. Rolling Stone ha documentato il caso di una donna costretta a porre fine al proprio matrimonio dopo che il marito aveva sviluppato un'ossessione per teorie cospirative alimentate dall'intelligenza artificiale. "L'intera situazione sembra un episodio di Black Mirror", ha commentato la donna, in riferimento alla nota serie distopica.
Ancor più preoccupanti sono i casi che coinvolgono minori. In Texas, alcuni genitori hanno intentato causa contro Character.ai, accusando la piattaforma di aver incoraggiato comportamenti autolesionisti, violenti e di aver fornito contenuti sessuali inappropriati ai loro figli. Secondo i documenti legali, le interazioni hanno incluso suggerimenti estremamente pericolosi, come l'incitamento rivolto a un minore ad uccidere i genitori quando questi hanno tentato di limitarne il tempo davanti allo schermo.
Questi chatbot generano messaggi che simulano perfettamente una comunicazione umana autentica, creando un pericoloso precedente soprattutto per i più giovani, che potrebbero sviluppare difficoltà nel distinguere tra relazioni reali e conversazioni artificiali. La conseguenza a lungo termine potrebbe essere una generazione incapace di costruire amicizie significative, preferendo il conforto prevedibile di un assistente virtuale alla complessità delle relazioni umane.
In un'epoca caratterizzata da crescente polarizzazione e isolamento sociale, abbiamo bisogno di più dialogo tra esseri umani, non di intermediari artificiali. L'entusiasmo di Altman per questo tipo di utilizzo rivela una preoccupante disconnessione tra gli obiettivi dell'industria tecnologica e il benessere psicologico degli utenti. L'intelligenza artificiale dovrebbe essere uno strumento per migliorare le nostre vite, non un sostituto delle relazioni umane.
E poi rompono le palle dicendo "voi boomer/millenial avete fatto le guerre"
Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?