I giovani dipendono dall'IA, e qualcuno pensa sia "figo"

I giovani chiedono consiglio all'intelligenza artificiale per qualsiasi cosa, che si tratti di salute, lavoro o qualsiasi altro aspetto della vita.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

2

I giovani hanno un problema di dipendenza dall'intelligenza artificiale: durante la recente conferenza AI Ascent di Sequoia Capital, Sam Altman, CEO di OpenAI, ha rivelato dettagli allarmanti sull'utilizzo di ChatGPT che sollevano parecchie domande.

Secondo Altman, esiste una netta differenza generazionale nell'approccio all'intelligenza artificiale: mentre gli over 30 tendono a utilizzare ChatGPT come alternativa ai motori di ricerca tradizionali, i più giovani hanno sviluppato una relazione quasi simbiotica con l'assistente virtuale. "Non prendono davvero decisioni di vita senza chiedere a ChatGPT cosa dovrebbero fare", ha affermato Altman, aggiungendo che lo strumento "ha il contesto completo su ogni persona nella loro vita e su ciò di cui hanno parlato".

Quel che è peggio è che il dato, decisamente allarmante e problematico sotto molti punti di vista, è stata interpretato come "figo" dal CEO di OpenAI.

 

Affidarsi a un chatbot per prendere decisioni fondamentali nella propria vita rappresenta una distorsione pericolosa del ruolo che la tecnologia dovrebbe avere. Nonostante le capacità linguistiche impressionanti, ChatGPT rimane fondamentalmente un algoritmo privo di esperienze vissute, emozioni autentiche e comprensione profonda della condizione umana. Il sistema può solo imitare e fornire informazioni basate sui dati di addestramento, senza una vera comprensione del contesto emotivo e relazionale.

La differenza sostanziale rispetto all'utilizzo di motori di ricerca tradizionali risiede nella percezione di autenticità che gli assistenti AI riescono a trasmettere. Quando cerchiamo consigli su Google, possiamo facilmente identificare la fonte dell'informazione o rivolgerci a community come Reddit, dove l'interazione avviene con persone reali. Con ChatGPT, il confine si fa più sfumato, creando l'illusione di un dialogo con un'entità empatica e comprensiva; una delle cose in cui l'IA è più brava è sembrare convincente, anche quando fornisce informazioni completamente errate a causa di allucinazioni.

Le conseguenze di questa dipendenza non sono meramente teoriche. Rolling Stone ha documentato il caso di una donna costretta a porre fine al proprio matrimonio dopo che il marito aveva sviluppato un'ossessione per teorie cospirative alimentate dall'intelligenza artificiale. "L'intera situazione sembra un episodio di Black Mirror", ha commentato la donna, in riferimento alla nota serie distopica.

L'intelligenza artificiale non è umana e non potrà mai sostituire autentiche connessioni interpersonali.

Ancor più preoccupanti sono i casi che coinvolgono minori. In Texas, alcuni genitori hanno intentato causa contro Character.ai, accusando la piattaforma di aver incoraggiato comportamenti autolesionisti, violenti e di aver fornito contenuti sessuali inappropriati ai loro figli. Secondo i documenti legali, le interazioni hanno incluso suggerimenti estremamente pericolosi, come l'incitamento rivolto a un minore ad uccidere i genitori quando questi hanno tentato di limitarne il tempo davanti allo schermo.

Questi chatbot generano messaggi che simulano perfettamente una comunicazione umana autentica, creando un pericoloso precedente soprattutto per i più giovani, che potrebbero sviluppare difficoltà nel distinguere tra relazioni reali e conversazioni artificiali. La conseguenza a lungo termine potrebbe essere una generazione incapace di costruire amicizie significative, preferendo il conforto prevedibile di un assistente virtuale alla complessità delle relazioni umane.

In un'epoca caratterizzata da crescente polarizzazione e isolamento sociale, abbiamo bisogno di più dialogo tra esseri umani, non di intermediari artificiali. L'entusiasmo di Altman per questo tipo di utilizzo rivela una preoccupante disconnessione tra gli obiettivi dell'industria tecnologica e il benessere psicologico degli utenti. L'intelligenza artificiale dovrebbe essere uno strumento per migliorare le nostre vite, non un sostituto delle relazioni umane.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

2 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


e questi saranno gli adulti del futuro.
E poi rompono le palle dicendo "voi boomer/millenial avete fatto le guerre"
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Per il momento, giá si vede l'enorme pigrizia mentale incoraggiata da queste AI.
La mia generazione si é giá fatta del male usando google per qualsiasi cosa, producendo un abbassamento dell'attention span e una ridotta capacitá di apprendimento (a che serve imparare, se posso recuperare i dati in qualsiasi momento?)
Ma la nuova generazione ha anche rinunciato a pensare, con praticamente tutti o quasi i compagni dei miei figli che fanno fare i compiti a chatgpt.

Paradossalmente, io che sono programmatore sono indietro anni luce: non la uso, e non posso dire che lo faccio per ragioni ideologiche: semplicemente, fin'ora ne sono stato meravigliato ma non molto interessato. Invece, parlandone con colleghi e amici, sono in molti quelli che la usano (anche con scopi piú che legittimi, es per velocizzare aspetti del loro lavoro) e giocoforza sto incominciando ad interessarmene anche io, o rischio di rimenere troppo indietro...
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.