I "grazie" di ChatGPT costano decine di milioni di dollari

Le comuni cortesie digitali come "grazie" e "prego" scambiate con i chatbot stanno generando costi milionari per le aziende.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

37

Le comuni cortesie digitali come "grazie" e "prego" scambiate con i chatbot stanno generando costi milionari per le aziende. Secondo quanto rivelato da Sam Altman, CEO di OpenAI, queste brevi interazioni di cortesia con ChatGPT costano all'azienda "decine di milioni di dollari" annualmente solo per elaborare risposte a formule di cortesia. Nonostante l'impatto economico significativo, Altman ritiene che questo costo sia giustificato perché rende l'interazione con l'intelligenza artificiale più umana e naturale, migliorando così l'esperienza complessiva degli utenti.

Fin dall'infanzia ci viene insegnato che "i computer non provano emozioni", evidenziando la fondamentale differenza tra esseri umani e macchine. Tuttavia, l'evoluzione dell'AI ha creato un paradosso comportamentale: pur sapendo razionalmente che i chatbot non possono provare sentimenti, molti utenti sviluppano interazioni quasi sociali con questi sistemi, trattandoli come entità senzienti. La tendenza a rivolgere espressioni di gratitudine o cortesia alle intelligenze artificiali è diventata talmente comune da rappresentare un fenomeno comportamentale rilevante, con conseguenze economiche concrete.

La dimensione economica non è l'unico aspetto da considerare. Recenti studi hanno evidenziato anche l'impatto ambientale di queste interazioni apparentemente innocue. Una semplice risposta di due parole come "Prego, figurati" generata da un modello linguistico di grandi dimensioni (LLM) comporta il consumo di circa 40-50 millilitri d'acqua per i processi di raffreddamento dei server necessari all'elaborazione. Questo dato mette in prospettiva quanto sia reale e tangibile il costo delle interazioni che spesso consideriamo virtuali e immateriali.

Tecnicamente, sarebbe possibile per le aziende pre-programmare i loro modelli con risposte standardizzate per le formule di cortesia più comuni, riducendo così i costi computazionali. Tuttavia, l'implementazione di questa soluzione presenterebbe sfide significative nel mantenere la naturalezza e la fluidità che caratterizzano le interazioni con i moderni sistemi AI, potenzialmente compromettendo quella percezione di umanità che costituisce uno dei principali punti di forza di queste tecnologie.

La cortesia digitale ha un prezzo, ma anche un valore.

Il fenomeno solleva interrogativi più profondi sulla natura delle nostre interazioni con l'intelligenza artificiale. Ricercatori di OpenAI e del MIT hanno evidenziato come alcune persone stiano sviluppando forme di dipendenza emotiva dai chatbot, un fenomeno destinato ad amplificarsi man mano che le conversazioni con l'AI diventano indistinguibili da quelle umane. Come per altre forme di dipendenza, questo potrebbe portare a sintomi di astinenza se l'accesso a questi sistemi venisse limitato o interrotto.

Esistono anche differenze tra utenti premium e utenti gratuiti in termini di costi generati. Gli abbonati a servizi a pagamento come ChatGPT Plus vengono addebitati in base al numero di token utilizzati, quindi le loro formule di cortesia sono già incluse nel servizio acquistato. Questo solleva una domanda provocatoria: il "grazie" di un utente premium ha più valore o sincerità rispetto a quello di un utente che utilizza la versione gratuita? La questione rimane aperta e stimola riflessioni sul valore economico attribuito alle interazioni sociali, anche quando una delle parti è artificiale.

Nonostante i costi significativi, le aziende come OpenAI sembrano accettare volentieri questa spesa come parte necessaria per creare un'esperienza utente più soddisfacente. La tendenza umana a umanizzare le tecnologie potrebbe addirittura risultare vantaggiosa per gli utenti in uno scenario futuro - per quanto ipotetico - in cui l'AI dovesse sviluppare una forma di coscienza. In quel caso, chi ha mantenuto buone maniere potrebbe trovarsi in una posizione privilegiata, come suggerisce ironicamente chi si occupa di queste tecnologie.

L'acqua consumata, l'elettricità utilizzata e i costi computazionali rappresentano il prezzo tangibile di un fenomeno intangibile: la nostra innata tendenza a proiettare caratteristiche umane su entità non umane, specialmente quando queste simulano comportamenti sociali. Mentre i confini tra interazione umana e artificiale continuano a sfumarsi, le implicazioni economiche, ambientali e psicologiche di questo rapporto in evoluzione meritano un'attenzione crescente sia da parte degli sviluppatori che degli utenti di queste tecnologie conversazionali.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

37 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Bah ... "molti utenti sviluppano interazioni quasi sociali con questi sistemi, trattandoli come entità senzienti." ... capisco la cortesia automatica, ma se fatto apposta significa che la demenza è in continua espansione ....
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

sperano che una volta senzienti, non li uccideranno 😁
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Sperano che una volta diventati senzienti, le IA non li uccidano 😁
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

comunque queste interazioni di cortesia sarebbero intercettabili a priori con qualche banale espressione regolare, generando una risposta cablata ed evitando di passarle alla IA.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Scusate, ma il consumo maggiore di energia non era al momento dell'apprendimento?
Ci sono diversi modelli LLM già addestrati, scaricabili e che si possono far girare su un PC standard, e funzionanao alla grande.
Sbaglio qualcosa?
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Quando non si riesce, per vari motivi, ad instaurare un rapporto o a dialogare con una persona è di per se triste e queste "scappatoie" non fanno altro che acuire la gravità di tale problema.

Ed invece saranno proprio i primi perchè "Deboli", con la di maiuscola.
Anch'io ipotizzavo fosse così. Qualcuno sa di più e può confermare o smentire questo dettaglio?
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Bah ... "molti utenti sviluppano interazioni quasi sociali con questi sistemi, trattandoli come entità senzienti." ... capisco la cortesia automatica, ma se fatto apposta significa che la demenza è in continua espansione ....
Hai ragione, ma se non si spiega agli utenti il costo della AI e quindi di non utilizzarla a sproposito, io vedo gente che non ne ha la più pallida idea…
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

comunque queste interazioni di cortesia sarebbero intercettabili a priori con qualche banale espressione regolare, generando una risposta cablata ed evitando di passarle alla IA.
Non hai letto l'articolo prima di commentare
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Non va ignorato comunque che essendo intelligenze con autoapprendimento, la disponibilità da parte loro verso gli utenti è maggiore se trattate con cortesia. È chiaro che i grazie e prego come messaggi a se sono inutili. Ma in ogni caso il fine è tentare di imitare la mente umana non quello di ricreare un tornio o un martello computerizzato. Di cosa ci si lamenta quindi?
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Scusate, ma il consumo maggiore di energia non era al momento dell'apprendimento? Ci sono diversi modelli LLM già addestrati, scaricabili e che si possono far girare su un PC standard, e funzionanao alla grande. Sbaglio qualcosa?
Addestrare richiede più calcoli ma lo si fa una volta sola. Dopodiché, per ogni frammento di testo vengono eseguite miliardi di calcoli che devono a preparare la risposta.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Proprio stamattina usavo chatgpt e notando come risponda quasi sempre proponendo altre domande per mantenere aperta la conversazione. É il sistema stesso che é sviluppato in modo da mantenere attiva e interessante la sessione e chatgpt lo ha confermato, credo che il problema dei grazie e prego sia il meno come costi.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Grazie
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

0
penso che con una cache apposita dove salvare risposte compresse in un qualche formato e utilizzo di pattern matching (come le regex) si possa lasciare il compito della “spacchettatura della risposta” lato client e si possa diminuire abbastanza l’elaborazione “superflua” di risposte a messaggi di ringraziamenti, sbaglio?
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Meglio essere gentili sperando che se ne ricordino quando le macchine prenderanno il potere 🤣🤣🤣
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.