Bah ... "molti utenti sviluppano interazioni quasi sociali con questi sistemi, trattandoli come entità senzienti." ... capisco la cortesia automatica, ma se fatto apposta significa che la demenza è in continua espansione ....
Questo commento è stato nascosto automaticamente.
sperano che una volta senzienti, non li uccideranno 😁
Questo commento è stato nascosto automaticamente.
Sperano che una volta diventati senzienti, le IA non li uccidano 😁
Questo commento è stato nascosto automaticamente.
comunque queste interazioni di cortesia sarebbero intercettabili a priori con qualche banale espressione regolare, generando una risposta cablata ed evitando di passarle alla IA.
Questo commento è stato nascosto automaticamente.
Scusate, ma il consumo maggiore di energia non era al momento dell'apprendimento?
Ci sono diversi modelli LLM già addestrati, scaricabili e che si possono far girare su un PC standard, e funzionanao alla grande.
Sbaglio qualcosa?
Questo commento è stato nascosto automaticamente.
Quando non si riesce, per vari motivi, ad instaurare un rapporto o a dialogare con una persona è di per se triste e queste "scappatoie" non fanno altro che acuire la gravità di tale problema.

Ed invece saranno proprio i primi perchè "Deboli", con la di maiuscola.
Anch'io ipotizzavo fosse così. Qualcuno sa di più e può confermare o smentire questo dettaglio?
Questo commento è stato nascosto automaticamente.
Bah ... "molti utenti sviluppano interazioni quasi sociali con questi sistemi, trattandoli come entità senzienti." ... capisco la cortesia automatica, ma se fatto apposta significa che la demenza è in continua espansione ....
Hai ragione, ma se non si spiega agli utenti il costo della AI e quindi di non utilizzarla a sproposito, io vedo gente che non ne ha la più pallida idea…
Questo commento è stato nascosto automaticamente.
comunque queste interazioni di cortesia sarebbero intercettabili a priori con qualche banale espressione regolare, generando una risposta cablata ed evitando di passarle alla IA.
Non hai letto l'articolo prima di commentare
Questo commento è stato nascosto automaticamente.
Non va ignorato comunque che essendo intelligenze con autoapprendimento, la disponibilità da parte loro verso gli utenti è maggiore se trattate con cortesia. È chiaro che i grazie e prego come messaggi a se sono inutili. Ma in ogni caso il fine è tentare di imitare la mente umana non quello di ricreare un tornio o un martello computerizzato. Di cosa ci si lamenta quindi?
Questo commento è stato nascosto automaticamente.
Scusate, ma il consumo maggiore di energia non era al momento dell'apprendimento? Ci sono diversi modelli LLM già addestrati, scaricabili e che si possono far girare su un PC standard, e funzionanao alla grande. Sbaglio qualcosa?
Addestrare richiede più calcoli ma lo si fa una volta sola. Dopodiché, per ogni frammento di testo vengono eseguite miliardi di calcoli che devono a preparare la risposta.
Questo commento è stato nascosto automaticamente.
Proprio stamattina usavo chatgpt e notando come risponda quasi sempre proponendo altre domande per mantenere aperta la conversazione. É il sistema stesso che é sviluppato in modo da mantenere attiva e interessante la sessione e chatgpt lo ha confermato, credo che il problema dei grazie e prego sia il meno come costi.
Questo commento è stato nascosto automaticamente.
0
penso che con una cache apposita dove salvare risposte compresse in un qualche formato e utilizzo di pattern matching (come le regex) si possa lasciare il compito della “spacchettatura della risposta” lato client e si possa diminuire abbastanza l’elaborazione “superflua” di risposte a messaggi di ringraziamenti, sbaglio?
Questo commento è stato nascosto automaticamente.
Meglio essere gentili sperando che se ne ricordino quando le macchine prenderanno il potere 🤣🤣🤣
Questo commento è stato nascosto automaticamente.