Ma che buffoni quelli di Reddit. Sempre pronti a chiedere soldi. Lo studio è uno studio, non aveva scopi criminali e non ha abusato di nessuno.
Quelli di Reddit dovrebbero piuttosto chiedersi quante AI stanno operando nei loro thread senza che lo sappiano e con quali scopi criminali per difendere realmente i propri utenti.
Di certo i criminali non vengono a dirti che usano bot e AI, ma a quanto pare è impossibile capire che sono in azione.
Questo commento è stato nascosto automaticamente.
Ma che buffoni quelli di Reddit. Sempre pronti a chiedere soldi. Lo studio è uno studio, non aveva scopi criminali e non ha abusato di nessuno. Quelli di Reddit dovrebbero piuttosto chiedersi quante AI stanno operando nei loro thread senza che lo sappiano e con quali scopi criminali per difendere realmente i propri utenti. Di certo i criminali non vengono a dirti che usano bot e AI, ma a quanto pare è impossibile capire che sono in azione.
Quindi, secondo te, la violazione delle regole e' lecita.
Varrebbe lo stesso anche in questo forum, immagino.
Questo commento è stato nascosto automaticamente.
Quindi, secondo te, la violazione delle regole e' lecita. Varrebbe lo stesso anche in questo forum, immagino.
Ma quali violazioni.
Sono solo termini d'uso buttati là, senza possibilità di verifica, tanto per poi avere la scusa di fare queste manovre di sciacallaggio. Questi mica hanno abusato di nulla, hanno condotto uno studio. Sono i gestori di Reddit a dover ringraziare perché ha portato alla luce l0'impossibilità di capire la differenza tra una AI ben addestrata e un umano e quali sono le possibili conseguenze.
Secondo te uno studio che tenta di capire quanto è efficace una AI a confondersi come un essere umano, potrà mai scrivere nei post che il messaggio è generato da una AI?
Lo studio non avrebbe alcuna utilità.
E' emblematico che Reddit se ne sia accorta solo perché quelli dello studio hanno detto cosa hanno fatto, altrimenti manco se ne sarebbero resi conto.
Il che quindi mi fa pensare che vi siano migliaia di bot gestiti da AI nei loro thread che violano le regole per ben più sofisticati adescamenti/raggiri con finalità criminali.
Ma no, il problema sono le regole violate da una università che ha dimostrato quanto sono proprio inutili le stesse regole che non possono essere verificate.
Questo commento è stato nascosto automaticamente.
Ma quali violazioni. Sono solo termini d'uso buttati là, senza possibilità di verifica, tanto per poi avere la scusa di fare queste manovre di sciacallaggio. Questi mica hanno abusato di nulla, hanno condotto uno studio. Sono i gestori di Reddit a dover ringraziare perché ha portato alla luce l0'impossibilità di capire la differenza tra una AI ben addestrata e un umano e quali sono le possibili conseguenze. Secondo te uno studio che tenta di capire quanto è efficace una AI a confondersi come un essere umano, potrà mai scrivere nei post che il messaggio è generato da una AI? Lo studio non avrebbe alcuna utilità. E' emblematico che Reddit se ne sia accorta solo perché quelli dello studio hanno detto cosa hanno fatto, altrimenti manco se ne sarebbero resi conto. Il che quindi mi fa pensare che vi siano migliaia di bot gestiti da AI nei loro thread che violano le regole per ben più sofisticati adescamenti/raggiri con finalità criminali. Ma no, il problema sono le regole violate da una università che ha dimostrato quanto sono proprio inutili le stesse regole che non possono essere verificate.
effettivamente hai ragione, e sarebbe interessante sapere quanto puo essere propagata questa faccenda, ed è sconcertante che i modelli linguistici siano così avanzati da ingannare le persone, oppure le persone che bazzicano reddit sono degli idioti XD ...
Questo commento è stato nascosto automaticamente.