Ho preso un 7600XT da 16Gb ma per i modelli piu' grossi e' loffa (come ram non come prestazioni), comunque la svolta sarà quando le CPU consumer passeranno al quad channel.
Questo commento è stato nascosto automaticamente.
Si certo, uguale uguale all'offerta nvidia, stessa RAM ma prestazioni meno che dimezzate proprio nei carichi AI.
Voglio vedere chi usa mega modelli da 32 GB su una ciofeca del genere. Giusto il pollo che vuole giocare con l'AI a casa. Il tempo di un professionista costa, e sta roba in tradizione AMD non è né carne né pesce.
Questo commento è stato nascosto automaticamente.
Si certo, uguale uguale all'offerta nvidia, stessa RAM ma prestazioni meno che dimezzate proprio nei carichi AI. Voglio vedere chi usa mega modelli da 32 GB su una ciofeca del genere. Giusto il pollo che vuole giocare con l'AI a casa. Il tempo di un professionista costa, e sta roba in tradizione AMD non è né carne né pesce.
Se io con il mio sistema , con LM studio con una "obsoleta" RX 6900 XT a 16GB vram riesco a fare andare GPT-OSS-120B con un context a 64k a 20 token/s in output , e naturalmente lo carica in memoria solo molto parzialmente (ha un peso di 59GB) dunque .....a Nvidia non gli regalo i miei soldi , si sono ingrassati già abbastanza ......
Questo commento è stato nascosto automaticamente.