32 TB/s con otto moduli... ok ma quanto costerà mettere insieme una roba del genere? perché alla fine i numeri fanno sempre impressione finché non vedi il prezzo
Questo commento è stato nascosto automaticamente.
bello sapere che NVIDIA e AMD ci puntano già, ma io onestamente ho perso il filo tra HBM4, HBM4E e tutto il resto. ogni sei mesi cambia qualcosa
Questo commento è stato nascosto automaticamente.
32 TB/s con otto moduli... ok ma quanto costerà mettere insieme una roba del genere? perché alla fine i numeri fanno sempre impressione finché non vedi il prezzo
Quello che conta è il rapporto TCO prestazioni, i datacenter AI stanno spingendo più possibile per abbassare i costi e aumentare le prestazioni, prima o poi il mondo AI dovrà monetizzare gli immensi investimenti e tutti sanno che ci sarà una notevole selezione, sopravviveranno solo quelli con la migliore sostenibilità economica, e non è ben chiaro quanto sarà pesante la selezione, così spingono tutto al massimo.
Per il medesimo problema continuano ad esserci giochi di alleanze lato software e con i produttori di hardware; tutti quelli che tentano di fare hardware proprietario stanno lavorando sull'inferenza perché l'hardware di addestramento non è abbastanza efficiente, è una dinamica già vista sulle criptovalute.
In sostanza quanto costa, quanto consuma, quanto scalda e che prestazioni produce nel mio ambiente; date queste risposte si capisce se ha futuro o no, per assurdo per qualcuno può fare la differenza tra il successo ed il fallimento, se prendi le applicazioni più spinte ogni minimo guadagno sulla concorrenza produce un vantaggio competitivo immenso, penso a finanza e co.
Questo commento è stato nascosto automaticamente.