"Non dovreste nemmeno provarci. Vi prego!"
Questo commento è stato nascosto automaticamente.
Il cervello umano consuma 100 watt. I simulatori di cervello umano consumano 100 milioni di watt.
È ovvio che è solo una cosa provvisoria, no?
Questo commento è stato nascosto automaticamente.
Il cervello umano consuma 100 watt. I simulatori di cervello umano consumano 100 milioni di watt. È ovvio che è solo una cosa provvisoria, no?
100 milioni di watt per rispondere a 100 milioni di utenti...
Questo commento è stato nascosto automaticamente.
100 milioni di watt per rispondere a 100 milioni di utenti...
100 milioni di W ancora prima di poter emettere un solo carattere, cioè durante l'addestramento.
Poi altri migliaia di W per creare una risposta ad una singola richiesta. E qualche altro migliaio di W/GB per tenere in memoria quanto già detto/risposto in una sessione.
Non parliamo dei consumi per generare immagini/video/musica.
Questo commento è stato nascosto automaticamente.
Comunque secondo quanto si è capito su come hanno addestrato il loro modello, non sembra che Altman avesse torto, così come non sono cerebrolesi quelli che investono miliardi di dollari per addestrare i propri modelli con migliaia di GPU di ultima generazione.
Certo, usare un linguaggio più efficiente di Python aiuterebbe sicuramente a diminuire i costi sia per l'HW che per l'energia usata, ma legherebbe le mani all'uso di una sola architettura.

Se davvero hanno usato la distillazione da altri modelli per addestrare il proprio, viene meno la paura che non servano tutte quelle GPU per addestrare nuovi modelli più avanzati, perché senza questi ultimi, neanche quelli più piccoli come quelli di DeepSeek progredirebbero.
Questo commento è stato nascosto automaticamente.