Tesla insaziabile, i chip AI non bastano mai e dovrà prenderli anche da AMD

Elon Musk ha suggerito che Tesla stia acquisendo molteplici unità del processore AMD Instinct MI300, destinato ai carichi di lavoro dell'IA.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Elon Musk ha suggerito che Tesla stia acquisendo molteplici unità del processore AMD Instinct MI300, destinato ai carichi di lavoro di intelligenza artificiale (IA).

Il CEO di Tesla ha, inoltre, rimarcato che l'azienda sta investendo miliardi di dollari nell'acquisto di processori per l'addestramento di IA, specificando che le GPU dedicate all'IA di Nvidia sono la prima scelta di Musk, seguite dai processori Dojo di Tesla e dall'hardware di AMD, che già fornisce system-on-chips per l'intrattenimento a Tesla.

Musk ha sottolineato che un supercomputer Dojo, del valore di 500 milioni di dollari, è equivalente a un sistema H100 di Nvidia composto da 100.000 unità. Tesla ha pianificato un investimento significativo in data center completi realizzati con i processori Dojo, spendendo più di 500 milioni sull'hardware di Nvidia, principalmente sulle GPU H100 e H200, con l'aggiunta del futuro B100 basato su Blackwell entro la fine dell'anno.

Nel 2023, Tesla aveva acquistato solo 15.000 GPU H100, ma sta chiaramente intensificando la sua collaborazione con Nvidia.

Musk ha dichiarato che l'importanza di investire anche durante l'anno corrente, sottolineando che la competizione nell'IA richiede scommesse di almeno diversi miliardi di dollari all'anno.

Molto interessante, inoltre, la risposta affermativa di Musk alla domanda se Tesla stesse acquistando hardware per l'IA realizzato da AMD. Al momento, AMD offre diversi acceleratori per l'IA, tra cui l'Instinct MI200, l'Instinct MI250, l'Instinct MI300X e l'unità di elaborazione accelerata Instinct MI300A, che combina core x86 Zen 4 e cluster basati su CDNA 3.

Secondo le prestazioni riportate da AMD, l'Instinct MI300X supera l'H100 80GB di Nvidia nelle prestazioni di IA e HPC. Anche se l'H100 80GB è ampiamente utilizzato da importanti aziende quali Google, Meta e Microsoft, i carichi di lavoro eseguiti attualmente su H100 saranno scalati su altri H100.

Di conseguenza, l'Instinct MI300X di AMD non deve competere direttamente con l'H100, almeno per i clienti, e i carichi di lavoro, attualmente esistenti. Tuttavia, i dati sulle prestazioni di AMD suggeriscono che l'Instinct MI300X sarà un concorrente robusto per la futura GPU H200 141GB di Nvidia.