NVIDIABlackwellCoreWeaveDell Technologies

Dell consegna a CoreWeave il primo sistema al mondo con NVIDIA GB300 NVL72

di pubblicata il , alle 09:01 nel canale Device Dell consegna a CoreWeave il primo sistema al mondo con NVIDIA GB300 NVL72

Dell ha consegnato a CoreWeave il primo sistema basato su NVIDIA GB300 NVL72, progettato per carichi AI avanzati. Ogni rack include 72 GPU Blackwell Ultra, 36 CPU Grace e 40 TB di RAM.

 

Dell Technologies ha annunciato di aver consegnato a CoreWeave, realtà emergente nel panorama dei cloud provider hyperscaler per l'intelligenza artificiale, il primo sistema al mondo basato sulla piattaforma NVIDIA GB300 NVL72. Si tratta di un'infrastruttura di nuova generazione pensata per supportare i carichi di lavoro AI più esigenti, come il training di modelli linguistici avanzati, l'inferenza su larga scala e i workload agentici.

Dopo essere stata la prima a spedire i sistemi NVIDIA GB200 NVL72 nel 2024, Dell replica il primato con la nuova generazione GB300, potenziando la propria offerta di soluzioni AI integrate nell'ambito della strategia AI Factory with NVIDIA. La collaborazione coinvolge anche il provider di data center Switch e Vertiv, contribuendo a una rapida implementazione della piattaforma nel cloud di CoreWeave.

Ogni rack GB300 NVL72 è composto da 72 GPU NVIDIA Blackwell Ultra, 36 CPU NVIDIA Grace (72 core Arm) e 36 DPU BlueField, con raffreddamento a liquido per gestire consumi fino a 1400 W per GPU. La capacità di memoria è imponente: 20 TB di HBM3E e 40 TB di RAM per rack, con connettività di rete garantita dagli switch NVIDIA Quantum-X800 InfiniBand e ConnectX-8 SuperNIC, capaci di una banda fino a 14,4 GB/s.

A livello computazionale, ogni rack fornisce 1,1 ExaFLOPS FP4 per inferenza e 0,36 ExaFLOPS FP8 per training, segnando un incremento del 50% rispetto al GB200 NVL72. Inoltre, secondo NVIDIA e CoreWeave, la nuova piattaforma GB300 garantisce fino a 10 volte maggiore reattività nei carichi AI interattivi, un'efficienza energetica 5 volte superiore rispetto all'architettura Hopper e una crescita fino a 50 volte nell'output di inferenza per i modelli di reasoning.

Il sistema è strettamente integrato con l'infrastruttura software nativa di CoreWeave, che include il servizio CoreWeave Kubernetes Service (CKS), Slurm on Kubernetes (SUNK) e il Rack LifeCycle Controller (RLCC) per la gestione del ciclo di vita dei rack. A completare il quadro, i dati hardware e gli eventi di stato dei cluster sono ora integrati con la piattaforma Weights & Biases, acquisita recentemente da CoreWeave.

L'implementazione dei sistemi GB300 rappresenta un'estensione della flotta Blackwell già in uso da CoreWeave, che comprende anche le piattaforme HGX B200 e GB200 NVL72.

Nel giugno 2025, CoreWeave ha inoltre partecipato al più grande benchmark MLPerf Training v5.0 mai realizzato, in collaborazione con NVIDIA e IBM, utilizzando circa 2.500 superchip NVIDIA GB200 Grace Blackwell. Il risultato: completamento del training del modello Llama 3.1 da 405 miliardi di parametri in soli 27,3 minuti.

Secondo quanto dichiarato da Peter Salanki, CTO e cofondatore di CoreWeave, la piattaforma GB300 NVL72 consentirà ai clienti di prepararsi per la prossima ondata dell'intelligenza artificiale: “Siamo orgogliosi di essere i primi a implementare questa piattaforma trasformativa e aiutare gli innovatori a spingersi oltre i limiti attuali dell'AI”.

L'espansione su scala globale è già in corso: CoreWeave ha confermato l'intenzione di incrementare significativamente la distribuzione dei rack GB300 NVL72 nei suoi datacenter entro la fine del 2025.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^