NVIDIA alza ancora l’asticella con Vera Rubin, la nuova generazione di supercomputer AI
di Vittorio Manti pubblicata il 06 Gennaio 2026, alle 16:51 nel canale IA business
Una piattaforma completa che integra CPU e GPU progettate da NVIDIA, una nuova architettura modulare dei rack e un’infrastruttura di rete pensata per scalare l’IA. Vera Rubin segna un salto netto rispetto a Blackwell, puntando su prestazioni, efficienza energetica e velocità di deployment
Dal palco del CES 2026, NVIDIA ha presentato quella che Jensen Huang ha definito una vera svolta per l’infrastruttura dell’intelligenza artificiale: Vera Rubin, una piattaforma di supercomputing pensata per sostenere la prossima ondata di modelli e applicazioni IA. Non una singola GPU, ma un sistema completo che integra nuove CPU e GPU sviluppate internamente, una radicale riprogettazione dei rack, una nuova architettura di rete e soluzioni mirate a superare i limiti di scala, efficienza ed energia che oggi frenano l’evoluzione dell’AI.

Nel keynote di apertura del CES, il CEO, Jensen Huang ha più volte sottolineato come l’IA stia ridefinendo l’intero stack computazionale: modelli sempre più grandi, fasi di training, post-training e test-time scaling sempre più onerose e una domanda di calcolo che cresce a ritmi incompatibili con un’evoluzione incrementale dell’hardware. Vera Rubin nasce per rispondere esattamente a questa sfida.
Una piattaforma progettata come un unico sistema
Il cuore di Vera Rubin è l’approccio di co-design estremo adottato da NVIDIA. La piattaforma combina la nuova CPU Vera, progettata specificamente per carichi IA, con la GPU Rubin, che rappresenta un salto generazionale netto rispetto a Blackwell. Rubin offre infatti cinque volte le prestazioni della generazione precedente, a fronte di un aumento del numero di transistor pari a solo 1,6 volte: un dato che evidenzia come i progressi non derivino più dalla semplice scalabilità del silicio, ma da un’ottimizzazione profonda dell’architettura.

CPU e GPU sono state progettate congiuntamente per condividere i dati in modo coerente e bidirezionale, riducendo la latenza e aumentando l’efficienza complessiva del sistema. Un passaggio cruciale, perché l’IA moderna non richiede solo potenza di calcolo, ma la capacità di muovere enormi volumi di dati tra compute, memoria e rete senza colli di bottiglia.
Rack modulari e assemblaggio in pochi minuti
Uno degli elementi più distintivi della piattaforma è la nuova architettura dei rack. NVIDIA ha completamente ripensato il design dei compute tray, eliminando cavi, tubazioni e componenti superflue. Il risultato è un sistema modulare, completamente liquid-cooled, che può essere assemblato in circa cinque minuti, contro le due ore necessarie per la generazione precedente.

Questo approccio ha un impatto che va oltre l’aspetto operativo. Ridurre drasticamente i tempi di assemblaggio e la complessità dell’infrastruttura significa accelerare il deployment delle AI Factory, riducendo errori, costi e tempi di fermo, e rendendo più rapida la messa in produzione di nuovi cluster.
La piattaforma Vera Rubin introduce anche una nuova architettura di rete, progettata per sostenere il traffico estremo generato dai carichi IA moderni. NVIDIA combina NVLink di sesta generazione, Spectrum-X Ethernet e le nuove DPU BlueField-4, che offrono fino a 1,6 terabit al secondo di bandwidth per GPU e permettono di isolare sicurezza, storage e networking dal compute vero e proprio.
La rete non è più un semplice elemento di collegamento, ma una componente strutturale della piattaforma. In un contesto in cui l’inferenza diventa un processo sempre più “pensante”, con una crescita esponenziale dei token generati, la capacità di mantenere bassa la latenza e alta la banda diventa determinante anche sul piano economico.
Efficienza energetica e confidential computing
Nonostante l’aumento significativo di potenza, Vera Rubin è stata progettata per migliorare anche l’efficienza energetica complessiva. L’intero sistema utilizza raffreddamento a liquido con acqua a 45 °C, eliminando la necessità di chiller e contribuendo a ridurre il consumo energetico dei data center. Secondo NVIDIA, questo approccio può avere un impatto rilevante sul consumo globale di energia legato alle infrastrutture IA.

Un altro elemento centrale è il supporto nativo al confidential computing: tutti i dati sono cifrati in transito, a riposo e durante l’elaborazione. Un requisito sempre più critico per aziende e service provider che devono gestire modelli e dati sensibili su infrastrutture condivise.
Physical AI e Alpamayo: oltre i language model
Accanto alla piattaforma Vera Rubin, NVIDIA ha delineato l’evoluzione della propria strategia sulla physical AI, ovvero modelli in grado di comprendere e interagire con il mondo fisico. In questo contesto si inserisce Alpamayo, un modello per la guida autonoma addestrato end-to-end che non si limita a eseguire comandi, ma ragiona sulle azioni che sta per intraprendere, spiegandone le motivazioni.

Alpamayo non è un language model, ma un modello progettato per interpretare sensori, simulazioni e scenari fisici complessi, sfruttando anche dati sintetici generati tramite piattaforme come Cosmos e Omniverse. Un esempio concreto di come NVIDIA stia estendendo l’IA oltre il dominio testuale, puntando su robotica, veicoli autonomi e sistemi industriali.
La visione NVIDIA per la prossima AI Factory
Con Vera Rubin, NVIDIA consolida una visione chiara: l’IA del futuro non può essere sostenuta da componenti isolati, ma richiede piattaforme integrate, progettate come un’unica macchina. CPU, GPU, rete, storage e raffreddamento diventano parti inseparabili di un sistema pensato per scalare l’intelligenza artificiale su dimensioni industriali.
È questa coerenza architetturale, più ancora dei numeri sulle prestazioni, il messaggio che emerge dal keynote di Jensen Huang e dagli annunci del CES 2026. Vera Rubin rappresenta il prossimo passo nell’evoluzione delle AI Factory, ponendo le basi hardware su cui verranno costruiti i modelli e le applicazioni della prossima generazione.











Le soluzioni FSP per il 2026: potenza e IA al centro
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa
Aetherflux e Lockheed Martin insieme per inviare energia elettrica senza cavi dallo Spazio sulla Terra e la Luna
SpaceX sta proseguendo i test della terza versione del razzo spaziale Starship, lancio forse a febbraio
Axiom Space ha mostrato un nuovo video delle tute spaziali AxEMU per le missioni Artemis







6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoA parte Vera Rubin, é evidente che l'azienda sta investendo forte in nuovo software che possa girare BENE su hardware cpu+gpu Nvidia.
In particolare software per "Physical Model", nell'articolo si parla nello specifico di software automotive, ma tempo fa Nvidia ha pure stretto un accordo con Nokia per usare cpu+gpu e software per la gestione delle base station e delle reti di telecomunicazione in generale.
A parte Vera Rubin, é evidente che l'azienda sta investendo forte in nuovo software che possa girare BENE su hardware cpu+gpu Nvidia.
In particolare software per "Physical Model", nell'articolo si parla nello specifico di software automotive, ma tempo fa Nvidia ha pure stretto un accordo con Nokia per usare cpu+gpu e software per la gestione delle base station e delle reti di telecomunicazione in generale.
Non scoppia nessuna bolla IA, scoppiera solo quella fogna speculativa di quei subum@ni che ciclicamente prendono di mira alcuni comparti “sulla cresta dell’onda” per speculare e rubare RUBARE soldi alla gente. A Mort€ il consumismo speculativo, viva quello sano.
Non si tratta solo delle fuffacompany che cavalcano l'onda speculativa.
Le private equity che hanno prestato soldi a Meta, Google, ecc per costruire i nuovi datacenter li hanno già reintascati vendendo derivati basati su quei prestiti, tutta roba che va in mano a fondi pensione e banche.
Le aziende "dell'economia reale" che stanno costruendo i datacenter, che producono i componenti (turbine, generatori elettrici) delle centrali termielettriche costruite appositamente per alimentarli, che stanno realizzando l'infrastrutruttura elettrica e di raffreddamento/climatizzazione, ecc. ecc. tutta la catena logistica e produttiva che sta producendo a pieno regime le schede da installare nei datacenter; al momento dello "scoppio" si ritroveranno con ordini annullati e produzione bloccata e creditori che duventano molto nervosi, ecc. ecc.
Se la bolla scoppia invece di sgonfiarsi, saranno molti quelli che scopriranno tutto d'un tratto di essere coinvolti loro malgrado.
Le banche invece dubito che siano ri-cascate nelle trappole dei derivati sui debiti dopo il botto Lehman del 2008, ma non si sa mai.
Detto questo spero che la bolla scoppi presto, non se ne può più di questi prezzi da crisi continua.
Purtroppo i Private Equity e le big tech piene di soldi che hanno gonfiato questa bolla hanno più pazienza della borsa, se Open AI fosse quotata in borsa la bolla sarebbe già scoppiata imho.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".