Schneider ElectricIntelligenza ArtificialeSostenibilità

Schneider Electric: così l'IA sta cambiando il modo di progettare i data center

di pubblicata il , alle 12:01 nel canale data Schneider Electric: così l'IA sta cambiando il modo di progettare i data center

Abbiamo intervistato Antonio Racioppoli, manager della multinazionale, per comprendere l’impatto dell'intelligenza artificiale sul mondo dei data center, che devono necessariamente cambiare per supportare questo tipo di carichi di lavoro e devono farlo in maniera sostenibile per l'ambiente

 

L’impatto dirompente dell’intelligenza artificiale sta facendo sentire i suoi effetti anche sul mondo dei data center, che devono essere potenziati, se non proprio riprogettati, per riuscite a gestire questo tipo di elaborazioni. I chip utilizzati per effettuare questi calcoli sono particolarmente assetati di energia e, di conseguenza, servono soluzioni più efficienti per raffreddarli in maniera adeguata.

Come ci spiega Antonio Racioppoli, Data Center Solution Architect - Cloud & Service Providers di Schneider Electric, l’IA porta con sé due tipi di carichi di lavoro: quelli di training, necessari per addestrare i LLM, e quelli di inferenza, cioè le operazioni che si basano sui modelli di intelligenza artificiale per dare risposte a domande specifiche. I primi “richiedono una capacità computazionale particolarmente spinta e portano all’estremo i requisiti dei data center tradizionali”, spiega il manager. I carichi di lavoro di inferenza, invece, sono più simili a quelli tradizionali, per quanto riguarda le esigenze computazionali, ma è necessaria una maggiore affidabilità.

I workload di training possono ripartire in caso di interruzione del servizio, senza un impatto sull’applicazione”. Quelli di inferenza, invece, sono più delicati sotto questo profilo: sono quelli che forniscono le risposte alle domande degli utenti, o che gestiscono le automazioni, e l’affidabilità risulta quindi molto più importante. “Per un algoritmo di inferenza poi è molto importante la latenza”, in quanto questi sistemi possono essere chiamati a prendere decisioni in tempo reale, per esempio nel caso delle automazioni

Come va concepito un data center per workload di IA?

Come abbiamo spiegato qui, i carichi di lavoro di IA stanno modificando i requisiti dei data center, in particolare quelli energetici e di raffreddamento. In pratica, serve più energia per alimentarli, che di conseguenza sprigionerà maggior calore, che va tenuto sotto controllo. Secondo Racioppoli, le infrastrutture dove vengono effettuati gli addestramenti dei modelli di IA “devono rispondere alla sfida della distribuzione elettrica”, perché le densità dei cluster di GPU sono ben superiori a quelle che si trovano nei data center “tradizionali”. All’atto pratico, se si progetta un data center per un’infrastruttura di IA “bisogna rivedere il dimensionamento dei blocchi di distribuzione tradizionali, le tecnologie legate al raffreddamento e i sistemi utilizzati all’interno degli armadi informatici per portare l’energia elettrica”. E non è finita qui, perché anche i criteri di progettazione vanno rivisti per rispondere a queste sfide.  

schneider_liquid_cool_lead.original

Per quanto riguarda i centri di calcolo dedicati all’inferenza, invece, i criteri di progettazione non si discostano moltissimo da quelli attualmente in uso. “Si utilizzeranno gli stessi standard per garantire l’affidabilità, e i sistemi di distribuzione elettrica e raffreddamento saranno più vicini a quelli che conosciamo da tempo”. Il focus, in questo caso, sarà sulla latenza, e di conseguenza i data center per l’inferenza verranno realizzati in zone vicine a dove i dati vengono effettivamente utilizzati. Fatto che, secondo il manager, porterà a una grande diffusione dei data center edge. La metà dei nuovi data center si cui gireranno algoritmi di IA, infatti, sarà di tipo edge nell’arco di pochi anni.

Il tema del raffreddamento

Uno degli aspetti più critici è quello del raffreddamento dei cluster dedicati all’IA. Se aumenta la densità e la potenza di calcolo di ogni singolo nodo, inevitabilmente cresce anche la quantità di calore da smaltire. Il risultato? “I sistemi di raffreddamento ad aria non saranno più sufficienti e dovremo pensare a sistemi a liquido”. Anche per questo motivo Schneider Electric ha sviluppato una serie di linee guida dedicate a chi deve costruire e gestire i nuovi data center. Alcune di queste sono focalizzate su come portare l’alimentazione elettrica dagli armadi a questi cluster. E questo significa che in Paesi come gli USA i voltaggi tradizionali potrebbero essere non più sufficienti, dal momento che “si porterebbero dietro amperaggi troppo elevati. Andrebbe quindi rivista la tensione di alimentazione di questi apparati”.

Liquind cooling AI

In Europa, invece, dove si usa la corrente a 220/230 Volt, il problema è meno sentito. Ma va rivista anche la dimensione dei blocchi di distribuzione tradizionali, perché si passa da una densità media per rack di 10/20 kW a una nell’ordine dei 100 kW. E andrà ripensata la distribuzione delle Power Distribution Unit all’interno degli armadi informatici. C’è anche una sfida importante dal punto di vita degli archi elettrici, che con le tensioni utilizzate potrebbero essere più frequenti, fatto che rappresenta un rischio per la sicurezza.

La vera sfida è cercare di indirizzare tutte questi elementi di complessità a 360°”, conclude Racioppoli. “Guardare agli impatti a livello olistico sull’infrastruttura. E non sottovalutare alcuno di questi elementi critici quando si progetta un’infrastruttura dedicata all’IA”.

La partnership con NVIDIA

Nel marzo 2024, Schneider ha siglato un accordo di collaborazione con NVIDIA, quello che forse è il principale attore nel mondo dell'IA, almeno dal punto di vista dell'hardware. Sono proprio i chip dell'azienda di Jensen Huang i più ricercati e utilizzati per gestire i carichi di lavoro di addestramento e di inferenza IA. Chip che consumano, e di conseguenza scaldano, molto più di quelli tradizionali. La collaborazione fra le due aziende mira a ridefinire i parametri di riferimento dei data center così da potere sia gestire efficacemente la quantità di elettricità richiesta, sia smaltire il calore generato. La partnership permetterà di offrire ai proprietari e agli operatori dei data center gli strumenti e le risorse necessarie a integrare agevolmente all'interno delle proprie infrastrutture le soluzioni di intelligenza artificiale

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto24 Maggio 2024, 12:29 #1
Ma dai,e io che pensavo bastasse un alimentatore USB comprato dal market cinese......
Però mi pare che anche in America hanno la trifase,non possono andare di mega inverter?
Ale55andr024 Maggio 2024, 14:24 #2
"anche"?

in tutto il mondo civilizzato le centrali sono trifase
supertigrotto24 Maggio 2024, 15:47 #3
Si potrebbe usare uno Scott e avere una bifasica,che già sarebbe più semplice la distribuzione

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^