Da IBM supercomputer raffreddato a liquido

Da IBM supercomputer raffreddato a liquido

IBM lancia due sistemi equipaggiati con il processore POWER6. Interessante l'adozione di un sistema di raffreddamento a liquido per il supercomputer Power 575

di pubblicata il , alle 12:12 nel canale Private Cloud
IBM
 
30 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
bollicina3110 Aprile 2008, 20:19 #21
direi che per passare da orifizzi così piccoli all'interno ddel packedge della cpu l'acqua debba essere prima filtrata a + stadi e direi pure demineralizzata un pochino, altrimenti mi sà un pò dura nonavere manutenzioni varie. oltretutto direi che mi sembra esagerato che l'acqua calda in uscita possa arrivare così tanto calda nellecase, tra la perdita di calore e il tragitto che deve compiere, tra il metallo delle tubazioni e la temperatura più bassa di quella ambientale, causa profondità delle tubaure che viaggiano sotto terra, non sò cosa uscirà dai rubinetti.

A voi quanto fà l'acqua inuscita dalla cpu????

Anche pechè poi non credo che la tempratura in uscita di un flusso d'acqua continua e non a ricircolo che raffredda la cpu sia così elevata, consideriamo il fatto che la cpu deve lavorare 24 su 24 ore, non potrà mica stare sempre a 70 gradi???

o sbaglio???
Sgt.Joker11 Aprile 2008, 08:41 #22
Forse c'entra poco, ma 3 anni fa abbiamo realizzato un sistema di raffreddamento a liquido per un P IV HT utilizzando acqua distillata, paraflu e anche componentistica da moto (il radiatore era quello di un 125...) Per ora, nonostante l'uso abbastanza continuativo, non c'è stato bisogno di nessun intervento... al massimo si accendeva la ventolina supplementare
origin200011 Aprile 2008, 09:30 #23

Ho letto una bella c..ata

IBM porta qualcosa che c'era gia' in altri sistemi dello stesso rango piu' di 10 anni fa, in riferimento al sistema di raffreddamento liquido.

Tale supercomputer e' il Cray T3E Liquid Cooled!
Anno 1995 ... 13 anni fa.

http://en.wikipedia.org/wiki/Cray_T3E

Saludos
origin200011 Aprile 2008, 09:48 #24

Calcoliamo la potenza di calcolo in virgola mobile

allora, 1 nodo dispone di 32 cores che viaggiano a 4.6 GHz e sviluppa una potenza di calcolo in virgola mobile di picco di 600 GFLOPs.

questo significa che ogni CPU sviluppera'

600 GFLOPs / 32 cores = 18.75 GFLOPs

L'efficienza di picco del microcodice per calcolo in virgola mobile e':

18.75 GFLOPs / 4.6 GHz = 4.07.. IPCC (Instructions Per Clock Cycle)

Eseguiamo lo stesso calcolo secondo le dichiarazioni di Intel sui propri Xeon Woodcrest 5160.
(http://www.gpgpu.org/sc2006/slides/...ntroduction.pdf)

48 GFLOPs / 2 cores = 24 GFLOPs

Efficienza: 24 GFLOPs / 3.0 GHz = 8 IPCC

Non mi sembra cosi' potente il Power6. Considerando invece lo standard costruttivo Mission Critical, Chi adotta CPU Intel per lo stesso motivo a parita' di CPU ha piu' potenza di calcolo senza la necessita' di raffreddamento liquido.
!fazz11 Aprile 2008, 10:14 #25
Originariamente inviato da: origin2000
allora, 1 nodo dispone di 32 cores che viaggiano a 4.6 GHz e sviluppa una potenza di calcolo in virgola mobile di picco di 600 GFLOPs.

questo significa che ogni CPU sviluppera'

600 GFLOPs / 32 cores = 18.75 GFLOPs

L'efficienza di picco del microcodice per calcolo in virgola mobile e':

18.75 GFLOPs / 4.6 GHz = 4.07.. IPCC (Instructions Per Clock Cycle)

Eseguiamo lo stesso calcolo secondo le dichiarazioni di Intel sui propri Xeon Woodcrest 5160.
(http://www.gpgpu.org/sc2006/slides/...ntroduction.pdf)

48 GFLOPs / 2 cores = 24 GFLOPs

Efficienza: 24 GFLOPs / 3.0 GHz = 8 IPCC

Non mi sembra cosi' potente il Power6. Considerando invece lo standard costruttivo Mission Critical, Chi adotta CPU Intel per lo stesso motivo a parita' di CPU ha piu' potenza di calcolo senza la necessita' di raffreddamento liquido.


il problema in questo caso non è la capacità di raffreddamento di una cpu, ma bensì l'ottimizzazione del consumo energetico relativo al raffreddamento dell'intero cluster (molte cpu, molto calore, necessità di sistemi di condizionamento dell'aria che consumano parecchio, con il raffreddamento a liquido hanno risparmiato un 40% dell'energia necessaria al raffreddamento, ben venga
AceGranger11 Aprile 2008, 14:48 #26
Originariamente inviato da: Italian Soldier
Il vero problema che sicuramente IBM ha affrontato è risolto è quello di una semplice manutenzione. I nostri sistemi di raffreddamento ad H2O hanno un notevole bisogno di manutenzione. Queste macchine sono costruite per non essere mai spente ed è per questo che fino ad ora nessuno aveva mai implementato una soluzione del genere.


se l'impianto è fatto bene lo controlli 1 volta l'anno, giusto per cambiare il liquido. la maggior parte dei "nostri" sistemi hanno bisogno di manutenzione perchè la gente mischia wb rame e alluminio e mette tutte quelle porcate di liquidi UV, coloranti e vaccate varie. la circuteria dell'ETR 500 ( eurostar ) è raffreddata a liquido e il massimo della manutenzione che si fa è rabboccare l'acqua e glicole quando scende sotto il livello minimo. quei cluster se non erro, sono tutti sganciabili a caldo, quindi se hai problemi ne estrai uno e fai la manutenzione che ti serve.
UIQ12 Aprile 2008, 00:50 #27

E non dimentichiamo...

... che queste CPU sono costruite con processo a 65nm ;-)
by_xfile™12 Aprile 2008, 10:15 #28
che bellezza un doppio servizzio riscaldano le abitazioni con lo smaltimento del calore delle CPU
Ci vorrebbe anche qui vicino a casa cosi da non dover più spendere per il gas

Comunque io con il mio PC d' inverno scaldo una stanza di 16 Mq mantenendola sui 18/20 gradi
flisi7112 Aprile 2008, 11:40 #29
Originariamente inviato da: origin2000
allora, 1 nodo dispone di 32 cores che viaggiano a 4.6 GHz e sviluppa una potenza di calcolo in virgola mobile di picco di 600 GFLOPs.

questo significa che ogni CPU sviluppera'

600 GFLOPs / 32 cores = 18.75 GFLOPs

L'efficienza di picco del microcodice per calcolo in virgola mobile e':

18.75 GFLOPs / 4.6 GHz = 4.07.. IPCC (Instructions Per Clock Cycle)

Eseguiamo lo stesso calcolo secondo le dichiarazioni di Intel sui propri Xeon Woodcrest 5160.
(http://www.gpgpu.org/sc2006/slides/...ntroduction.pdf)

48 GFLOPs / 2 cores = 24 GFLOPs

Efficienza: 24 GFLOPs / 3.0 GHz = 8 IPCC

Non mi sembra cosi' potente il Power6. Considerando invece lo standard costruttivo Mission Critical, Chi adotta CPU Intel per lo stesso motivo a parita' di CPU ha piu' potenza di calcolo senza la necessita' di raffreddamento liquido.


L'analisi di Nvidia si riferisce sicuramente ai calcoli in virgola mobile in singola precisione, visto che le sue GPU sono limitate a questa.
Invece nel calcolo scientifico è comunemente usata la doppia precisione che ovviamente comporta prestazioni inferiori.
Uno Xeon Clowerton 5365 è accreditato di 12 GFlops teorici per core, cioè un IPCC 4 di peak.


Ciao

Federico
-OldFox-14 Aprile 2008, 01:20 #30
Peccato che agli ammmericani non piacciano gli spaghetti come piacciono a noi!! In Italia sapremmo sicuramente cosa farcene di tutta quell'acqua calda!!
Propongo alla IBM:
1) Area Termale in zona limitrofa
2) sauna gratis ai dipendenti
3) bollito o spezzatino in mensa di fisso
4) lavaggio auto
5) al posto di una fontana nel parco un bel GAISER ... farebbe la sua sporca figura!!!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^