XT5m: un nuovo supercomputer da Cray

XT5m: un nuovo supercomputer da Cray

Un supercomputer a partire da mezzo milione di dollari, basato su processori AMD Opteron e già compatibile con le future soluzioni a 6 core

di pubblicata il , alle 11:04 nel canale Private Cloud
AMD
 
21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LuiVul23 Marzo 2009, 12:08 #11
Interessante e sapere il consumo oggi credo sia uno dei fattori più importanti oltre ovviamente la capacita di calcolo.
!fazz23 Marzo 2009, 12:15 #12
Originariamente inviato da: LuiVul
Interessante e sapere il consumo oggi credo sia uno dei fattori più importanti oltre ovviamente la capacita di calcolo.


sono sul sito
32 – 42.7 kW (32.7 – 43.6 kVA) per cabinet, depending on configuration
Circuit requirements: 80 AMP at 400/480 VAC (3 phase & ground)

quindi per il sistema in figura sul sito sono circa 200 KW per una capacità di 48Tflops circa
LuiVul23 Marzo 2009, 13:05 #13
Originariamente inviato da: !fazz
sono sul sito
32 – 42.7 kW (32.7 – 43.6 kVA) per cabinet, depending on configuration
Circuit requirements: 80 AMP at 400/480 VAC (3 phase & ground)

quindi per il sistema in figura sul sito sono circa 200 KW per una capacità di 48Tflops circa


Grazie per la risposta.
diddum23 Marzo 2009, 14:10 #14

in riferimento a perche' CPU e non GPU

ho studiato un po' CUDA di NVIDIA e semplicemente non e' fattibile un supercalcolatore di GPU, a meno che non sia destinato a calcoli particolari.

i motivi sono almeno 4

1) le CPU sono realmente indipendenti e potenzialmente tutte le 192 CPU di un cabinet possono
svolgere un programma diverso, mentre per sfruttare il calcolo GPU gli otto stream processor di ogni multiprocessor devono eseguire possibilmente le stesse istruzioni pena divergenza e sequenzializzazione del codice.
2) le CPU eseguono la qualunque, mentre per le GPU ci sono grosse limitazioni. Per esempio sotto CUDA un programma per la GPU non puo' essere ricorsivo, oltre a dover sottostare ad una serie enorme di limitazioni nell'accesso alla memoria condivisa e non, pena crollo delle prestazioni.
3) le GPU sono molto veloci nel fare in calcoli in virgola mobile (floating point) ma solo quando questi calcoli sono in precisione singola (per esempio nelle schede tipo GTX 285 che pure ha il double nativo in HW, c'e' solo una unita' double per multiprocessore, con i delay del caso. Se la tua applicazione ha bisogno di piu' precisione di quella, abbastanza scarsa della singola precisione (un float su 4 byte) allora le cose si complicano di molto.
4) esistono molti modi per sfruttare il parallelismo su un sistema composto da CPU, mentre per quel che riguarda le GPU siamo molto indietro (anche per le limitazioni di cui sopra)

Quindi al momento non e' possibile fare un supercomputer general purpose di GPU, mentre la cosa si puo' fare per problemi specifici. Sul sito di NVIDIA ci sono almeno un centinaio di progetti che usano CUDA, per farsi una idea di cosa si puo' fare bene con le GPU e cosa no.

ciao,
g.
demon7723 Marzo 2009, 14:16 #15

@ DIDDUM

Vedo che l'uso delle GPU è molto più complesso di quel che immaginassi..
Questo forse spiega anche perchè, al contrario delle mie aspettative, i software ed i codec in grado di sfruttare la GPU sono così pochi e poco diffusi..

Mi chiedo quale potraà essere uno scenario futuro in cui c'è comunque l'intenzione di far collaborare attivamente la GPU nel funzionemanto del sistema..
SwatMaster23 Marzo 2009, 14:56 #16
Da notare come AMD trovi sempre spazio, in questo mercato. Gli Opteron a quanto pare fanno faville, ed i nuovi Istanbul esacore paiono davvero fiQi.
TheZeb23 Marzo 2009, 16:21 #17
Bhe , dato che costa 500.000 Dolla potevano almeno usare cpu serie come l'i7... bha sti ammmerricani
demon7723 Marzo 2009, 17:15 #18

@ theZeb

I Core i7 saranno certamente dei gran mezzi ma gli opteron non è che sono fogna sai?

Oltretutto in ambito server gli opteron hanno una gran bella fama, anche questo persa sulla scelta della cpu quando costruisci un sistema cluster come questo!

Senza contare poi il fatto che un domani è possibile upgradare senza sbattimenti questo sistema montando gli opteron 6 core!
zioriga24 Marzo 2009, 06:01 #19
per !fazz. guarda che, come si legge dalla notizia, l'utilizzo per lo studio e l'analisi del crash test, serve sopratutto potenza di calcolo altamente parallelo, in quanto si tratta di elaborazione ad "elementi finiti" cioè discretizzati.
Ovviamente se si richiede una prestazione più "general purpose" il solo utilizzo di gpu è sicuramente limitante. Spero, e credo, che la strada iniziata verso la creazione di circuiti altamente specializzati, sarà quella che sarà vincente (vedasi le prossime future gpgpu)
!fazz24 Marzo 2009, 15:41 #20
Originariamente inviato da: zioriga
per !fazz. guarda che, come si legge dalla notizia, l'utilizzo per lo studio e l'analisi del crash test, serve sopratutto potenza di calcolo altamente parallelo, in quanto si tratta di elaborazione ad "elementi finiti" cioè discretizzati.
Ovviamente se si richiede una prestazione più "general purpose" il solo utilizzo di gpu è sicuramente limitante. Spero, e credo, che la strada iniziata verso la creazione di circuiti altamente specializzati, sarà quella che sarà vincente (vedasi le prossime future gpgpu)


dipende dai calcoli che ci devi fare nei vari thread paralleli se un thread richiede un uso intensivo di salti condizionali shift di registri e operazioni logiche una gpu non è la scelta consona in quanto non dispone della circuteria dedicata a ciò

tra parentesi il crash test è solo un uso del sistema cray vende la macchina a chiunque paghi e per forza di ciò deve essere general pourpose

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^