NVIDIA Tesla Personal Supercomputer per GPU Computing

NVIDIA Tesla Personal Supercomputer per GPU Computing

NVIDIA estende la gamma di prodotti della famiglia Tesla con un sistema desktop dotato di 4 schede video proposto come personal supercomputer

di pubblicata il , alle 16:40 nel canale Device
NVIDIATesla
 
52 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
yossarian18 Novembre 2008, 18:01 #21
Originariamente inviato da: Marko91
Non dimenticate che sono 4 Teraflops in single-precision. Per il DP GT200 ha una ALU dedicata in ognuno dei 30 thread processor cluster. Ogni GT200 ha quindi all'incirca 80 Gigaflops in DP. Questa soluzione ha quindi un totale di 320Gigaflops in DP.
Larabee e' accreditato con all'incirca 1 Teraflops in DP e 2 Teraflops in SP. RV770 e' 1 Teraflop in SP e 200 Gigaflops in DP. Roadrunner e' 1 Petaflops in DP.
Inoltre le CPU hanno vantaggi sulle GPU in termini di cache e altre funzioni. Le GPU richiedono codice altamente parallelizzato e architetture software apposite.


le cifre su larrabee sono aleatorie e dipendono dal numero di core. Comunque ogni core ha 16 alu fp32 ciascuna capace di una MAD (quindi 32 ops per ciclo); in DP equivalgono a 8 alu fp64 ciascuna capace di una MAD. Supponendo 2 GHz per core, con 16 core avresti in totale circa 1 Tflops in fp32 che diventano 500 Gflpos in fp64.
RV770 in versione 4870 arriva a 1,2 Tflops in fp32 e 240 Gflpops in fp64.

Ovviamente tutti valori teorici
appleroof18 Novembre 2008, 18:15 #22
credo che questi sistemi Nvidia si pongano nell'ottica della "sfida" ad Intel, certo che la strada mi pare ancora lunga ma Nvidia insiste molto su questo aspetto (a Amd a sua volta si comincia a muovere concretamente)
floc18 Novembre 2008, 18:24 #23
mah.sulla carta impressionante ma ricordiamoci che non e' roba general pourpose che per quanto bistrattata "vacontutto", qui c'e' bisogno di sw apposito, programmato a dovere per la piattaforma.

ai posteri l'ardua sentenza
yossarian18 Novembre 2008, 18:29 #24
Originariamente inviato da: appleroof
credo che questi sistemi Nvidia si pongano nell'ottica della "sfida" ad Intel, certo che la strada mi pare ancora lunga ma Nvidia insiste molto su questo aspetto (a Amd a sua volta si comincia a muovere concretamente)


fidandosi dei meri dati numerici e considerando l'importanza della DP nei calcoli scientifici, tra le tre soluzioni la migliore appare, almeno sulla carta, quella Intel
gabi.243718 Novembre 2008, 18:54 #25
Ok, chi raccoglie i fondi per comprarne due o tre a nome di hwupgrade e buttarli su folding@home o gpugrid?
ottoking18 Novembre 2008, 19:02 #26
Non avevo considerato la questione doppia - singola precisione effettivamente c' è una bella differenza
320Gigaflops in DP vs 4 TeraFlops in SP
YYD18 Novembre 2008, 19:04 #27
http://www.nvidia.com/object/tesla_...mputer_wtb.html

Ce n'è per tutti i gusti, è vero che con meno di 10.000 dollari ti porti a casa un sistema come questo:
http://www.tycrid.com/?page_id=85
Luposardo18 Novembre 2008, 19:04 #28
Esiste già un sistema di 170 Tesla S1070 1U a Tokyo! cercate su un qualsiasi motore di ricerca
maumau13818 Novembre 2008, 20:23 #29
E' un'ottima proposta per quegli ambienti di lavoro che non si possono permettere di spendere miliardi per un CRAY.
Ad esempio io faccio simulazioni fluidodinamiche e attualmente con un quad-core posso usare solamente simulazioni 2D, in quanto sono abbastanza semplici. Per una simulazione 3D o chiedi di usare i computer del CNR o del CIRA (e te li fanno usare solo se interessa anche a loro), o ti attacchi.
Un sistema di questo tipo è una manna dal cielo, anche se al momento preferirei ATI, almeno per il costo totale. Inoltre la difficoltà di programmazione è identica per tutte e due le piattaforme..
demon7718 Novembre 2008, 21:03 #30
Originariamente inviato da: maumau138
E' un'ottima proposta per quegli ambienti di lavoro che non si possono permettere di spendere miliardi per un CRAY.
Ad esempio io faccio simulazioni fluidodinamiche e attualmente con un quad-core posso usare solamente simulazioni 2D, in quanto sono abbastanza semplici. Per una simulazione 3D o chiedi di usare i computer del CNR o del CIRA (e te li fanno usare solo se interessa anche a loro), o ti attacchi.
Un sistema di questo tipo è una manna dal cielo, anche se al momento preferirei ATI, almeno per il costo totale. Inoltre la difficoltà di programmazione è identica per tutte e due le piattaforme..


Beh.. su questo penso che per te arriveranno presto giorni migliori!
Le elaborazioni che fai tu sono molto pesanti per una CPU ma una GPU ci va a nozze..
Credo che tra non molto (forse non più di un paio d'anni) usando un normalissimo pc con una buona scheda video potrai fare simulazioni in 3d con tempi più che accettabili demandando il tutto alla (alle) GPU!

Certo resta il neo della double precision però penso ti possa accontentare!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^