Intel

Super server Itanium per la NASA

di pubblicata il , alle 09:39 nel canale Private Cloud Super server Itanium per la NASA

L'ente aerospaziale americano ha commissionato a Intel un sistema Server basato su oltre 10.000 cpu Itanium, basato su sistema operativo Linux

 
72 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Duk312 Agosto 2004, 14:10 #41
"Dowrebbe essere + che sufficiene per far girare Doom3 !!!" (PM) (nn so come si quota da qua)

Asdasdadasdasdad...cmq ammazza che cosa!
lamp7612 Agosto 2004, 14:14 #42
In certi ambiti si usa linux per svariati motivi:
- basso costo
- kernel snello e robusto che si presta meglio al calcolo distribuito parallelo.
- sorgenti del kernel pubblici, quindi si puo' anche eventualmente patchare il kernel secondo i propri scopi
- Alte performances su piattaforna Intel.
Balrog12 Agosto 2004, 14:15 #43

computer grafica

Sarebbe bello vedere un articolo che parla dei supercomputer con i quali vengono fatti gli effetti speciali dei film...per esempio i computer grafici della light e magic, analizzandone l'hardware e i software dedicati a questo utilizzo.
Allora si che potremo immaginare un gioco 3d veramente fotorealistico.
Balrog12 Agosto 2004, 14:15 #44

computer grafica

Sarebbe bello vedere un articolo che parla dei supercomputer con i quali vengono fatti gli effetti speciali dei film...per esempio i computer grafici della light e magic, analizzandone l'hardware e i software dedicati a questo utilizzo.
Allora si che potremo immaginare un gioco 3d veramente fotorealistico.
lamp7612 Agosto 2004, 14:16 #45

Foto?

Fritzen leggi bene .... è stato commissionato ... ma per vedere delle foto dovrai aspettare che venga realizzato. asdasdasd.
Balrog12 Agosto 2004, 14:16 #46
non capisco come mai mi ha postato doppio...bo!!
scusate
fritzen12 Agosto 2004, 14:17 #47
gia sarebbe bello
ally12 Agosto 2004, 14:23 #48
Originariamente inviato da lamp76
... ora considerando che:

1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator.
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.

IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.


...mi dispiace...ma il cray X1 con soli 4000 processori ha schiacciato l'heart simulator passando dai 35 TeraFlop di quest' ultimo a 50 (!) Teraflop...il nuovo processore che viaggia a 400MHz ha un picco massimo di 25GFlop...riuscendo così a superare gli 800GFlop per cabinet...

...nn c'è molta storia

...link
Crisidelm12 Agosto 2004, 15:22 #49
"Heart" simulator? Non era Earth?
avvelenato12 Agosto 2004, 15:35 #50
Originariamente inviato da lamp76
... ora considerando che:

1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator.
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.

IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.


non condivido quest'analisi.
in primis, la potenza di un sistema di calcolo non cresce linearmente all'aumentare dei processori.


in secundis, sinceramente sono alquanto scettico (al di là della normale fascinazione che penso tutti i patiti di tecnologia subiscano) verso classifiche tipo http://www.top500.org .

Queste classifiche con che criteri vengono svolte? Fanno un benchmark sul calcolo numerico in virgola mobile, se non sbaglio. Ah, tutto qui? Praticamente un giorno potremmo organizzarci con un client di calcolo distribuito, ogni utente internet, e battere qualsiasi supercomputer utilizzando pc come il mio p3 e interconnessioni come l'adsl o il 56k... ridicolo.

Ovviamente chi progetta certi sistemi deve badàre a vincoli di prestazioni ben più complessi del "devo riuscire ad entrare nella top five di top500.org!".

Solo per farti capire perché aggiungendo processori non necessariamente si può avere un incremento prestazionale: ogni problema computazionale ha un suo grado di parallelelismo, ovvero la possibilità di scomporlo in problemi computazionali più piccoli, con ridotte necessità di interazione reciproca. Si parla di "parallelelismo imbarazzante" o "perfect parallelelism" quando il problema complesso è scindibile in tantissimi problemi semplici con necessità di interazione reciproca fra i processi tendenti a zero. Tipo SETI, insomma.

Ciò non toglie che esistano dei problemi per niente parallelizzabili, per i quali avere un cluster di 4096 processori, o avere solo un nodo, è la stessa cosa, con evidente risparmio di energia e complessità nel secondo caso.


correggetemi se ho detto inesattezze, purtroppo non è (per adesso) il mio campo!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^