Intel
Super server Itanium per la NASA
di Paolo Corsini pubblicata il 12 Agosto 2004, alle 09:39 nel canale Private Cloud
L'ente aerospaziale americano ha commissionato a Intel un sistema Server basato su oltre 10.000 cpu Itanium, basato su sistema operativo Linux
72 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAsdasdadasdasdad...cmq ammazza che cosa!
- basso costo
- kernel snello e robusto che si presta meglio al calcolo distribuito parallelo.
- sorgenti del kernel pubblici, quindi si puo' anche eventualmente patchare il kernel secondo i propri scopi
- Alte performances su piattaforna Intel.
computer grafica
Sarebbe bello vedere un articolo che parla dei supercomputer con i quali vengono fatti gli effetti speciali dei film...per esempio i computer grafici della light e magic, analizzandone l'hardware e i software dedicati a questo utilizzo.Allora si che potremo immaginare un gioco 3d veramente fotorealistico.
computer grafica
Sarebbe bello vedere un articolo che parla dei supercomputer con i quali vengono fatti gli effetti speciali dei film...per esempio i computer grafici della light e magic, analizzandone l'hardware e i software dedicati a questo utilizzo.Allora si che potremo immaginare un gioco 3d veramente fotorealistico.
Foto?
Fritzen leggi bene .... è stato commissionato ... ma per vedere delle foto dovrai aspettare che venga realizzato. asdasdasd.scusate
... ora considerando che:
1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator.
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.
IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.
...mi dispiace...ma il cray X1 con soli 4000 processori ha schiacciato l'heart simulator passando dai 35 TeraFlop di quest' ultimo a 50 (!) Teraflop...il nuovo processore che viaggia a 400MHz ha un picco massimo di 25GFlop...riuscendo così a superare gli 800GFlop per cabinet...
...nn c'è molta storia
...link
... ora considerando che:
1) Gli Itanium 2 1.4 hanno 4MB di cache ... adesso il top è quello a 1.5 con 6MB di cache ( un po' piu' potente specialmente nel calcolo parallelo )
2) con soli 4096 procesori si ottiene un potenza di calcolo pari a + della metà dell'Earth-Simulator, quindi con 10240 processori si dovrebbe ottenere una potenza di calcolo pari a ( + della metà *2 ) cioè + dell'Earth-Simulator.
3) questo nuovo cluster suppongo che verra sviluppato sfruttando le ultime tecnologie di interconnessione tra nodi ... quindi + banda passante totale = maggiore potenza elaborativa.
IN POCHE PAROLE SARA' IL CONPUTER + POTENTE DEL MONDO, ma spesso questo è utile per fare gestire + compiti contemporaneamente, tenere impeggrato un simile mostro per un'unica elaborazione è uno spreco di risorse.
non condivido quest'analisi.
in primis, la potenza di un sistema di calcolo non cresce linearmente all'aumentare dei processori.
in secundis, sinceramente sono alquanto scettico (al di là della normale fascinazione che penso tutti i patiti di tecnologia subiscano) verso classifiche tipo http://www.top500.org .
Queste classifiche con che criteri vengono svolte? Fanno un benchmark sul calcolo numerico in virgola mobile, se non sbaglio. Ah, tutto qui? Praticamente un giorno potremmo organizzarci con un client di calcolo distribuito, ogni utente internet, e battere qualsiasi supercomputer utilizzando pc come il mio p3 e interconnessioni come l'adsl o il 56k... ridicolo.
Ovviamente chi progetta certi sistemi deve badàre a vincoli di prestazioni ben più complessi del "devo riuscire ad entrare nella top five di top500.org!".
Solo per farti capire perché aggiungendo processori non necessariamente si può avere un incremento prestazionale: ogni problema computazionale ha un suo grado di parallelelismo, ovvero la possibilità di scomporlo in problemi computazionali più piccoli, con ridotte necessità di interazione reciproca. Si parla di "parallelelismo imbarazzante" o "perfect parallelelism" quando il problema complesso è scindibile in tantissimi problemi semplici con necessità di interazione reciproca fra i processi tendenti a zero. Tipo SETI, insomma.
Ciò non toglie che esistano dei problemi per niente parallelizzabili, per i quali avere un cluster di 4096 processori, o avere solo un nodo, è la stessa cosa, con evidente risparmio di energia e complessità nel secondo caso.
correggetemi se ho detto inesattezze, purtroppo non è (per adesso) il mio campo!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".