Intel

Super server Itanium per la NASA

di pubblicata il , alle 09:39 nel canale Private Cloud Super server Itanium per la NASA

L'ente aerospaziale americano ha commissionato a Intel un sistema Server basato su oltre 10.000 cpu Itanium, basato su sistema operativo Linux

 
72 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Maestro Joda12 Agosto 2004, 10:26 #11

X CORSINI

Comunque il piu' potente e' quello della NSA.
Balrog12 Agosto 2004, 10:35 #12

lista supercoputer

http://www.top500.org/

qui c'è la lista dei più potenti supercomputer del mondo
Italian Stallio12 Agosto 2004, 10:36 #13

C'é sempre bisogno di piú potenza.....

Tanto per fare un esempio, 10240 processori Itanium ancora non sono sufficienti per simulare le condizioni meteo della terra in real time.

Come per dire, avvi il supercomputer con tutti i dati, poi ti dice che ieri pioveva :-)

Ce n'é solo uno al mondo che riesce a fare tutti i calcoli in tempi decenti, sta a Tokio e dovrebbe essere il primo o secondo computer piú veloce al mondo. Anche lí, peró, ci vogliono due giorni prima di avere un risultato, quindi bisogna accontentarsi di sapere le previsioni meteo un paio di volte alla settimana!
Fez12 Agosto 2004, 10:40 #14
Questo è realizzato con server Altix della Silicon Graphics, monta una versione custom di linux che può girare con una sola immagine di sistema su 512 cpu [1024 per fine anno]
Lucrezio12 Agosto 2004, 11:00 #15

Determinismo?

A dir la verità, tramite metodi di approssimazione numerica il calcolo degli integrali non è poi tanto laborioso... È più ce altro l'immenso numero di variabili che fa aumentare esponenzialmente il numero di equazioni contenute nei sistemi... soprattutto equazioni differenziali, che, oltre ad un certo ordine ( se non mi sbaglio già oltre il secondo ordine si risolvono solo in casi particolari! ) vanno sciolte tramite metodi approssimativi.
Tanto per fare un esempio, prendete un equazione di Schrödinger ( descrivono gli orbitali elettronici! ): finché si tratta di risolverla per il primo elettrone dell'elio non è un grosso problema, ma diventa tutto estremamente complicato per gli atomi più pesanti!
Ma il vero ed interessante problema, IMHO, è di natura filosofica, non matematica- informatica- scientifica.
Scriveva Laplace nel 1800:
"Un intelligenza che, per un dato istante, conoscesse le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all'analisi ( e 10240 itanium2 potrebbero esserlo! ), abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire, come il passato, sarebbe presente ai suoi occhi".
Determinismo universale: conosco tutte le variabili, sono in grado di elaborarle ( cosa che allora, senza computers, si sognavano! ).
Ma, dico, non è che qualcuno si dimentica qualcosa?
Niente di importante, per carità, ma mi sembra che nel 900 il determinismo universale abbia dovuto forzatamente lasciare il posto ad un principio di causalità molto più debole, a causa dellìintroduzione della meccanica ondulatoria e, in primis, dalle indeterminazioni di Heisenberg !!!
Quindi, se a priori dell'esperienza non possiamo con esattezza (ΔxΔp≥h/4&#960 determinare né la posizione né la velocità di un sistema, non potremmo nemmeno ottenere delle previsioni certe!
La domanda con cui chiudo ( scusatemi per la menata... non lo faccio più ) è questa: piuttosto che "quanto potente dovremmo fare un sistema per avere previsioni in tempo reale" non dovremmo chiederci "visto che le previsioni, per quanto attendibili, non sono che un'approssimazione della realtà, per definizione, ha veramente senso cercare di formularle? Per quanto dalle mie parti si dica "tos che miga..."
Balrog12 Agosto 2004, 11:13 #16
anche se le previsioni non sono certe potrebbero essere comunque utili per pianificare determinati lavori...altrimenti non si spiegano i grandi investimenti in questo tipo di ricerca..o no?
nickthename12 Agosto 2004, 11:15 #17
I miei complimenti sulla dissertazione.
Voglio farti notare, però che il caso è solo uno degli elementi del calcolo degli scenario.
Nel calcolo di uno scenario, oltre a calcolare tutte le possibilil situazioni (e qui il caso c'entra), si cerca di trovare delle soluzioni ottimali a dei problemi.
Come una sorta di mega albero costruito con valori expectimax dove l'elaborazione dei nodi della casualità è complessa quanto quella dell'albero principale.
E' come immaginare un albero enorme che ha alcuni nodi che sono alberi enormi. Immaginate la complessità della ricerca in quest'albero.
Per dirla in parle povere...chissà in quanto tempo ti comprime un DIVX :P
Ciaparat12 Agosto 2004, 11:18 #18
Mah...non mi sembra così tanto potente....;DDD
ally12 Agosto 2004, 11:35 #19
...io vorrei conoscere il rendimento di tali soluzioni...il grosso problema resta l'interconnessione tra i vari nodi che mina appunto il rendimento
Balrog12 Agosto 2004, 11:52 #20

x ally

Penso sia il vero collo di bottiglia di questi sistemi. Probabilmente neppure la fibra ottica attuale riesce a garantire una banda adeguata alla mole di dati che macchine come questa devono gestire.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^