Roadrunner: supercomputer da oltre un petaFLOP al secondo
di Andrea Bai pubblicata il 09 Giugno 2008, alle 16:51 nel canale Private Cloud
Installato negli Stati Uniti un nuovo supercomputer basato su processori Cell, in grado di superare il petaFLOP di potenza computazionale
42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoè solo uno dei compiti che gli si potrebbe far eseguire...
....
se poi vogliamo andare in campo militare si può sempre vedere gli effetti di una esplosione di una testata nucleare, o anche lo studio della propagazione di una epidemia causata da un'attacco biologico.
Io propenderei proprio per questo, vista la collocazione della macchina (Los Alamos, DOE).
Tra l'altro nella classifica top500 vi sono parecchie macchine adibite a tale scopo, praticamente tutte quelle che presentano in qualche modo i nomi Los Alamos, Sandia, LLNL (si trova ancche come "Lawrence Livermore national laboratory" scritto per esteso).
flop sta per floating point operation, e queste sono sempre operazioni su float 32bit.
Nel banchmark Linpack, usato per misurare le performance di tali macchine:
Mflop/s is a rate of execution, millions of floating point operations per second. Whenever this term is used it will refer to 64 bit floating point operations and the operations will be either addition or multiplication. Gflop/s refers to billions of floating point operations per second and Tflop/s refers to trillions of floating point operations per second.
Dipende dalla tipologia dell'applicazione/i che dovranno eseguire, dipende dalla segretezza del compito a cui sono destinate ecc...
Ciao
Federico
Quando si parla di supercomputer, e in particolare delle prestazioni riportate dalla top500, si parla sempre di operazioni a 64 bit. Infatti i Cell di Roadrunner possono svolgere operazioni a 64 bit nelle SPU, ma hanno una potenza dimezzata rispetto ai Cell "classici".
La potenza dichiarata dovrebbe essere dovuta solo ai Cell, e dovrebbe essere di circa 1,6 PF teorici. Se i processori hanno una frequenza di 4 Ghz, questo significa 4 flops (2 ADD + 2 MUL) per clock e per SPU, quindi 128 Gflops per processore. Per il Cell a 32 bit erano stati dichiarati 256 Gflops a 4 GHz.
oi dove siete finiti? solo se l'enea fa un supercmputer nuovo non va bene?
salve, sono uno di qugli "idioti" che credono in boinc...
mi sa che tu nn abbia idea di come funzioni boinc e di quale sia la sua "filosofia" altrimenti eviteresti di sparare commenti gratuiti e inutili ke nn servono a nessuno.
ti invito quindi ad istruirti prma di scrivere e a conoscerci meglio...
un saluto
da un idiota
Mflop/s is a rate of execution, millions of floating point operations per second. Whenever this term is used it will refer to 64 bit floating point operations and the operations will be either addition or multiplication. Gflop/s refers to billions of floating point operations per second and Tflop/s refers to trillions of floating point operations per second.
La potenza dichiarata dovrebbe essere dovuta solo ai Cell, e dovrebbe essere di circa 1,6 PF teorici. Se i processori hanno una frequenza di 4 Ghz, questo significa 4 flops (2 ADD + 2 MUL) per clock e per SPU, quindi 128 Gflops per processore. Per il Cell a 32 bit erano stati dichiarati 256 Gflops a 4 GHz.
Ok, ho sbagliato, non sono 32bit ma 64.
Ma la mia osservazione rispondeva al "ci sono petaflops e petaflops": i petaflops sono sempre la stessa cosa.
E quando mi riferivo ad altre operazioni, intendevo, per esempio, le istruzioni condizionali.
Ora non mi ricordo i dettagli di preciso, però è una cosa abbastanza curiosa..questi supercomputer, pur potentissimi, creano simulazioni attendibili ma all'interno di un sistema ancora molto semplificato.
Ora non mi ricordo i dettagli di preciso, però è una cosa abbastanza curiosa..questi supercomputer, pur potentissimi, creano simulazioni attendibili ma all'interno di un sistema ancora molto semplificato.
In realtà, appunto, dipende dalla complessità del modello (che comporta ovviamente maggiore attendibilità
Per avere un idea, piuttosto brevemente, per esempio per le simulazioni atmosferiche (previsioni del tempo):
- Si divide lo spazio di interesse (Italia per esempio) in tanti "cubi" di lato 10km per esempio.
- Ogni processore si prende una porzione di questi cubi
- Ogni cubo ha le sue variabili tipo temperatura, pressione, umidità (rilevate)
- Il programma di simulazione conosce le leggi termodinamiche, ed in base ai dati in input, fa evolvere il sistema.
Ora, se i cubi fossero di 1km di lato, la simulazione sarebbe più attendibile, ma con un tempo di calcolo 1000 volte superiore (molto + o -
Nell'esempio che dici tu, a livello molecolare, tutte le variabili.. uuffffffff, appunto un tempo quasi infinito
Infatti...avevo fatto questo esempio proprio per dare idea di come un sistema banale come un bicchiere d'acqua con cui interagiamo quotidianamente riempiendolo, bevendolo, versandolo etc, possa facilmente assorbire e rendere insufficiente tutta la potenza di calcolo di questi supercomputer.
Se pensiamo al bicchiere e al contempo ad atmosfera e chilometri di territorio in cui si effetuano previsioni meteo possiamo renderci conto di quante siano realmente le variabili in gioco!
Il calssico "ti perdi in un bicchiere d'acqua" potremmo dirlo anche al Roadrunner
Pensiamo dunque a quanto sia ancora primordiale la fisica implementata nei videogame che a volte ci lascia cmq piacevolmente stupiti e sorpresi
Windows 98
Scherzi a parte, usano Red Hat.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".