Il nuovo top supercomputer mondiale è cinese

di pubblicata il , alle 11:02 nel canale Private Cloud Il nuovo top supercomputer mondiale è cinese

Aggiornata la lista dei top 500 supercomputer al mondo; molte nuove soluzioni utilizzano un approccio ibrido con CPU affiancate da GPU per ottenere nuovi picchi prestazionali massimi teorici

 
25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
SnaKeZ8315 Novembre 2010, 20:51 #21
Secondo voi se Google mettesse insieme tutta la sua potenza di calcolo...supererebbe questi super-pc? paragonabile o no?

Giusto per farmi un idea
rgart15 Novembre 2010, 21:10 #22
Originariamente inviato da: bongo74
sarebbe interessante conoscere anche il s.operativo




Spero tu non intenda un osx o un winzoz... Sono tutti so proprietari basati su linux...
Vash8816 Novembre 2010, 01:23 #23
dal sito del CINECA
2009 - Viene installato il sistema SP Power 6 con potenza di picco di 100 Teraflops e un sistema di storage adeguato con una capacità di circa 1.5 Petabyte. Questo ambiente viene affiancato da un sistema Blue Gene P di potenza di circa 15 Teraflops, che verrà messo in produzione controllata il prossimo autunno. Il suo scopo è di avviare la sperimentazione e la migrazione del paradigma di programmazione verso i sistemi ad elevatissimo parallelismo in vista della successiva installazione di un sistema Blue Gene Q con potenza di 1 Petaflops, la cui acquisizione è prevista per la fine del 2011, inizio del 2012.


circa il 7°-8° supercomputer del mondo, ad oggi.
Fra 1 anno qualcosa in più di sicuro.
bongo7416 Novembre 2010, 19:09 #24
Originariamente inviato da: rgart


Spero tu non intenda un osx o un winzoz... Sono tutti so proprietari basati su linux...


lo so naturalmente, ma volevo ulteriori specifiche perche' linux vuole dire "il router che hai accanto" ma anche questi "super", quindi maggiori info sarebbero state gustose
D1o17 Novembre 2010, 11:40 #25
usare cloud di personal comuter è fattibile (e viene fatto) quando il poroblemaa è risolvere tante volte un algoritmo senza che ci sia scambio di informazioni tra i vari nodi.

i vari @home (seti, lhc, etc) sono un esempio di sistemi del genere.

questi supercomputer sono necessari quando un problema deve essere diviso tra tante cpu ed è presente un grosso scambio di informazioni. simulazioni di fluidodinamica, chimica, strutturali sono un esempio.

diciamo che devo sapere come si comporta il flusso d'aria attorno ad un'ala. ho il volume di spazio che mi interessa e so suddivido in una griglia per risolvere le equazioni che governano la fisica del problema. se la mia griglia è molto rada (200000 celle) lo posso eseguire su un normale personal computer in un tempo accettabile. se invece voglio catturare determinati fenomeni avrò bisogno di una griglia piu fine (1-100 milioni di celle). a questo punto far andare il calcolo su una sola cpu avrebbe dei tempi troppo lunghi e quindi si spezzetta la griglia su tante cpu (la media è 2-500k celle per core). ma il sw deve far comunicare le varie cpu su cosa avviene all'interfaccia tra le zone che ho diviso ed allora ho bisogno di reti che siano sufficenti a reggere lo scambio di dati.
altrimenti i processori calcolerebbero molto velocemente il loro dominio ma poi starebbero fermi ad aspettare le cominacazioni dagli altri processori, vanificando la nostra ricerca di solvere il tutto in tempi brevi.

e qui ci viene in aiuto l'infiniband (fibre ottiche, costa un salasso) bassissima latenza, altissima banda. mettete tante cpu assieme, collegatele con l'infiniband, et voilà avete un supercomputer.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^