Intel
Tera-scale: 80 Core in un unico processore
di Paolo Corsini pubblicata il 12 Febbraio 2007, alle 18:06 nel canale Private Cloud
Intel anticipa quella che potrebbe essere l'evoluzione futura delle cpu con un prototipo di processore a 80 Core, capace di elaborare sino a 1 teraFLOP
59 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoin linea teorica, con questo processore si può ottenere lo stesso risultato usando 260 processori (260 contro 131.072) e con una dissipazione totale di 26kilowatt.
oppure, nella versione a basso consumo, utilizzare 818 processori per una dissipazione totale di 8kilowatt.
o hanno sparato alto con i tflop dichiarati, o è una semi-rivoluzione.
magari quello che dici tu è compatibile con le istruzione x86...sta cosa delle istruzioni semplificate secondo me altera parecchio le potenze di calcolo in gioco
100 milioni x 80 core?
ma il core 2 duo non ne ha leggeri 300 milioni?se è così ogni core di quell' affare ha gli stessi transistor di un 486... e che mettendo insieme un' ottantina di 486 si spara fuori 1 tflop??
boh io non ho mai provato, chissa ;-)
cambia notevolmente, da quel che ho capito qui ci sono 80 core singoli, cioè 80 vere e proprie cpu connesse tra loro; non si fa riferimento a dettagli sull'architettura della memoria che intel ha deciso di adottare
nel Cell il discorso varia, e di molto, si è seguito un approccio innovativo e sicuramente affascinante, che solo per questo dovrebbe invogliare a comprarla, mandando al rogo xbox360 e la microsoft stessa: nel Cell originario c'è UNA sola cpu (denominata "general purpose"
cmq anche con il Cell si parla di teraflops, mi sa che in totale ne possa fare 2 (ripartizionati tra cell e gpu, mi sa che il cell ne fa 1,6 di suo ma non ricordo bene).
Basta vedere l'immagine a corredo dell'articolo: tutte le parti di I/O tra CPU e resto del sistema, senza contare i controllori della memoria ed il clock sono UNICI e BEN DISTINTI da quello che, forzando un po', potrebbe essere definito CLUSTER DI CALCOLO...
Per essere ancora più esplicativo, provate a dare un'occhiata a questa immagine ( http://i2.neoseeker.com/a/a64-x2-4200/diagram_thumb.jpg ), dove è rappresentata l'architettura interna di un AMD X2: i due core sono ben separati, e l'unica cosa in comune, oltre all'interfaccia di intercomunicazione, è il controller DDR.. L'unica differenza con i core duo, a livello logico/costruttivo, è che in questi ultimi la memoria L2 è condivisa ( http://www.zdnet.com.au/shared/imag...ram-440x370.jpg )..
il valore fuffa di 2 Tflops è ottenuto sommando anche la potenza di calcolo di picco (ancora più teorica) della GPU
la cosa curiosa è che all'atto pratico la GPU dell'xbox 360 è equivalente, pur avendo un valore dichiarato di picco in gflops pari a meno della metà (ma ho anche idea di come calcoleranno i gflops in questi casi, ovvero prendendo il valore di picco teorico di ogni singola unità di calcolo presente nella GPU e facendo una insulsa e assolutamente non significativa somma)...
l'aspetto che mi sconcerta è che, quando si tratta di calcolo parallelo (ad esempio elaborazione di stream), tirar fuori gflops sia relativamente una stupidata ma ciò nonostante:
1) questi numeroni che ne escono suscitano sempre stupore
2) si fanno sempre paragoni a sproposito con gli x86 o comunque CPU general purpose la cui complessità è decisamente maggiore
3) le CPU così concepite escono con il contagocce
è talmente ovvio che se devi trattare blocchi di 1000 word alla volta è meglio avere 1000 core a 1 hz che 1 core a 1000 hz che davvero non capisco questa "rivoluzione"... a me sembra davvero l'acqua calda - non a caso processori dedicati al calcolo vettoriale così strutturati ci sono in giro da parecchi anni
è un po' come per i dischi fissi allo stato solido... ci sono da anni ma evidentemente diventano innovativi solo quando si muovono i colossi...
E' la stessa storia dei GB (che NON esistono, secondo i produttori di dischi rigidi) e della velocità in ADSL (4 M teorica, 300 K reale)..
Per fare pubblicità tirano fuori numeri anche dalla lista della spesa!
Sono ridicoli.
Oh a proposito, visto che l'atteggiamento è questo: 'sto processore se ha 100 milioni di transistor, vuol dire che ne ha meno della metà del Cell.
[OT]
Per i produttori di HD (e non solo purtroppo) 1kB=1000B invece di 1024B, ecco il mistero.
Per la storia dell'adsl... Un conto è dire che nella navigazione DNS problematici e PING elevati sono deleteri (concordo), un altro è dire che la tua ADSL da 4Mbit/s (massimi) cioè 512kByte/s di picco non li riesca mai a "vedere" e si assesti sempre su valori massimi di 300kB/s. Se davvero ti succede questo allora c'è un grosso problema. Ovviamente vanno misurati anche in base alla capacità del server e alla distanza dello stesso: un server in italia con una connessione molto libera te li darà sicuramente i 512 (anche qualcosa in più di picco). Altro modo per ottenerli è usare più connessioni al server in parallelo, come fanno penso tutti i download manager. Io di norma faccio almeno 20 connessioni in parallelo, fino anche a 60 quando il server è molto intasato. So che non è molto ortodosso ma se ho fretta è l'unica soluzione.
[/OT]
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".