Tera-scale: 80 Core in un unico processore

Tera-scale: 80 Core in un unico processore

Intel anticipa quella che potrebbe essere l'evoluzione futura delle cpu con un prototipo di processore a 80 Core, capace di elaborare sino a 1 teraFLOP

di pubblicata il , alle 18:06 nel canale Private Cloud
Intel
 
59 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
mjordan12 Febbraio 2007, 20:09 #21
Originariamente inviato da: The Predator
Si ma quanto costerà se lo mettono in commercio,centomila euro.


Non a caso soluzioni simili richiedono anni per l'immissione sul mercato.
Credi forse che quello che compri nei negozi sia veramente l'ultima tecnologia costruibile dall'uomo?
mjordan12 Febbraio 2007, 20:10 #22
Originariamente inviato da: Apple80
Il problema sarà creare un software per gestire tutti i core. no?
in ambito militare scientifico ecc. no rpoblem. Ma per casa-lavoro mi chiedo quanto possa servire. Prima che lo vedremo nelle nostre case passeranno una decina di anni.


No. Con queste architetture soluzioni simili a OpenMP piu' assistenza mirata dei compilatori diventerà la norma.
mjordan12 Febbraio 2007, 20:11 #23
Originariamente inviato da: darkquasar
visto che per quanto riguarda i progetti futuri Intel marca male, dopo aver sfornato i processori quad core finti adesso vogliono a fare a chi ce l'ha più lungo sul numero di core, un po' come avevano fatto con l'architettura Netburst (pipeline con un fottio di stadi) per quanto riguarda i MHz.
Sono ridicoli.

Oh a proposito, visto che l'atteggiamento è questo: 'sto processore se ha 100 milioni di transistor, vuol dire che ne ha meno della metà del Cell.


Ingegnè, tu che cosa proponi in alternativa invece?
Marko9112 Febbraio 2007, 20:21 #24
Originariamente inviato da: nMOS
"mi domando quanto ci sia di simile concettualmente e tecnicamente tra questa architettura e il Cell di STI..."


cambia notevolmente, da quel che ho capito qui ci sono 80 core singoli, cioè 80 vere e proprie cpu connesse tra loro; non si fa riferimento a dettagli sull'architettura della memoria che intel ha deciso di adottare

nel Cell il discorso varia, e di molto, si è seguito un approccio innovativo e sicuramente affascinante, che solo per questo dovrebbe invogliare a comprarla, mandando al rogo xbox360 e la microsoft stessa: nel Cell originario c'è UNA sola cpu (denominata "general purpose" che è il G5, mentre le altre 8 unità di calcolo sono piccole unità molto specifiche che utilizzano protocolli di coerenza dei dati sbalorditivi; infatti se queste non hanno cache ci sarà qualcosa di rivoluzionario sotto!
cmq anche con il Cell si parla di teraflops, mi sa che in totale ne possa fare 2 (ripartizionati tra cell e gpu, mi sa che il cell ne fa 1,6 di suo ma non ricordo bene).


Un Cell con 8 SPE può al massimo eleborare 256 Gigaflops con codice ultraottimizzato. I 2 teraflops erano riferiti alle performance totali di Ps3 (Cell+RSX) ma sono 4-5 volti superiori alla realtà (che è intorno ai 600 Gigaflops)
Anche MS cmq ha gonfiato i numeri, praticamente gli ha raddoppiati.
L'idea è buona, anche AMD seguirà quella strada.
Jon_Snow12 Febbraio 2007, 20:24 #25
Interessante, mI ricorda un po' la filosofia delle FPGA.
flapane12 Febbraio 2007, 20:34 #26
...in attesa nei prossimi decenni di abbandonare il SIlicio e in un futuro ancora più lontano di intravedere l'informatica quantistica
E'chiaro che questo è solo un esercizio tecnologico e non sarà realtà nell'immediato almeno fin quando la miniaturizzazione non avrà una bella spinta
demon7712 Febbraio 2007, 20:35 #27
però..
un cluster-on-a-chip!!

il problema ora è sfruttare come si deve la potenzialità in parallelo
metallus8412 Febbraio 2007, 20:41 #28
m sa ke stanno cercando di strizzare la tecnologia basata sul silicio con questa novità , visto ke mi sà ke + di tanto non riescon ad andare con velocità di elaborazione (l'elettrone inizia a essere un po lento :°D) si appoggiano sul calcolo parallelo, non è male secondo me, chissà quando vedremo i primi chipset delle mobo dual core ihihihi
Spero si sbrighino ad applicare a livello commerciale la tecnica fotonica. I cristalli sono 1 grande cosa in confronto al silicio, molto + veloci. Le teorie ormai ci sono e si studiano da tanti anni, prima del computer quantistico m sa che arriverà quello fotonico
chi vivrà, vedrà...
R3GM4ST3R12 Febbraio 2007, 20:43 #29

x mjordan

anche i compilatori sono programmi...quindi vanno riscritti ed ottimizzati...poi ci sono i sistemi operativi (che integrano la gestione delle risorse del sistema...di roba da riscrivere ce nè, soprattutto per il fatto che non sono VLIW e non x86).

Secondo il mio punto di vista il gioco del "chi ce l'ha più grosso" continuando ad aumentare il numero di core è abbastanza inutile...

Sarebbe interessante vedere lo schema del memory controller affiancato a questa cpu per eseguire i test sopracitati...
darkquasar12 Febbraio 2007, 20:47 #30
Originariamente inviato da: mjordan
Ingegnè, tu che cosa proponi in alternativa invece?

Dottò, un quadri-core vero sarebbe già un progresso notevole...

Rimaniamo in trepidante attesa...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^