Intel

Tera-scale: 80 Core in un unico processore

di pubblicata il , alle 18:06 nel canale Private Cloud Tera-scale: 80 Core in un unico processore

Intel anticipa quella che potrebbe essere l'evoluzione futura delle cpu con un prototipo di processore a 80 Core, capace di elaborare sino a 1 teraFLOP

 
59 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Catan12 Febbraio 2007, 23:04 #41
a parte che il cell su ps3 è a 6 spe^^.
cmq a parte che sicuramente per farne uno con archidettura x86 quindi fruibile al pubblico sicuramente ci sarebbero molti problemi di ingnerizazione con il numero di transistor destinati a levitare oppure mantenedo gli stessi trans ma diminuendo i core.
cmq sono belli questi esercizzi di stile permettono di capire come utilizzare le nuove tecnologie
mjordan13 Febbraio 2007, 00:16 #42
Originariamente inviato da: darkquasar
Dottò, un quadri-core vero sarebbe già un progresso notevole...

Rimaniamo in trepidante attesa...


Tu parli di prodotti destinati al commercio, qui stiamo parlando di prototipi sperimentali di ricerca che influenzeranno i prodotti del futuro. Non confrontiamo le pere con le arance.
mjordan13 Febbraio 2007, 00:22 #43
Originariamente inviato da: jappilas
no, loro usano corettamente il KB definito nel sistema internazionale come a base decimale, è il resto del mondo a non aver fatto caso all' esistenza di KiB, MiB e GiB (Kibibyte Mebibyte e Gibibyte, cioè Kilo/Mega/Giga binary byte )...


Io veramente sapevo che le unità di misura Kibibyte, Mebi e Gibi sono state definite in un periodo successivo a quelle classiche, proprio per dare un senso a questa nomenclatura indotta dai produttori di memoria di qualsivoglia natura...
Quindi 1MB = 1024KB, 1MiB = 1000KiB.

Poi posso anche sbagliarmi, ma mi sembrava di aver letto cosi da qualche parte.
mjordan13 Febbraio 2007, 00:29 #44
Originariamente inviato da: R3GM4ST3R]anche i compilatori sono programmi...quindi vanno riscritti ed ottimizzati...poi ci sono i sistemi operativi (che integrano la gestione delle risorse del sistema...di roba da riscrivere ce nè

Si parlava di "applicazioni". E' chiaro che i compilatori andranno riadattati, difatti se rileggi quello che ho scritto i conti tornano. Quello che sostanzialmente ho detto è che per le comuni applicazioni cambierà molto poco dal punto di vista della scrittura di applicazioni.
Che i tool di sistema e i SO dovranno essere adattati è la scoperta dell'acqua calda.

[quote]
Secondo il mio punto di vista il gioco del "chi ce l'ha più grosso" continuando ad aumentare il numero di core è abbastanza inutile...


Non è inutile finchè si capisce che le tradizionali architetture sono arrivate alla frutta e aggiungere unità di elaborazione parallele è la via da seguire se si vuole aumentare ulteriormente la complessità dei processori e la loro capacità elaborativa. Come si è sempre fatto, del resto. Questo modo di procedere è la normale continuazione logica a quello che abbiamo sempre chiamato "cluster". Solo che stavolta è a livello di CPU. Si parlava di processi produttivi a 22nm, fin quando credi che si possa scendere ancora?
walter8913 Febbraio 2007, 01:05 #45
Originariamente inviato da: mjordan
Io veramente sapevo che le unità di misura Kibibyte, Mebi e Gibi sono state definite in un periodo successivo a quelle classiche, proprio per dare un senso a questa nomenclatura indotta dai produttori di memoria di qualsivoglia natura...
Quindi 1MB = 1024KB, 1MiB = 1000KiB.

Poi posso anche sbagliarmi, ma mi sembrava di aver letto cosi da qualche parte.

no è proprio il contrario

1 MiB = 1024 KiB o 2^10 Kib = 2 ^ 20 byte
1 Mb = 10^3 Kb = 10^6 byte

di conseguenza 1 Mb = (10^6 / 2 ^20) MiB = 0,95 MiB

cioè un Milione di byte (Mb) corrisponde a 0,95 MiB.
L'ambiguità nasce dal fatto che in windows ad esempio quello che è identificato come Megabyte (Mb) è in realtà il Mibibyte (MiB)

Allo stesso modo
1 GiB = 2^30 byte
1 Gb = 10^9 byte
quindi il rapporto GiB (o Gb winzozziano ) / Gb formale (quello con cui misurano le capacità degli hard disk per capirici) è = 0,93
ecco perchè un hard disk da 250 gb (ufficiali; 250 x 10^9 byte) in windows è di 237,5 Gb (che in realtà sono Gib ovvero 237,5 * 2^30 byte).

se ho sbagliato qualcosa correggetemi
Cazzabbubbolo13 Febbraio 2007, 01:17 #46
Originariamente inviato da: essereumano
Ah si va benino.... 62 chede video, 80core....
Siamo sicuri che sia la strada giusta?


Direi proprio di si, se pensi che diminuendo la frequenza del core di un processore, diminuisce il calore e soprattutto il consumo. E quello che perdi in prestazioni, lo guadagni con l'altro core...

Comunque, direi che ormai certi commenti sono inappropriati, a meno di non aver capito una cippa di informatica di base...
Scrambler7713 Febbraio 2007, 01:41 #47
cazz! io ero rimasto fermo al k8l!!
mjordan13 Febbraio 2007, 03:56 #48
Originariamente inviato da: walter89
no è proprio il contrario

1 MiB = 1024 KiB o 2^10 Kib = 2 ^ 20 byte
1 Mb = 10^3 Kb = 10^6 byte

di conseguenza 1 Mb = (10^6 / 2 ^20) MiB = 0,95 MiB

cioè un Milione di byte (Mb) corrisponde a 0,95 MiB.
L'ambiguità nasce dal fatto che in windows ad esempio quello che è identificato come Megabyte (Mb) è in realtà il Mibibyte (MiB)

Allo stesso modo
1 GiB = 2^30 byte
1 Gb = 10^9 byte
quindi il rapporto GiB (o Gb winzozziano ) / Gb formale (quello con cui misurano le capacità degli hard disk per capirici) è = 0,93
ecco perchè un hard disk da 250 gb (ufficiali; 250 x 10^9 byte) in windows è di 237,5 Gb (che in realtà sono Gib ovvero 237,5 * 2^30 byte).

se ho sbagliato qualcosa correggetemi


Si è vero ho invertito nella definizione, ma secondo me si sta facendo ancora una gran confusione. Mb sta per "megabit" mentre "megabyte" si scrive MB.
Infatti il sistema SI internazionale definisce il bit come "b" mentre il byte come "B". Quindi Mb non è "megabyte" ma "megabit".

Ho ritrovato l'articolo, la definizione di mibi, kibi, etc. è infatti posteriore alla definizione comune, esse infatti sono state definite solo nel 1998 e per di piu' dallo IEC, proprio per risolvere le ambiguità con il sistema SI.

Le ambiguità non derivano da Windows, Windows le usa correttamente in base al contesto, infatti 1MB (1 megabyte) ha 3 diverse interpretazioni in base al contesto, proprio per motivazioni tecniche.

C'è da dire che è anche incorretto dire che 1 MB = 10^3 KB = 10^6 byte sempre e comunque, perchè quella è una convenzione IEC e non sta scritto da nessuna parte che debba essere usata per forza. Infatti viene usata solo quando si parla di storage, ma negli altri casi si usa il sistema SI, che prevede il piu' classico 1MB = 1048576 byte = 1024 KB.

Comunque leggete qui':
http://it.wikipedia.org/wiki/Megabyte
cionci13 Febbraio 2007, 09:40 #49
Credo che ci sia da mettere in evidenza alcune cosa:

- sono 80 core, ma ogni core svolge solo le funzioni FPU
- sono 80 core VLIW (Epic style suppongo) e come tali sono molto diversi da un x86 e non risentono di molte problematiche di una architettura x86 (nella VLIW il parallelismo fra le unità è gestito direttamente tramite il codice macchina tanto per evidenziare la differenza maggiore)
- 1 TeraFLOP....si fa presto a fare questi calcoli sommando la capacità di ogni singola unità (a 32 bit tra l'altro)

Questo non per criticare il progetto, ma solo per farvi capire a cosa siamo davanti.
E' un prototipo, niente di più e niente di meno, con applicazioni pratiche sicuramente limitate. Questo non siminuisce senz'altro la notizia, in quanto è sicuramente un'anticipazione di quanto potrebbe riservarci il futuro.
Per chi si chiede: ma è questa l'unica strada ? Da parte mia, come avevo già detto ed ipotizzato in passato, la risposta è sì. E' l'unica possibilità per rispondere alla richiesta di aumento di prestazioni in quanot la via dell'aumento di frequenza (ipotizzata da anni da Intel, secondo loro avremmo dovuto avere CPU a 8 GHz di questi tempi). Purtroppo l'aumento di parallelismo non ha ancora visto un equivalente sforzo dal punto di vista dei linguaggi di programmazione. In pratica ci troviamo davanti ai Quad Core con linguaggi paralleli praticamente inesistenti.
Ecco secondo me quale sarà punto di svolta per il futuro. Al giorno d'oggi sviluppare codice parallelo ha un costo troppo elevato.
DevilsAdvocate13 Febbraio 2007, 11:16 #50
Se parlano di un gigaflop in tutto il general purpose e non solo
nel calcolo fp (senno' quest'oggetto non va molto piu' veloce del cell...) allora X86 deve morire..... Con Linux o BSD i sorgenti sono aperti e
quindi questi S.O. si potranno adattare a qualsiasi novita' il futuro ci
porti....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^