AMD

12 Core e Bulldozer: da AMD le future cpu Opteron

di pubblicata il , alle 11:19 nel canale Private Cloud 12 Core e Bulldozer: da AMD le future cpu Opteron

In occasione della conferenza Hot Chips 21 AMD anticipa alcune delle caratteristiche tecniche delle future cpu Opteron, attese tra 2010 e 2011

 
65 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
JackZR27 Agosto 2009, 13:25 #61
Originariamente inviato da: Pleg
La domanda e' fondamentale, ed e' difficile dare una risposta precisa: dipende da che applicazioni ci devono girare, e dal modello di programmazione e di memoria.

Un supercomputer riesce a sfruttare decine di migliaia di core, ma:
* devi programmarli in modo molto accorto, in genere gestendo direttamente il traffico dati (es.: MPI); la cosa e' una piaga sul culo, e' difficile, facilissimo fare errori che mandano in deadlock tutto il sistema, serve gente molto specializzata, e il costo finale del software e' molto alto
* usano sistemi operativi dedicati, non puoi metterci windows (e neanche ubuntu o MacOS
* altre piaghe varie

Il problema fondamentale e' dato dall'accesso alla memoria e dal traffico dati per tenere l'applicazione sincronizzata (coerenza dei dati).
Se vuoi avere shared memory, cache coherence in hardware in modo trasparente al programmatore... allora gia' a 16--32 core cominci a piangere. E devi tenerne conto _molto_ bene quando programmi, e possibilmente devi avere supporto dal sistema operativo.
Se vuoi sincronizzare tutto in software, le prestazioni possono crescere molto, e anche il numero di processori usabili in modo efficace... ma programmare diventa un dolore atroce.

Coi multicore vai meglio dei multiprocessori perche' essendo i core on-chip hai piu' banda e _soprattutto_ meno latenza nella comunicazione, ma il limite e' sempre li' vicino.

OK, grazie della risposta, quindi come al solito è un problema di Software più che di Hardware

Originariamente inviato da: deepdark
Scusate, domanda ot. Ve la posto perchè sembrate competenti

Una volta si sentiva parlare dei processori che comunicavano attraverso la luce invece che su fili di rame, se ne sa nulla???

Effettivamente sarebbe interessante saperne qualcosa.
El Cid27 Agosto 2009, 14:04 #62
Originariamente inviato da: ilratman
è solo un limite delle applicazioni o dell'os.




gli os microsoft da qual che so gestiscono fino a 64 processori ossia core.

i prossimi os dovranno tenere conto di questa cosa!

sono proprio curioso di vedere con larabee cosa succedera, se verrà vista come una gpu oppure come tanti core dal sistema operativo, se fosse così il limite dei 64 sarà superato in fretta anche nei sistemi casalinghi.


questo è vero, ma non serve a molto che il so riesca a vederli se poi ci sono pochi programmi (esclusi forse i video editing) che li possano effettivamente sfruttare
Pleg27 Agosto 2009, 20:21 #63
Originariamente inviato da: JackZR
OK, grazie della risposta, quindi come al solito è un problema di Software più che di Hardware



Beh... si e no. Se fosse possibile in hardware avere qualche ordine di grandezza in piu' di banda e in meno di latenza, sposteresti avanti quel limite talmente tanto da non dover avere alcuna preoccupazione a livello software
Ma come sempre, non esistono i "silver bullet".
Pleg27 Agosto 2009, 20:24 #64
Originariamente inviato da: deepdark
Scusate, domanda ot. Ve la posto perchè sembrate competenti
Una volta si sentiva parlare dei processori che comunicavano attraverso la luce invece che su fili di rame, se ne sa nulla???


Ci stanno sempre studiando. E' parecchio complesso, ma ci sono stati grossi passi avanti, in recenti presentazioni della Intel e della HP hanno mostrato laser con guida d'onda in silicio, laser modulabili elettricamente su supporto in silicio, ecc. E' probabile che tra un po' si vedranno in giro (ma quando, non ne ho la minima idea. 10 anni? boh)

Il vantaggio piu' grande dovrebbe essere l'abbassamento della latenza nelle comunicazioni, un vero toccasana per le architetture multicore, che avranno sempre piu' core.
micropunta28 Agosto 2009, 14:53 #65
Originariamente inviato da: snipershady
forse per lo stesso motivo che li ha spinti a fare i Triple Core Phenom....

Sbagliano una marea di CPU e non le vogliono gettar via...
Fanno un 4 core che ha 1 core sfortunato ?... Lo chiamano TRIPLE e te lo vendono.


strano, mhhh

quoto fottemberg su tomshw

http://www.tomshw.it/news.php?newsid=19201

Commento di Fottemberg pubblicato in data 28/08/2009 alle 09:19

E' stato più volte affermato (da siti quale Anandtech, Guru3D, ecc), che le fabbriche AMD hanno il più basso tasso al mondo di CPU difettose. Semplicemente, avendo poche fabbriche, AMD deve razionalizzare le linee (quindi pochi tipi di processori prodotti) e quindi con quelli riempire tutte el fasce di prodotti (disabilitando alcune funzioni).


Per stare OT con la notizia: ma siamo già arrivati al quad channel ?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^