AMD

CPU e GPU integrate nelle future cpu Opteron

di pubblicata il , alle 11:46 nel canale Device CPU e GPU integrate nelle future cpu Opteron

La strategia AMD per i sistemi server del futuro prevede una sempre più radicata unione tra CPU e GPU, con integrazione dei due componenti

 
21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Notturnia08 Febbraio 2010, 15:22 #11
in tal caso non veo un integrazione gpu in cpu.. ma semplicemente l'abbandono di una floating point unit scadente con la sostituzione di quelle delle gpu..

ovvero la nascita di una cpu con un comparto a virgola mobile più efficiente di oggi..

nessuna rivoluzione..

ma qua si parla di integrare una gpu in una cpu.. solo che lo si fa mettendo una gpu decente e non una ciofeca come i vari tentativi intel..

se si integra la gpu per dare potenza di calcolo ben venga.. ma non vedo innovazione.. solo il fatto di evolvere una cpu ora scadente in una al passo con i tempi..


per il resto.. dubito che siano oggetti che andranno molto.. credo che i supercomputer possano avere più benefici da batterie di gpu (per quei calcoli di cui dovrebbe farsi calcolo questa nuova cpu-gpu)..

anche visto che il bus puo' crescere ancora.. e molte piastre server hanno anche tutti gli slot x16 puri..

resto dell'idea che se serve ad avvicinarsi alle cpu intel ben venga.. anche intel forse migliorerà le sue cpu.. ma una cpu-gpu temo sia un rasciare il fondo del barile..
Ares1708 Febbraio 2010, 15:26 #12
Originariamente inviato da: Notturnia
in tal caso non veo un integrazione gpu in cpu.. ma semplicemente l'abbandono di una floating point unit scadente con la sostituzione di quelle delle gpu..

ovvero la nascita di una cpu con un comparto a virgola mobile più efficiente di oggi..

nessuna rivoluzione..

ma qua si parla di integrare una gpu in una cpu.. solo che lo si fa mettendo una gpu decente e non una ciofeca come i vari tentativi intel..

se si integra la gpu per dare potenza di calcolo ben venga.. ma non vedo innovazione.. solo il fatto di evolvere una cpu ora scadente in una al passo con i tempi..


per il resto.. dubito che siano oggetti che andranno molto.. credo che i supercomputer possano avere più benefici da batterie di gpu (per quei calcoli di cui dovrebbe farsi calcolo questa nuova cpu-gpu)..

anche visto che il bus puo' crescere ancora.. e molte piastre server hanno anche tutti gli slot x16 puri..

resto dell'idea che se serve ad avvicinarsi alle cpu intel ben venga.. anche intel forse migliorerà le sue cpu.. ma una cpu-gpu temo sia un rasciare il fondo del barile..


prova ad immaginare un server con 128 opteron, e poi ne riparliamo.
MaxFactor[ST]08 Febbraio 2010, 15:28 #13
Poi rinasce 3DFX e fa un accelleratore grafico?
Mr Resetti08 Febbraio 2010, 15:42 #14
Originariamente inviato da: homero
finalmente avremo il vero GPGPU computing e nvidia purtroppo dovrà lasciare il passo con la sua architettura basata su PCIE...


Non credo proprio. Una GPU discreta ha e avrà sempre delle potenze di calcolo ben superiori ad una qualsiasi integrata.

Ad esempio le GPU intel che formeranno le piattaforme Clarkdale ed Arrandale, con CPU i5 e i3, sono all'incirca ai livelli di una nVidia 9400, se non più bassi (tipo ION).

Prendendo come benchmark il programma di Folding@home probabilmente avresti 600-1000 punti al giorno (ppd).

Una 9600 GSO ne fà 4-5 volte tanto e costa 50 euro.

Una GPU del genere sarebbe molto scarsa per il GPGPU, non credi? Anche se sarebbe comunque un discreto passo avanti.

Originariamente inviato da: Human_Sorrow
[IMHO]

Il vero GPGPU si fa con le potenti GPU discrete e sopratutto scalabili, mi serve più potenza, ne compro un'altra e la metta affianco all'altra, e non con questi mix ...

Stiamo a vedere cosa ne esce ...

[/IMHO]


Quoto!
Notturnia08 Febbraio 2010, 15:42 #15
Ares17.. partendo dal presupposto che non ci sono piastre server che montano 128 opteron immagino che stai parlando di un cluster..

in tal caso prova a pensare a 128 tesla assieme e poi ne riparliamo..

una piastra server monta al massimo 8 cpu.. rari casi.. di norma 4 ..

i tesla sono scalabili come le cpu.. quindi se si parla di potenza posso scalare anche 128 tesla.. per esempio matrox e nvidia usano da tempo le gpu per le simulazioni se non ricordo male..

quindi resto dell'idea che sia meglio scalare gpu che integrare un pezzetto di gpu in una cpu e scalare quelle.. costa e non garantisce la scalabilità nel futuro.. i bus per le gpu sono molto più duraturi dei socket delle cpu a quanto ho visto..

e 128 tesla credo che facciano apezzetti 128 opteron nuovi in termini di pura fpu..
Ares1708 Febbraio 2010, 15:52 #16
Originariamente inviato da: Notturnia
Ares17.. partendo dal presupposto che non ci sono piastre server che montano 128 opteron immagino che stai parlando di un cluster..

in tal caso prova a pensare a 128 tesla assieme e poi ne riparliamo..

una piastra server monta al massimo 8 cpu.. rari casi.. di norma 4 ..

i tesla sono scalabili come le cpu.. quindi se si parla di potenza posso scalare anche 128 tesla.. per esempio matrox e nvidia usano da tempo le gpu per le simulazioni se non ricordo male..

quindi resto dell'idea che sia meglio scalare gpu che integrare un pezzetto di gpu in una cpu e scalare quelle.. costa e non garantisce la scalabilità nel futuro.. i bus per le gpu sono molto più duraturi dei socket delle cpu a quanto ho visto..

e 128 tesla credo che facciano apezzetti 128 opteron nuovi in termini di pura fpu..


Ma io non ho mai detto che una gpu integrata fornisce lo stesso ipc di una dedicata, ma convieni con me che in alcuni ambiti può portare un surplus di prestazioni non indifferenti rispetto al solo utilizzo della cpu, e praticamente a costo zero (con il semplice upgrade del processore, cosa abbastanza comune nei server).
Ps, Matrox non si è mai dedicata al gpc
actarus_7708 Febbraio 2010, 16:18 #17
A partire dal 2012...

Dall'inizio della notizia (in riferimento alla data) si riusciva giàa a capire che era dell'AMD....
Notturnia08 Febbraio 2010, 16:25 #18
@Ares

beh si.. se condivide il socket (come pare) è un upgrade pensato per chi oggi ha le cpu "scadenti" del futuro e quindi senza fare fatica butta le sole cpu e le cambia con queste nuove.. ma in questo dico che non vedo innovazione ma solo evoluzione di cpu che oggi (intel e amd) non hanno fpu al passo con i tempi..

in questo si ti do ragione.. una farm butta le cpu e le aggiorna.. e di opteron in giro ce ne sono parecchi grazie al costo inferiore rispetto a xeon.. in questo senso ben venga.. ma non credo che soppianteranno la potenza di una gpu vera e propria.. ma come upgrade vanno bene (immagino che possano avere un prezzo che le renderà competitive rispetto al buttare tutto il cluster)

P.s. mi pareva che una delle ultime matrox pharelia (di quando io compravo matrox.. quindi 10 anni fa mi sa..) fosse stata realizzata tutta virtualizzandola sui loro cluster.. ma probabilmente erano cluster di cpu convenzionali e non gpu come ho sovrimpresso nella mia mente dopo gli annunci di nvidia :-D sorry per l'errore
freeeak08 Febbraio 2010, 18:42 #19
amd sarebbe meglio che facesse delle parti funzionanti prima di fare annunci che vengono puntulamente copiati da intel che ha piu soldi per realizzarli e in meno tempo...2012 bha.
frankie08 Febbraio 2010, 22:21 #20
L'obiettivo ultimo è mettere un opteron in un die di un chip 5xxx ottimizzato per GPU e non viceversa. Però ora bisogna andare per passi e quindi si parte con una sorta di video integrato negli opteron.
E' ok perchè spesso ciò che occupa la cpu al 50%, occupa il video integrato per meno della metà (DXVA) o comunque in una proporzione simile e con un efficienza sicuramente maggiore.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^