CPU Opteron con architettura ARM a 64bit dal prossimo anno

CPU Opteron con architettura ARM a 64bit dal prossimo anno

AMD anticipa alcune delle caratteristiche tecniche alla base della futura famiglia di processori Opteron dotati di architettura ARMv8, sviluppati pensando alle esigenze di consumo e densità di elaborazione propri dei sistemi microserver

di pubblicata il , alle 09:31 nel canale Private Cloud
AMDARM
 
21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
dobermann7714 Dicembre 2013, 14:48 #11
Fatemi capire,

AMD una volta produceva CPU,
ora progetta CPU,
il futuro è rivendere CPU?
Tedturb014 Dicembre 2013, 17:24 #12
Originariamente inviato da: s0nnyd3marco
Anche nvidia ha sia la licenza arm che la tecnologia per le gpu, e purtroppo nel mobile non ha raccolto molto. Vedremo se amd avra' fortuna in questo settore cosi competitivo.


Il problema di nVidia e' che si trova a competere con aziende con molta piu esperienza e know-how sui core ARM. E core ottimizzati, nel mobile, fanno la differenza.

AMD lavora per i server, quindi suppongo che un Chip con core A5x, anche se non ottimizzato troppo per i consumi, consumerebbe comunque molto meno dei rispettivi cugini x86, giusto?
lookgl14 Dicembre 2013, 18:02 #13

@ Tedturb0

Si tecnicamente un opteron ARM serve a realizzare server a bassissimo consumo tipo per il cloud. In realtà i core arm sono molto vantaggiosi perché non si portano dietro una grande serie di istruzioni che in tali ambiti sarebbe totalmente inutile. C'è anche da dire che se andiamo a fare un confronto perfomance/watt non è che arm ne esca così vincente. Avere core arm significa usare prodotti a basso costo e che producono pochissimo calore, un rasperry single core che lavora tra 700mhz ed 1 ghz non monta alcun dissipatore, cosa che per gli x86 equivalenti non si è mai vista.
dexarti14 Dicembre 2013, 21:04 #14
AMD ha fatto una scelta che la porterà ad avere una base unica con più varianti x86 , ARM , GPU.
si potrebbe arrivare a integrare tutti e tre sullo stesso chip in modo da soddisfare diverse necessita.
ARM bassi consumi
X86 compatibilità con il software
GPU per i calcoli paralleli
in modo da soddisfare il mercato in tutte le sue varianti
coschizza14 Dicembre 2013, 23:03 #15
Originariamente inviato da: gefri
potrebbero avere potenzialità nel rendering?


la cosa che meno si addice all'architetture e all'isa arm è proprio il rendering o in generale l'utilizzo di istruzioni vettoriali ad alte prestazioni. Quindi no il rendering è l'ultimo utilizzo per qel tipo di processore.
coschizza14 Dicembre 2013, 23:07 #16
Originariamente inviato da: lookgl
un rasperry single core che lavora tra 700mhz ed 1 ghz non monta alcun dissipatore, cosa che per gli x86 equivalenti non si è mai vista.


la cpu di un rasperry è talmente lenta che qualsiasi cpu x86 di pari performance o anceh molto superiore non ha bisogno disipatore. Ti ricordo che la cpu è equivalente a un Pentium II a 300MHz quindi anche una xpu x86 10x piu veloce puo funzionare senza dissipatore a quel regime di performance.
s0nnyd3marco15 Dicembre 2013, 09:46 #17
Originariamente inviato da: dexarti
AMD ha fatto una scelta che la porterà ad avere una base unica con più varianti x86 , ARM , GPU.
si potrebbe arrivare a integrare tutti e tre sullo stesso chip in modo da soddisfare diverse necessita.
ARM bassi consumi
X86 compatibilità con il software
GPU per i calcoli paralleli
in modo da soddisfare il mercato in tutte le sue varianti


Mica banale integrare architetture differenti sullo stesso core, specialmente quando sono cosi radicalmente differenti.
LMCH16 Dicembre 2013, 02:02 #18
Originariamente inviato da: PaulGuru
ARM come IPC è nettamente inferiore ad X86, la mossa è stata fatta sicuramente per migliorare il rapporto performance / watt.
Ed è una sonora sconfitta per AMD


L'IPC dipende principalmente dall' implementazione del core, non dal set d'istruzioni, ne dall'architettura logica visibile al programmatore.
Paradossalmente, per quel che riguarda il set d'istruzioni, gli ARM si presterebbero a soluzioni con un IPC più elevato di quello ottenibile con gli x86.

Quindi al massimo puoi dire "per ora le implementazioniARM come IPC sono inferiori a quelle X86".

Per ottenere un IPC più elevato Intel ha di fatto esaurito tutti i metodi disponibili (per questo ora puntano molto su nuove estensioni al set d'istruzioni).
Le architetture ARM sul mercato invece non sono così "spinte" perchè certe cose richiedono consumi più elevati o superficie del chip più ampia che non sono accettabili su SoC per smartphone e tablet.

Ovviamente se qualcuno deciderà di produrre cpu ARM con gli stessi consumi ed area su chip di cpu x86 "per desktop/server" le cose potrebbero cambiare drasticamente.
cdimauro16 Dicembre 2013, 22:04 #19
Originariamente inviato da: LMCH
L'IPC dipende principalmente dall' implementazione del core, non dal set d'istruzioni, ne dall'architettura logica visibile al programmatore.

Anche l'ISA conta, e non poco. Non foss'altro perché l'implementazione dipende, ovviamente, da essa.
Paradossalmente, per quel che riguarda il set d'istruzioni, gli ARM si presterebbero a soluzioni con un IPC più elevato di quello ottenibile con gli x86.

Per quale motivo dovrebbe essere così?
Quindi al massimo puoi dire "per ora le implementazioniARM come IPC sono inferiori a quelle X86".

Questo è normale, al momento la situazione è quella e potrebbe anche cambiare in futuro, ma segnali di cambiamento non se ne vedono.
Per ottenere un IPC più elevato Intel ha di fatto esaurito tutti i metodi disponibili

E' senz'altro vero che sia difficile pensare a balzi notevoli sul fronte del calcolo "general purpose", ma come fai a escludere a priori che non possa saltare fuori qualche idea per innovare (e migliorare le prestazioni, ovviamente) qualche particolare aspetto dell'implementazione dell'ISA? Le innovazioni non sono certo mancate finora...
(per questo ora puntano molto su nuove estensioni al set d'istruzioni).

Veramente lo fa da più di 20 anni ormai, e per ottime ragioni: mentre è difficile spingere le prestazioni single-thread per il codice general purpose, per quello parallelo una soluzione economica a livello implementativo, e che si presta a essere molto scalabile, è l'approccio SIMD.

Per questo sono nate tante estensioni, e altre ancora arriveranno, con contributi che non sono legati soltanto all'aumento della dimensione dei registri o all'aggiunta di nuove istruzioni.

In quest'ambito i RISC hanno parecchi problemi dovuti all'opcode di dimensione fissa (32 bit, in genere), per cui sono costretti a limitare l'instruction set e alle funzionalità impacchettate nelle istruzioni.

Al contrario i CISC, potendo contare su istruzioni di lunghezza variabile, possono mettere a disposizione funzionalità più interessanti / ricche, che ovviamente incidono positivamente sulle prestazioni.
Le architetture ARM sul mercato invece non sono così "spinte" perchè certe cose richiedono consumi più elevati o superficie del chip più ampia che non sono accettabili su SoC per smartphone e tablet.

E' anche vero che i processi produttivi sempre migliori hanno consentito di impaccare molti più transistor a parità di superficie, riducendo anche i consumi. L'A7 di Apple conta 1 miliardo di transistor (anche se bisogna tenere presente pure la GPU), e ha "appena" due core.

Con numeri così elevati in gioco anche la "x86 tax" non ha più un peso così rilevante nel computo della dimensione del die e nei consumi.

Senza dimenticare che pure ARM si porta dietro la sua "tax", che consiste nelle diverse ISA che deve supportare, non ultima quella a 64-bit che presenta un'opcode table e una struttura delle istruzioni molto diversa da quella tradizionale. Anche questo ha un costo; non elevato come nel caso di Intel, ma che incide sia nel numero di transistor che nell'implementazione della pipeline.
Ovviamente se qualcuno deciderà di produrre cpu ARM con gli stessi consumi ed area su chip di cpu x86 "per desktop/server" le cose potrebbero cambiare drasticamente.

Bisogna vedere gli obiettivi che ci pone. Consumi e/o area del chip non sono gli unici parametri importanti per misurare la "bontà" di un'architettura.
LMCH17 Dicembre 2013, 01:16 #20
Originariamente inviato da: cdimauro
Anche l'ISA conta, e non poco. Non foss'altro perché l'implementazione dipende, ovviamente, da essa.


Ed infatti l'ISA x86 fa decisamente pena sotto tale aspetto, servono decoder molto più complicati che creano colli di bottiglia sia sulle unita di esecuzione a valle che sulla frequenza di clock massima.

Invece l'ISA ARM è molto più pulita, al punto che quando hanno introdotto le estensioni THUMB (che dimezzano la lunghezza media delle istruzioni) il "decoder THUMB" è in pratica uno stadio in più a "mappatura fissa" (senza stati interni) sul decoder istruzioni di ARM32.

Inoltre la differenza di prestazioni "tra istruzioni a lunghezza fissa" ed "istruzioni a lunghezza variabile" dipende anche dalla semantica delle singole istruzioni e dalla presenza o meno della cache istruzioni.

Ad esempio sugli ARM fu introdotta l'estensione THUMB per avere codice con compattezza comparabile a quella di cpu ad 8bit, poter fare a meno di una cache istruzioni (o usare cache istruzioni più piccole) ed avere buone prestazioni anche con bus verso la i-cache a 16bit.
Ma per roba ad alte prestazioni basta avere un i-cache più grande e gran parte della differenza tra istruzioni di lunghezza fissa e variabili viene meno.

E' inoltre da notare che il set d'istruzioni A64 a 64bit dei nuovi ARMv8 ha parecchie differenze rispetto al "vecchio" A32 proprio per scalare bene in prestazioni in un contesto "a 64bit" (bus dati almeno a 64bit, processi produttivi che permettono di avere minimo una certà densità, ecc. ecc.).
Guardacaso alcune feature di A64 ricordano le "vecchie" cpu Alpha
(il primo microprocessore a 64bit e per anni campione assoluto in termini
di prestazioni per singolo core, se ricordo bene, due anni dopo che smisero di svilupparne
versioni più evolute e con processo produttivo più arretrato
superava ancora in prestazioni su interi e float sia gli x86 che gli Itanium).

Originariamente inviato da: cdimauro

Con numeri così elevati in gioco anche la "x86 tax" non ha più un peso così rilevante nel computo della dimensione del die e nei consumi.


E' rilevante se va a creare un collo di bottiglia sui decoder istruzioni rispetto agli ARM.

Originariamente inviato da: cdimauro
Senza dimenticare che pure ARM si porta dietro la sua "tax", che consiste nelle diverse ISA che deve supportare, non ultima quella a 64-bit che presenta un'opcode table e una struttura delle istruzioni molto diversa da quella tradizionale. Anche questo ha un costo; non elevato come nel caso di Intel, ma che incide sia nel numero di transistor che nell'implementazione della pipeline.


La differenza è che i vari set d'istruzione ARM sono ad alta simmetria (con molte meno eccezioni nella decodifica) con la possibilità di passare da un istruzione THUMB ad ARM32 con una "espansione fissa" senza stati interni aggiuntivi e con previsto sin dal principio un meccanismo di espansione del set d'istruzioni (usando gli opcode per i coprocessori) che permettono di avere decoder molto semplici che possono operare in parallelo e che rendo più semplice commutare da uno all'altro.
Fa una differenza notevole.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^