Per il 2020 il 20% dei server sarà basato su architetture ARM

Per il 2020 il 20% dei server sarà basato su architetture ARM

L'azienda inglese si dimostra molto ottimista sul sucesso di mercato delle proprie architetture a basso consumo anche nel settore dei server. Varie soluzioni di questo tipo sono già disponibili ma sarà solo nei prossimi anni che i microserver basati su architettura ARM conosceranno una elevata diffusione

di pubblicata il , alle 11:01 nel canale Private Cloud
ARM
 
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH23 Aprile 2015, 18:06 #11
Originariamente inviato da: pabloski
E dipende molto dall'architettura anche. Si può fare un esempio banalissimo, ovvero un confronto tra un'architettura superscalare e una che invece non lo è.


Sono cose che dipendono dall'architettura dell'implementazione, non dall'architettura "ad alto livello" in se.

Esistono sia ARM che x86 non superscalari e superscalari, ma poi anche in una stessa tipologia vi sono scelte e limitazioni progettuali differenti che influiscono sul risultato finale.
pabloski23 Aprile 2015, 20:06 #12
Originariamente inviato da: LMCH
Sono cose che dipendono dall'architettura dell'implementazione, non dall'architettura "ad alto livello" in se.


Beh no, l'architettura c'entra eccome. Esempio banale: un tipo crea una rete logica non minimizzata. Stessa funzionalità di una rete minimizzata, ma molti più transistor e quindi maggiori consumi. E' un esempio stupido, ma aiuta a capire il concetto.

Originariamente inviato da: LMCH
ma poi anche in una stessa tipologia vi sono scelte e limitazioni progettuali differenti che influiscono sul risultato finale.


Ovviamente. Le scelte possibili sono talmente tante e non esistono scelte migliori in assoluto. ARM ha basato i suoi core sul concetto di SoC customizzabile, intendendo che ogni cliente voleva/poteva/doveva aggiungerci ulteriori unità, coprocessori, dsp, ecc....

x86 invece nasce per il general purpose, in un'epoca in cui pure la grafica la faceva la cpu. Oggi si sta reimponendo il paradigma che fece grande l'Amiga ( e non solo ).
LMCH24 Aprile 2015, 03:02 #13
Originariamente inviato da: pabloski
Beh no, l'architettura c'entra eccome. Esempio banale: un tipo crea una rete logica non minimizzata. Stessa funzionalità di una rete minimizzata, ma molti più transistor e quindi maggiori consumi. E' un esempio stupido, ma aiuta a capire il concetto.


Ma si tratta di efficienza di specifiche implementazioni, non dell'architettura ad alto livello.
Se implementi AArch64 puoi farlo con microcodice, con singola pipeline scalare, superscalare, multithreading, ecc. implementare il renaming dei registri, dimensionare/partizionare in vario modo le cache ed i bus di connessione tra cpu, cache ed altri moduli, ecc.
E siamo ancora a livello relativamente alto, prima ancora di fare ottimizzazioni all'implementazione della rete logica (non solo minimizzandola ma valutando se vale la pena un implementazione pienamente statica o una dinamica in base alle esigenze) ed alla circuiteria di contorno (distribuzione del clock, alimentazione, massa, schermature varie, circuiti di controllo energetico, ecc.), poi in base al processo produttivo si possono ulteriormente ottimizzare le maschere fotolitografiche andando a fare ritocchi sulle linee di collegamento e sul dimensionamento dei singoli gate, ecc.

Anche con un reference design bello e pronto poi si possono fare ottimizzazioni alle maschere o decidere di usarle tali e quali e magari pure ridurre le prestazioni per non usare un processo produttivo più recente (in modo da ammortizzare più a lungo termine i mezzi di produzione di cui già si dispone).

Per questo sino ad ora non si è ancora visto cosa può fare davvero un ARM "progettato per la massima potenza di calcolo".
Pure i nuovi core A72 sono ancora pensati per dispositivi mobilie non per server.
cdimauro24 Aprile 2015, 07:01 #14
Apple col suo A8, nVidia con Project Denver e Qualcomm col suo Krait mi sembra che abbiano tirato fuori delle microarchitetture ARM (non nVidia, ma non voglio dilungarmi adesso perché devo correre a lavoro) votate alle prestazioni. Mi riferisco a livello di singolo core/processo/thread. In particolare l'A8 è un autentico mostro, capace di decodificare ed eseguire ben 6 istruzioni OoO per ciclo di clock.

E' difficile pensare di continuare sulla stessa strada, perché gestire tutta quella roba complica notevolmente l'implementazione. In futuro mi aspetto che puntino di più su altri aspetti (aumento delle cache a tutti i livelli, TLB, branch predictor, code, etc.).

L'architettura è ANCHE importante, perché può consentire di eseguire più "lavoro utile". L'esempio degli Atom penso sia eloquente: processo produttivo molto vecchio (mi riferisco ai primi, che erano a 32nm) e architettura in-order (2 istruzioni), ma c'è voluto il Cortex-A15 con architettura e ben 3 istruzioni per metterlo in difficoltà (ma al costo di consumi di gran lunga più elevati rispetto alle precedenti micro-architetture).

Finché si tratta di roba embedded, posso capire che ARM abbia sicuramente dei vantaggi in quanto l'architettura è certamente più semplice di quella x86 (la cui "tax" è rappresentata sostanzialmente dal decoder; l'FPU x87 ha un peso molto inferiore), ma appena si comincia a pompare mettendo cache generose, TLB, predictor, ecc., il numero di transistor esplode e gli aspetti legacy diventano trascurabili.

Un esempio di ciò è la micro-architettura di Sophia, che può competere anche con le soluzioni low-end del mondo ARM. Un altro è rappresentato da Galileo.

Il vantaggio di Intel non è dunque, soltanto dovuto al miglior processo produttivo che ha a disposizione per i suoi chip.

@GTMK: il problema di quando si parla di "prestazioni" è che difficile mettere a confronto due architetture molto diverse. E' difficile persino con micro-architetture della stessa famiglia. In genere è meglio fissare dei paletti, con un bouquet di test specifici per l'ambito applicativo in cui un certo prodotto verrà utilizzato. Esempio: per la TOP 500 dei supercomputer si usa LINPACK.
GTKM24 Aprile 2015, 08:29 #15
Originariamente inviato da: cdimauro
...

@GTMK: il problema di quando si parla di "prestazioni" è che difficile
mettere a confronto due architetture molto diverse. E' difficile persino
con micro-architetture della stessa famiglia. In genere è meglio
fissare dei paletti, con un bouquet di test specifici per l'ambito
applicativo in cui un certo prodotto verrà utilizzato. Esempio: per la
TOP 500 dei supercomputer si usa LINPACK.


Lo so, per questo ho chiesto: visto che da mesi continuo a leggere "ARM ha consumi inferiori", volevo capire se fossero affermazioni, quanto meno, basate su delle fonti.
AceGranger24 Aprile 2015, 09:54 #16
Originariamente inviato da: LMCH
Solo che non si sta scontrando con ARM Ltd (l'azienda) ma con tutti i produttori di chip basati su ARM e le relative produzioni specializzate in nicchie e settori differenti.
In alcuni casi si tratta pure di produttori che poi usano gli stessi chip in prodotti loro (Samsung, Hauwei, ecc.).
E' uno scenario ben diverso da quelli in cui si è trovata Intel in precedenza.


si ma qui non si tratta nemmeno solo di chip e singoli produttori, si tratta si sistemi server completi e finiti, e attualmente intel con IBM Lenovo HP etc. etc. è di gram lunga piu avanti rispetto ai concorrenti; tantè che sono un paio di anni che si parla di ARM Server e anopra stentano a vedersi.

al dila del pp basta guardare il salto enorme fatto dalla vecchia alla nuova architettura Atom; Intel si è gia fatta fregare una volta nel mercato Mobile, nel mercato server, dove ha anche molta piu esperienza, non si fara sormontare e i tentativi di acquisizione ne sono la prova.
LMCH24 Aprile 2015, 17:37 #17
Originariamente inviato da: AceGranger

al dila del pp basta guardare il salto enorme fatto dalla vecchia alla nuova architettura Atom; Intel si è gia fatta fregare una volta nel mercato Mobile, nel mercato server, dove ha anche molta piu esperienza, non si fara sormontare e i tentativi di acquisizione ne sono la prova.


Intel è molto più legnosa di quanto sembri, basta pensare alle batoste che ha preso ogni volta che ha cercato di sganciarsi dagli x86 (iapx32, il RISC i860, Itanium) ed ora ha puntato in modo altrettanto ottuso sulla strategia opposta "solo x86".

Se gli ARM cominceranno a far breccia nel mercato dei server, Intel avrà difficoltà a reagire con sufficiente velocità su più fronti (perche anche li come nel settore telefonia e tablet l'attacco arriverà non coordinato su più fronti).
cdimauro24 Aprile 2015, 19:24 #18
Originariamente inviato da: GTKM
Lo so, per questo ho chiesto: visto che da mesi continuo a leggere "ARM ha consumi inferiori", volevo capire se fossero affermazioni, quanto meno, basate su delle fonti.

Idem. Alla fine ciò che succede è continuare, dopo tantissimi anni, ad associare x86 = 8086 = schifezza, senza contestualizzare né riportare fatti a supporto di queste tesi.

P.S. Scusami se ho scritto male il tuo nick, ma non sono ferrato nello ricordare i nomi.
Originariamente inviato da: LMCH
Intel è molto più legnosa di quanto sembri, basta pensare alle batoste che ha preso ogni volta che ha cercato di sganciarsi dagli x86 (iapx32, il RISC i860, Itanium)

Vabbé, tiri fuori l'iAPX 432 che non è mai stato nemmeno lontanamente pensato per soppiantare 8086 & compagnia, mentre l'80860 era un RISC destinato a esplorare nuovi mercati.

L'unico reale successore di x86 sarebbe dovuto essere Itanium, e sappiamo come sia finita.
ed ora ha puntato in modo altrettanto ottuso sulla strategia opposta "solo x86".

Liberandosi anche della divisione ARM. Questo, IMO, bisognerebbe far riflettere.
Se gli ARM cominceranno a far breccia nel mercato dei server, Intel avrà difficoltà a reagire con sufficiente velocità su più fronti (perche anche li come nel settore telefonia e tablet l'attacco arriverà non coordinato su più fronti).

Intanto bisogna vedere se ed eventualmente come ARM farà breccia nel mercato dei server. Il primo reale concorrente, l'X-Gene di APM, non mi sembra che abbia mostrato un quadro diverso (basti vedere il confronto con l'Avoton).

Poi proprio nel mercato server Intel è in continua espansione e sforna nuovi processori che presentano elevate prestazioni unite a consumi contenuti. Per cui non vedo perché non dovrebbe reagire, e pure velocemente.
GTKM24 Aprile 2015, 19:39 #19
Originariamente inviato da: cdimauro
Idem. Alla fine ciò che succede è continuare, dopo tantissimi anni, ad associare x86 = 8086 = schifezza, senza contestualizzare né riportare fatti a supporto di queste tesi.

P.S. Scusami se ho scritto male il tuo nick, ma non sono ferrato nello ricordare i nomi.

Immaginavo.
Comunque, vedremo cosa accadrà in futuro, ma, stando ai dati attuali, non mi sembra che Intel debba temere qualcuno nel settore server.

P.S. Tranquillo, è un nick "demmerda", ma ormai...
Pier220424 Aprile 2015, 19:41 #20
E' interessante osservare come l'architettura ARM pensata per utilizzi specifici a basso consumo tenti di entrare nel mondo Server di dominio x86... qualcuno ipotizza anche nei PC, per contro invece Intel con i suoi x86 pensati per tutt'altro scopo, cerchi di entrare nel settore mobile...

Invasioni di campo reciproci

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^