Intel

Knights Landing è la futura GPU Intel per il calcolo parallelo

di pubblicata il , alle 16:03 nel canale Private Cloud Knights Landing è la futura GPU Intel per il calcolo parallelo

Anticipate alcune delle caratteristiche tecniche delle soluzioni Xeon Phi della famiglia Knights Landing: oltre 60 core della famiglia Silvermont, la nuova interconnessione Omni Scale Fabric e memorie on package

 
70 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Ares1701 Luglio 2014, 12:01 #41
Originariamente inviato da: cdimauro
cut...

Parlo da profano, ma mi chiedevo:
Intel con quest'architettura cerca di elevare la capacità computazionale sia lato fpu che unità vettoriali creando difatti una cpu strana che funziona ne più ne meno come uno xeon classico, ma super ottimizzata solo per alcuni tipi di calcolo.
Gia mi vedo rack con 4 slot occupati da 2+2 o addirittura 1+3 (xeon-phi)

Lo stesso tentativo lo trovo in amd ma fatto in modo diverso (cmd-apu).

Credo che l'approccio Amd sia più dispendioso in fase di realizzazione-studio, mentre quello intel più dispendioso in termini di costo hardaware.

Credi che AMD possa sostituire in toto le unità fpu dei suoi core (cmd) con la parte apu?
Oppure questa strada è senza uscita.
Solo la tua opinione personale.
CrapaDiLegno01 Luglio 2014, 18:28 #42
Va be', per risponderti ruberò un po' di tempo al mio datore di lavoro, io che disprezzo i dipendenti ma dipendente sono.

Non c'è molto da dire se nonché non riusciamo a sintonizzarci sulla stessa frequenza comunicativa. Ti sei appigliato come un polipo a una definizione infelice "sull'unita scalare" dell'archiettura CPU+GPU che per me è la CPU, quella che sta fuori dal die della GPU, quella che esegue le istruzioni in maniera sequenziale (appunto scalare), non le unità interne agli SMM.
Prendi tutto il mio commento precedente e sostituisci le parole "unità scalare" riferita all'architettura GPU+CPU con il "core delle CPU a cui la GPU è collegata tramite bus PCI-e" e vedi se ti torna tutto il ragionamento. Così come per me l'unità scalare (o CPU) all'interno di KC/KL è la parte che esegue codice x86 collegata alla unità vettoriale.

Infine per la questione del confronto con i prodotti vecchi della concorrenza, lo hai fatto perché considerando Maxwell hai bellamente "dimenticato" che Maxwell verrà con core ARM all'interno dello stesso die del cluster di unità di calcolo vettoriale e ne potrà condividere le risorse senza passare dal suddetto bus stretto, quando prima (cioè con Kepler) ogni gestione di un flusso di istruzioni sequanziali è un problema da esegire su GPU ed eseguire un branch del codice comporta una penalità non indifferente. Con un core in grado di eseguire codice sequenziale a fianco del cluster vettoriale usato come "semplice coprocessore" i giochi potrebbero cambiare.
Anche nvidia può costruire una unità di calcolo indipendente come lo sarà KL perché al suo interno ci sono delle CPU in grado di far girare il normale flusso di codice "seriale" e delegare i calcoli vettoriali agli SMM il tutto condividendo la memoria.
Tu invece continui a sostenere che questa è una prerogativa di KL che si permette di poter condividere le risorse tra il core "scalare" (il pezzo che decodifica ed esegue istruzioni x86 per internderci, che altrimenti parti ancora per la tangente) e l'unità AVX.

Come è fatta una GPU lo so bene. Se ti fossi fermato a cercare di capire i termini che ho usato (magari non propriamente, per la cui cosa mi scuso) non saresti partito per una filippica intorno alla definizione ma ti saresti concentrato di più a discutere sul merito delle cose.
Comprenderai che le due architetture hanno approcci tremendamente differenti e che le GPU scalano meglio in termini di quantità di unità di calcolo integrabili. Il 3x, 4x del GK107 è estratto dalle prove eseguite da Anantech della 750Ti. Vedi come si comporta rispetto al GK104.
Per la questione KL andrà meglio perché usa core Saltwell invece che i vecchi Pentium è tutta da dimostrare. Come detto la potenza di calcolo la fa l'unità vettoriale, non quella scalare.

E no, non ho adorazione per nvidia o ARM. La prima è l'unica per ora sta cercando di innovare il mercato usando tecnologia fino a ieri "aliena" all'uso che oggi si sta tentando di fare. Ma se ci fosse anche AMD con le sue GPU sarebbe la stessa cosa, dato che architetturalmente sono molto simili. AMD è già più avanti di nvidia con le sue APU, soluzione simile che nvidia realizzerà con project Denver (cioè avere finalmente una CPU che collabora con il cluster vettoriale localmente e non diviso da un bus strettissimo, che è il cancello che Intel si è costruita per le sue CPU se non era chiaro prima). Il problema di AMD è che nel campo professionale e come supporto allo sviluppo SW vale zero, tant'è che è un peccato che le sue GPU come Tahiti o Hawaii stiano solo nelle schede consumer (il numero delle FirePro che vende sono risibili e non stanno all'interno di nessun super computer).

ARM semplicemente ha dimostrato in diversi anni di non aver sbagliato un colpo e si ritrova con una archiettura molto più efficiente di quel mattone di x86 che ha fermato il progresso tecnologico per anni. Sarei contento (anzi stra contento) che assieme a ARM ci fosse anche MIPS o qualsiasi altra cosa che dimostra (se ce ne fosse ancora bisogno) che l'approccio monolitico di Intel del mega super huber core general purpose che vuole fare tutto da solo non è stata la soluzione migliore e che molto si sarebbe già potuto fare se il monopolio non avesse fatto la sua parte.
Apprezzo ARM (come sarebbe potuto essere il PowerPC, MIPS, Spark, cippalippa) perché oggi finalmente si vede la luce al fondo del tunnel Wintel che ci siamo dovuto sorbire per quasi 30 anni.
Se vuoi ti chiarisco meglio la cosa, così mi sarai più amico di prima: Intel con il suo approccio general purpose spreca transistor/energia ma con PP più avanzato ha rotto le palle. Il progresso si fa in altro modo. E oggi si vede la possibilità di realizzarlo da parte di altri che le stanno erodendo piano piano il mercato.

Riguardo al RoadRunner non hai capito una cosa: tutto il mostro consumava 1/3 di un equivalente PC basato esclusivamente su x86. La parte x86 nel RoadRunner, oltre che essere molto più inefficiente di quella di Intel (gli Opteron di AMD non sono certo famosi per la loro efficienza energetica rispetto agli Xeon Intel) è usata solo per la gestione e la connessione con il resto del sistema e non partecipa alla generazione della potenza di calcolo. Fai tu una estrapolazione per vedere quanto era efficiente la soluzione IBM rispetto a quella Intel al netto dell'energia parassita degli Opteron.

Per quanto riguarda il fatto che il 14nm siano in tabella di marcia... suvvia, chi stai prendendo in giro? I 14nm dovevano essere pronti l'anno scorso e costare 6 miliardi in meno.
Oltrettutto avrebbero dovuto coprire una produzione maggiore vista la nuova fabbrica ora designata come in disuso ancora prima di essere partita. Nel secondo semestre del 2015 i 16nm Finfet dovrebbero essere pronti (si spera).
Se non vuoi credere che nvidia farà un chip Maxwell da 12/14 miliardi di transistor a 28nm, non c'è altro che pensare che la mattonella Maxwell la vedremo a 16nm.
Ma la questione è un'altra e lo stai chiaramente sottolineando: Intel campa ancora perché ha un processo produttivo migliore della concorrenza, non perché sforni dei prodotti che siano migliori nella parte funzionale. E la sua fortuna continuerà fintanto che questo processo produttivo rimarrà avanti agli altri. Cosa che, vista le vicessitudini dei 14nm e i proventi che la concorrenza sta avendo dalla produzione di miliardi di SoC mobile, non è destinata a durare a lungo.

Ora devo veramente smettere o mi licenziano. Beato te che hai un'azienda multimega miliardaria alle spalle che ti permette di avere tutto questo tempo a disposizione.
AceGranger01 Luglio 2014, 20:11 #43
Originariamente inviato da: CrapaDiLegno
Per la questione KL andrà meglio perché usa core Saltwell invece che i vecchi Pentium è tutta da dimostrare. Come detto la potenza di calcolo la fa l'unità vettoriale, non quella scalare.


guarda che Saltwell è il die hrink a 32nm di Bonnell, ovvero l'architettura dei vecchi Atom... KL si basera su Silvermont, l'archittura dei nuovi Atom che è come passare dal giorno alla notte e basta prendere in mano uno dei bench dell'Atom Z3770 per capire il salto mostruoso che ha fatto l'architettura Atom fra la vecchia e l'attuale.

Originariamente inviato da: CrapaDiLegno
Per quanto riguarda il fatto che il 14nm siano in tabella di marcia... suvvia, chi stai prendendo in giro? I 14nm dovevano essere pronti l'anno scorso e costare 6 miliardi in meno.
Oltrettutto avrebbero dovuto coprire una produzione maggiore vista la nuova fabbrica ora designata come in disuso ancora prima di essere partita.


questa è una stupidata; i 14 nm erano previsti da tabella di marcia nel 2014, a fine H1, esattamente in questi mesi al posto di Devil's Canyon e le altre Heswell Refresh.

in un'intervista di luglio a Brian Krzanich ha esplicitamente detto che le prime CPU Broadwell debutteranno a fine di quest'anno, e il resto nei primi mesi del 2015; quindi il ritardo è di circa 6 mesi.

Maxwell doveva essere gia fuori anche lui e da parecchi mesi, e invece non si è ancora visto ( la 750 non conta nulla ) ed è stato pure depotenziato...

Originariamente inviato da: CrapaDiLegno
Nel secondo semestre del 2015 i 16nm Finfet dovrebbero essere pronti (si spera).


non sappiamo quando arriveranno le GPU a 20 nm, figuriamoci i 16nm; probabilmente li vedremo nel 2016 con Pascal.
CrapaDiLegno02 Luglio 2014, 13:31 #44
Originariamente inviato da: AceGranger
guarda che Saltwell è il die hrink a 32nm di Bonnell, ovvero l'architettura dei vecchi Atom... KL si basera su Silvermont, l'archittura dei nuovi Atom che è come passare dal giorno alla notte e basta prendere in mano uno dei bench dell'Atom Z3770 per capire il salto mostruoso che ha fatto l'architettura Atom fra la vecchia e l'attuale.

Sì, scusa ieri ero in super ritardo e mi sono accorto dopo di aver scritto il nome dell'architettura Intel sbagliata. Anche CdMauro lo aveva scritto precedentemente. A scrivere in tempi ristretti non si riesce mai ad essere precisi.
Ciò non toglie che per il calcolo vettoriale cosa ci sia montato a monte/valle/fianco dell'unità AVX conti poco. Che migliori tutta un'altra serie di cose (come la gestione dell'eventuale OS sulla scheda stessa) non ci sono dubbi. Ma sopratutto a parità di prestazioni la nuova archiettura consumerà decisamente meno, che vuol dire che i W risparmiati possono essere spesi per migliorare le capacità dell'unità di calcolo vettoriale.

Originariamente inviato da: AceGranger
questa è una stupidata; i 14 nm erano previsti da tabella di marcia nel 2014, a fine H1, esattamente in questi mesi al posto di Devil's Canyon e le altre Heswell Refresh.

in un'intervista di luglio a Brian Krzanich ha esplicitamente detto che le prime CPU Broadwell debutteranno a fine di quest'anno, e il resto nei primi mesi del 2015; quindi il ritardo è di circa 6 mesi.

http://www.hwupgrade.it/news/cpu/ro...ieme_53023.html

e su un altro sito il recensore scrive:
"Questa sovrapposizione è frutto del ritardo della gamma Broadwell, che sarebbe già dovuta essere sul mercato, lasciando a Skylake il 2015.".

Non è che le dichiarazioni dell'ultimo momento di un dirigente Intel per raddrizzare il tiro sui ritardi accumulati facciano testo.

Inoltre ti invito a fare questa semplice ricerca in google "14nm roadmap". Troverai slide dove si vede che i 14nm sarebbero dovuto essere pronti nel 2013. Una ricerca con "14nm delay" porta a questo recente articolo: http://www.extremetech.com/computin...or-the-holidays.
Dichiarazione evidentemente falsa se la roadmap precedente è vera.
Puoi trovarne decine di questi articoli sul ritardo dei 14nm vecchi anche di diversi mesi comunque.

Infine la nuova roadmap indica i nuovi processori a 14nm per il secondo semestre 2015, quindi altro che 6 mesi di ritardo. La sovrapposizione tra Broadwell e Skylake indica chiaramente che alla fine si arriverà ad almeno 1 anno di ritardo.

Originariamente inviato da: AceGranger
Maxwell doveva essere gia fuori anche lui e da parecchi mesi, e invece non si è ancora visto ( la 750 non conta nulla ) ed è stato pure depotenziato...
non sappiamo quando arriveranno le GPU a 20 nm, figuriamoci i 16nm; probabilmente li vedremo nel 2016 con Pascal.

Eh, purtroppo nvidia e AMD non hanno il controllo sul processo produttivo realizzato dagli altri, per cui si prendono quello che è disponibile. Facendo conto che TSMC ha pure deciso che i 20nm non saranno per architetture ad alto consumo ma solo per SoC direi che per vedere una nuova GPU mattonella si dovrà aspettare i 16nm (che TMSC ha dichiarato essere disponibili 12 mesi dopo i 20nm).
Quindi non ci saranno (almeno di rivoluzioni del PP) GPU a 20nm.
Se i 14nm fossero già stati pronti il problema per nvidia e le sue GPU per server HPC sarebbe stato evidente. Con il ritardo dei 14nm di Intel e l'obbligo per nvidia di aspettare i 16nm di TMSC, la differenza di tempi non sarà più così marcata (e forse potrebbe anche arrivare prima TSMC) e il salto prestazionale rispetto ai 28nm con cui oggi realizza Kepler dovrebbe essere enorme.
Da qui, ribadisco, che i numeri di KL non sono per nulla miravigliosi rispetto alle potenzialità che ha la concorrenza, il cui unico problema è da sempre il PP rispetto ad Intel (che novità delle novità, comincia ad avere problemi pure lei).
AceGranger02 Luglio 2014, 14:48 #45
Originariamente inviato da: CrapaDiLegno

http://www.hwupgrade.it/news/cpu/ro...ieme_53023.html

e su un altro sito il recensore scrive:
"Questa sovrapposizione è frutto del ritardo della gamma Broadwell, che sarebbe già dovuta essere sul mercato, lasciando a Skylake il 2015.".

Non è che le dichiarazioni dell'ultimo momento di un dirigente Intel per raddrizzare il tiro sui ritardi accumulati facciano testo.

Inoltre ti invito a fare questa semplice ricerca in google "14nm roadmap". Troverai slide dove si vede che i 14nm sarebbero dovuto essere pronti nel 2013. Una ricerca con "14nm delay" porta a questo recente articolo: http://www.extremetech.com/computin...or-the-holidays.
Dichiarazione evidentemente falsa se la roadmap precedente è vera.
Puoi trovarne decine di questi articoli sul ritardo dei 14nm vecchi anche di diversi mesi comunque.

Infine la nuova roadmap indica i nuovi processori a 14nm per il secondo semestre 2015, quindi altro che 6 mesi di ritardo. La sovrapposizione tra Broadwell e Skylake indica chiaramente che alla fine si arriverà ad almeno 1 anno di ritardo.


Broadwell è SEMPRE stato atteso per il 2014, non nel 2013, visto che è stato il lancio di Haswell.

la roadmap di oggi e l'altro articolo possono essere entrambi validi perchè anche Brian Krzanich aveva accennato a qualche CPU Broadwell non a tutta la linea.

ritardo è in ritardo, su li no nci piove, ma mi sembra messa molto megli oIntel come tempistiche/ritardi piuttosto che nVidia o AMD, visto che loro non hanno il controllo di nulla.
CrapaDiLegno02 Luglio 2014, 16:27 #46
Intel è sempre stata messa meglio per quanto riguarda le tempistiche dei suoi processi produttivi.

Però il ritardo dei 14nm, che non è una sciocchezza come quella avvenuta per i 22nm, dimostra che Intel sta rallentando là dove ha il suo punto di forza massimo.
nvidia non ha mai avuto alcun controllo del processo produttivo, e AMD non ce l'ha più da quando ha venduto le sue fabbriche (vale solo per le CPU, il reparto GPU acquistato da ATI ha sempre fatto prodotti usando processi produttivi fuori dal controllo di AMD).

Questo però non mette Intel in una posizione migliore. nvidia, AMD e tutti i produttori di SoC ARM non devono guadagnare oltre al necessario per mantenere delle fabbriche e aggiornarle ogni 2 anni almeno. Tuttavia, tutte insieme collaborano a pagare i costi di TSMC per farlo.

Non confondere la disponibilità del processo produttivo con la messa in vendita dei prodotti. I 14nm dovevano essere pronti nel 2013, produzione 1Q 2014 e vendita dei prodotti agli OEM in Q3, come sempre fatto. Oggi invece non abbiamo i 14nm pronti e la produzione non è partita, il ritardo ad oggi sarebbe di 6 mesi se la produzione cominciasse domani, ma non sembra sarà così.
Prima del ritardo dei 14nm la situazione a inizio 2014 sarebbe stata Intel a 14nm, TMSC ancora a 28nm, con una differenza sostanziale di processo produttivo a tutto vantaggio dei prodotti Intel.
Con il ritardo secondo l'ultima roadmap con prodotti in uscita il Q2 dell'anno prossimo la situazione per il mercato CPU (che conta per il mercato mobile dove Intel ha concorrenza, su desktop può tenersi ancora i 22nm per altri 2 anni senza problema) sarà: Intel 14nm, TSMC (quindi tutti i SoC ARM) 20nm.
Il che taglia di netto tutti i vantaggi che Intel ha fatto con gli Atom, dato che si scontrerà con SoC a 64 bit molto più efficienti di quanto già oggi sia l'A7 di Apple (che dà abbastanza la polvere agli Atom a 28nm).
Per il mercato extra CPU, Intel 14nm resto du mundo moolto vicino ai 16nm (che sono in realtà i 20nm Finfet). Se non già disponibili (da vedere i problemi di TMSC che ad oggi non sappiamo).
Sempre che i 16nm non vengano usati pure per fare SoC, il chè sarebbe ancora peggio per Intel.
Vedi che la situazione processi produttivi tende a schiacciare notevolmente il vantaggio che Intel è riuscita a sfruttare in tutti questi anni.
Gli strabilianti vantaggi che Intel vanta per la sua archiettura KL (o le linee Atom destinate al mobile) a 14nm si scontreranno violentemente contro i vantaggi ancora migliori che la concorrenza potrà godere (sempre che TSMC non sbarelli completamente come ha fatto Intel con il suo processo produttivo, ma pensarlo è sola speculazione o speranza che accada).
Quindi, là dove Intel non riesce oggi a superare le qualità degli altri, è difficile pensare che possa fare meglio con la prossima linea di prodotti. Sopratutto là dove non c'è alcuna rivoluzione, ma solo un raffinamento di quel che ha già proposto.

Tutto qui, non era necessario fare alcun tipo di filippica su documenti e valori spacciati per strabilianti ma che dicono nulla se non rapportati a quello che gli altri possono fare (e in questo momento i fatti dicono che possono migliorare di più di quanto potrà fare Intel).
Ares1702 Luglio 2014, 19:16 #47
Originariamente inviato da: CrapaDiLegno
Intel è sempre stata messa meglio per quanto riguarda le tempistiche dei suoi processi produttivi.

Però il ritardo dei 14nm, che non è una sciocchezza come quella avvenuta per i 22nm, dimostra che Intel sta rallentando là dove ha il suo punto di forza massimo.
nvidia non ha mai avuto alcun controllo del processo produttivo, e AMD non ce l'ha più da quando ha venduto le sue fabbriche (vale solo per le CPU, il reparto GPU acquistato da ATI ha sempre fatto prodotti usando processi produttivi fuori dal controllo di AMD).

Questo però non mette Intel in una posizione migliore. nvidia, AMD e tutti i produttori di SoC ARM non devono guadagnare oltre al necessario per mantenere delle fabbriche e aggiornarle ogni 2 anni almeno. Tuttavia, tutte insieme collaborano a pagare i costi di TSMC per farlo.

Non confondere la disponibilità del processo produttivo con la messa in vendita dei prodotti. I 14nm dovevano essere pronti nel 2013, produzione 1Q 2014 e vendita dei prodotti agli OEM in Q3, come sempre fatto. Oggi invece non abbiamo i 14nm pronti e la produzione non è partita, il ritardo ad oggi sarebbe di 6 mesi se la produzione cominciasse domani, ma non sembra sarà così.
Prima del ritardo dei 14nm la situazione a inizio 2014 sarebbe stata Intel a 14nm, TMSC ancora a 28nm, con una differenza sostanziale di processo produttivo a tutto vantaggio dei prodotti Intel.
Con il ritardo secondo l'ultima roadmap con prodotti in uscita il Q2 dell'anno prossimo la situazione per il mercato CPU (che conta per il mercato mobile dove Intel ha concorrenza, su desktop può tenersi ancora i 22nm per altri 2 anni senza problema) sarà: Intel 14nm, TSMC (quindi tutti i SoC ARM) 20nm.
Il che taglia di netto tutti i vantaggi che Intel ha fatto con gli Atom, dato che si scontrerà con SoC a 64 bit molto più efficienti di quanto già oggi sia l'A7 di Apple (che dà abbastanza la polvere agli Atom a 28nm).
Per il mercato extra CPU, Intel 14nm resto du mundo moolto vicino ai 16nm (che sono in realtà i 20nm Finfet). Se non già disponibili (da vedere i problemi di TMSC che ad oggi non sappiamo).
Sempre che i 16nm non vengano usati pure per fare SoC, il chè sarebbe ancora peggio per Intel.
Vedi che la situazione processi produttivi tende a schiacciare notevolmente il vantaggio che Intel è riuscita a sfruttare in tutti questi anni.
Gli strabilianti vantaggi che Intel vanta per la sua archiettura KL (o le linee Atom destinate al mobile) a 14nm si scontreranno violentemente contro i vantaggi ancora migliori che la concorrenza potrà godere (sempre che TSMC non sbarelli completamente come ha fatto Intel con il suo processo produttivo, ma pensarlo è sola speculazione o speranza che accada).
Quindi, là dove Intel non riesce oggi a superare le qualità degli altri, è difficile pensare che possa fare meglio con la prossima linea di prodotti. Sopratutto là dove non c'è alcuna rivoluzione, ma solo un raffinamento di quel che ha già proposto.

Tutto qui, non era necessario fare alcun tipo di filippica su documenti e valori spacciati per strabilianti ma che dicono nulla se non rapportati a quello che gli altri possono fare (e in questo momento i fatti dicono che possono migliorare di più di quanto potrà fare Intel).

La parte più importante che non hai proprio analizzato è il fatto che la maggiorparte del software ricompilato gia sfrutta queste schede (praticamente senza mettere mano al codice).
Solo questo può far risparmiare tanti $ che praticamente il costo energetico di due anni di lavoro diventerebbero gratis.
Mettici che lo stesso software praticamente sarà in grado di girare anche per 2-3 generazioni di queste schede e vedi il vantaggio reale che avrà chi adotterà tale soluzione.
CrapaDiLegno03 Luglio 2014, 15:40 #48
Originariamente inviato da: Ares17
La parte più importante che non hai proprio analizzato è il fatto che la maggiorparte del software ricompilato gia sfrutta queste schede (praticamente senza mettere mano al codice).
Solo questo può far risparmiare tanti $ che praticamente il costo energetico di due anni di lavoro diventerebbero gratis.
Mettici che lo stesso software praticamente sarà in grado di girare anche per 2-3 generazioni di queste schede e vedi il vantaggio reale che avrà chi adotterà tale soluzione.


Ni, nel senso che è vero che la programmazione per l'architettura Intel è più semplice, ma non è detto che questo ripaghi dei costi o delle prestazioni ottenibili.
Facciamo un caso, mettiamo che per ottimizzare il codice per l'architettura NVIDIA ci voglia un anno uomo (ammettendo quindi un costo e un tempo abbastanza contenuti). Se però le prestazioni su questa archiettura sono il doppio, significa avere risposte in metà tempo, o a parità di tempo di svolgono il doppio delle simulazioni o simulazioni più complete/complesse. Se poi si aggiunge che magari l'archiettura è più efficiente serve meno della metà dell'energia (a parità di risultato). Si parla di MW per i server di calcolo, che è la componente più costosa di tutto il mantenimento della struttura operativa. Usarne metà significa risparmiare molto di più di quanto costi l'ottimizzazione del codice.

Questo ovviamente è un esempio con numeri a caso, ma non fantascientifici. Puoi pensare ad una efficienza uguale ma la densità permessa dalla soluzione GPU sia maggiore (risparmio in spazio e numero di cluster da collegare alla network). Che vuol dire che a parità di densità si ottiene maggiore potenza elaborativa (con equivalemte aumento dei consumi ma una diminuzione dei tempi di risposta o come detto, stesso tempo ma simulazioni più complesse).

Io lavoro in un centro di R&D. Posso assicurarti che il costo della ricerca e sviluppo è minimo rispetto ai costi di produzione poi del prodotto e quindi spesso e volentieri la ricetta è quella di rendere più difficile la vita all'R&D per poi risparmiare qualcosa in produzione. Risparmio che sembra piccolo, ma che su grandi numeri signifca diverse centinaia di migliaia di euro che vanno molto più che a coprire il delta dei costi di uno sviluppo più complesso/meno lineare.

Se hai 10 persone che in un mese o due ti ottimizzano il codice e poi risparmi 1MW al giorno o dimezzi i tempi di simulazione puoi stare sicuro che la scelta non è avere un SW che è facile da compilare ma rende meno. Finché il costo dei centri di elaborazione è per la maggior parte quella energetica questa è la necessità. Non è un caso, per esempio, che i neo nati server ARM sono visti tutti con grande interesse proprio per il risparmio energetico che possono portare. Altrimenti, per le prestazioni che offrono rispetto ai mostri Intel/Oracle/IBM non li prenderebbe nessuno in considerazione.
Ares1703 Luglio 2014, 15:55 #49
Originariamente inviato da: CrapaDiLegno
Ni...

cut

Non è un caso, per esempio, che i neo nati server ARM sono visti tutti con grande interesse proprio per il risparmio energetico che possono portare.


Ma hai presente in che ambito vengono usati i server Arm?
Per il momento usare un server arm per interrogazioni in DB (che teoricamente dovrebbe essere il suo campo di impiego più congeniale) porta vantaggi miseri a livello energetico (da test indipendenti fatti risulatava che 64 core arm A9 raggiungevano lo stesso carico medio di uno xeon 10 core+ht), ma con un costo dell'hardware molto più alto.

Quindi quel ni è da considerare in molti modi diversi, ed il principale è:
In hpc, che cercano le massime prestazioni, aggiornare facilmente hardware e software con costi relativi bassi può favorire quest'architettura?
Per il resto le preferenze delle aziende (e relative bustarelle da parte di chicchesia) possono decretare il successo di una tecnologia non per forza migliore della rivale.
(E le bustarelle non erano riferite a nessuno in particolare, ma mi è venuta in mente a causa di un trascorso di una famosa azienda italiana produttrice di elicotteri).
Littlesnitch03 Luglio 2014, 16:37 #50
Originariamente inviato da: Ares17
Ma hai presente in che ambito vengono usati i server Arm?
Per il momento usare un server arm per interrogazioni in DB (che teoricamente dovrebbe essere il suo campo di impiego più congeniale) porta vantaggi miseri a livello energetico (da test indipendenti fatti risulatava che 64 core arm A9 raggiungevano lo stesso carico medio di uno xeon 10 core+ht), ma con un costo dell'hardware molto più alto.

Quindi quel ni è da considerare in molti modi diversi, ed il principale è:
In hpc, che cercano le massime prestazioni, aggiornare facilmente hardware e software con costi relativi bassi può favorire quest'architettura?
Per il resto le preferenze delle aziende (e relative bustarelle da parte di chicchesia) possono decretare il successo di una tecnologia non per forza migliore della rivale.
(E le bustarelle non erano riferite a nessuno in particolare, ma mi è venuta in mente a causa di un trascorso di una famosa azienda italiana produttrice di elicotteri).


Lascia stare, tanto se non sei dell'opinione che nVidia rulez andrai avanti per giorni. cdimauro mi pare abbia esposto tutta la situazione argomentandola per bene, per contro ha ricevuto solo tanti caratteri senza una minima argomentazione.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^