Intel

Una CPU Intel Xeon da 4,4 GHz di clock

di pubblicata il , alle 15:15 nel canale Private Cloud Una CPU Intel Xeon da 4,4 GHz di clock

Solo due core, ma una frequenza di clock da record, per la CPU Intel Xeon 5698 destinata a sistemi server con un massimo di due socket

 
40 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
leddlazarus16 Marzo 2011, 09:04 #31
ha senso perchè la maggior parte del software è scritto con il

e questa mossa di intel è in risposta a chi mi ha sempre riso in faccia quando dicevo che per adesso 2 core bastano all'80% degli utilizzi.
avvelenato16 Marzo 2011, 09:28 #32
Originariamente inviato da: leddlazarus
ha senso perchè la maggior parte del software è scritto con il

e questa mossa di intel è in risposta a chi mi ha sempre riso in faccia quando dicevo che per adesso 2 core bastano all'80% degli utilizzi.


all'80% degli utilizzi basta un atom

se poi vogliamo parlare di ciò che è comodo, un quad core viene comodo ad una bella fetta di utenza, sebbene sono poi pochi (gamers e professionisti) quelli che non ne potrebbero far niente.

per parlare della notizia però io sarei curioso di conoscere il rapporto prestazioni (mips e flops) / watts, e di confrontarlo con lo stesso processore a 6 core e clock più basso in modo da produrre lo stesso tdp di 130W.
coschizza16 Marzo 2011, 11:15 #33
Originariamente inviato da: flip2007
mi sembra una grossa s*******a una cpu che ha un consumo cosi' alto.....la tecnologia si sviluppa con l'obbiettivo di creare hardware prestazionale, ma sempre cercando di ridurre al mimimo i consumi.
Ma quante mai ne venderanno di queste stupide CPU Xeon? Poi un conto è lavorarci, un conto è cazzeggiarci. La seconda nn mi sembra molto adatta visto anche lo spropositato prezzo


nessuno sa quanto consumano il TDP non è mica il consumo, io posso avere una cpu con il TDP di 130w ma pieno carico arrivare a 100 o meno, il TDP serve per gli oem per progettare i server ma non indica il consumo reale.

la cpu è nata per chi ne ha bisogno è evidente invece che tu vorresti decidere per tutti. Se non ti serve basta non comprarla ma perche gli altri devono avere meno scelta solo perche a te non serve? a me sarebbe molto utile una cpu simile in azienda per esempio.
!fazz16 Marzo 2011, 12:04 #34
Originariamente inviato da: AleLinuxBSD
Con simili prezzi penso sia più conveniente un cluster di due comuni cpu piuttosto che optare per un simile processore.

peccato che non è detto che le applicazioni scalino linearmente con l'aumentare del numero di core senza contare il problema dato dalla rete

Originariamente inviato da: flip2007
mi sembra una grossa s*******a una cpu che ha un consumo cosi' alto.....la tecnologia si sviluppa con l'obbiettivo di creare hardware prestazionale, ma sempre cercando di ridurre al mimimo i consumi.
Ma quante mai ne venderanno di queste stupide CPU Xeon? Poi un conto è lavorarci, un conto è cazzeggiarci. La seconda nn mi sembra molto adatta visto anche lo spropositato prezzo


se a te non servono non è detto che è una soluzione stupida, io farei carte false per averla, mi permetterebbe di abbassare notevolmente i tempi di stima in transitorio dove il vecchio dual e5450 è inutile


Originariamente inviato da: leddlazarus
ha senso perchè la maggior parte del software è scritto con il

e questa mossa di intel è in risposta a chi mi ha sempre riso in faccia quando dicevo che per adesso 2 core bastano all'80% degli utilizzi.


non è questione di sw scritto con la parte davanti o dietro del corpo umano, anche software iper ottimizzati non posso parallelizzare tutto anzi spesso il sw deve per forza essere lineare il mondo sw non è solo rendering ed encoding e raytracing che sono forse le 3 applicazioni più facilmente parallelizzabili anche su cluster da centinaia di processori
leddlazarus16 Marzo 2011, 15:06 #35
Originariamente inviato da: !fazz
non è questione di sw scritto con la parte davanti o dietro del corpo umano, anche software iper ottimizzati non posso parallelizzare tutto anzi spesso il sw deve per forza essere lineare il mondo sw non è solo rendering ed encoding e raytracing che sono forse le 3 applicazioni più facilmente parallelizzabili anche su cluster da centinaia di processori


bhe che gli sforzi dei programmatori siano decisamente inferiori oggi rispetto ad anni fa è un dato di fatto,in quanto ormai hanno a disposizione risorse quasi infinite,mentre anche solo 10-15 anni fa ci si scontrava anche solo con la qta di ram disponibile.

cmq con la tua affermazione rincari la dose sulla utilità vera e propria di tanti core.

molti sw non solo parallelizzabili per sfruttarli. gli so fanno quello che possono.

quindi.
sub_seven|netbus16 Marzo 2011, 15:18 #36
Ormai per i sotware deve essere un must riuscire a dividere il carico di lavoro su tutti i core anche se ormai quasi tutti sono ottimizzati per 2core ma pochi o nessuno per 6 core
coschizza16 Marzo 2011, 15:31 #37
Originariamente inviato da: sub_seven|netbus
Ormai per i sotware deve essere un must riuscire a dividere il carico di lavoro su tutti i core anche se ormai quasi tutti sono ottimizzati per 2core ma pochi o nessuno per 6 core


questo non dipende dal software ma principalmente da cosa deve fare il programma, se un operazione è seriale non potrai mai dividerla su piu core.
!fazz16 Marzo 2011, 15:45 #38
Originariamente inviato da: leddlazarus
bhe che gli sforzi dei programmatori siano decisamente inferiori oggi rispetto ad anni fa è un dato di fatto,in quanto ormai hanno a disposizione risorse quasi infinite,mentre anche solo 10-15 anni fa ci si scontrava anche solo con la qta di ram disponibile.

cmq con la tua affermazione rincari la dose sulla utilità vera e propria di tanti core.

molti sw non solo parallelizzabili per sfruttarli. gli so fanno quello che possono.

quindi.


non è questione di abilità / sforzo tecnico dei programmatori dipende dal problema che devi risolvere.

io non ho mai detto che i multicore sono inutili, infatti da 3-4 anni uso una macchina con un'elevata potenza di calcolo in multithread (8x3GHz) questa potenza mi viene utile in parecchi ambiti (es analisi parametriche) dove tutti i processori macinano per giorni a pieno carico ma se devo fare un'analisi in transitorio lo stesso programma funziona solo in single thread perchè è l'analisi che lo richiede (ogni passo è dipendente dai risultati precedenti quindi non è possibile parallelizzare i calcoli)
quindi non è il sw che è scritto con i piedi perchè sfrutta solo il 12.5% della potenza della macchina anzi

altro esempio un rendering e o una compressione sono altamente parallelizzabili li si usano a livello professionale anche cluster con centinaia di core, non puoi fare di tutta l'erba un fascio, dipende dalle applicazioni che usi,
ilratman16 Marzo 2011, 17:17 #39
Originariamente inviato da: !fazz
altro esempio un rendering e o una compressione sono altamente parallelizzabili li si usano a livello professionale anche cluster con centinaia di core, non puoi fare di tutta l'erba un fascio, dipende dalle applicazioni che usi,


Stessa cosa nel mondo cad 3d che è assolutamente non parallelizzabile oppure giustamente come hai detto le analisi dei transitori, il problema è che la gente non capisce.
Noi abbiamo dei w3680 ma queste nuovo xeon è portentoso.
Siccome devo prendere una nuova ws un pensierino lo faccio.

Oggi alle 10 per esempio ho lanciato una simulazione su un e7500 e alle 6 non aveva completato nemmeno il 10% e visto il week end lo ho lasciato andare e spero lunedì di trovare i risultati.
Rossi8818 Marzo 2011, 14:22 #40
Originariamente inviato da: !fazz
non è questione di abilità / sforzo tecnico dei programmatori dipende dal problema che devi risolvere.

io non ho mai detto che i multicore sono inutili, infatti da 3-4 anni uso una macchina con un'elevata potenza di calcolo in multithread (8x3GHz) questa potenza mi viene utile in parecchi ambiti (es analisi parametriche) dove tutti i processori macinano per giorni a pieno carico ma se devo fare un'analisi in transitorio lo stesso programma funziona solo in single thread perchè è l'analisi che lo richiede (ogni passo è dipendente dai risultati precedenti quindi non è possibile parallelizzare i calcoli)
quindi non è il sw che è scritto con i piedi perchè sfrutta solo il 12.5% della potenza della macchina anzi

altro esempio un rendering e o una compressione sono altamente parallelizzabili li si usano a livello professionale anche cluster con centinaia di core, non puoi fare di tutta l'erba un fascio, dipende dalle applicazioni che usi,


Volevo semplicemente dire che non è affatto detto che un'analisi in transitorio non sia parallelizzabile (magari in alcuni non lo è per carità, e non parlo per sentito dire, è possibile anche usare delle librerie matematiche che consentono di parallelizzare ogni singolo passo dell'analisi in transitorio per te (su 2 core le prestazioni scalano del 100%, su più core non ho fatto test). Ovviamente occorre scrivere codice ad hoc affinché siano sfruttate queste librerie e l'algoritmo si deve prestare.

È ovvio che parallelizzare un'analisi parametriche è estremamente più facile, ma probabilmente con un po' di ingegno è possibile parallelizzare anche un'analisi in transitorio non parametrica.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^