Al debutto le prime cpu server Quad Core

Al debutto le prime cpu server Quad Core

Intel presenta ufficialmente le cpu Xeon serie E5300, per sistemi dual Socket e dotate di 4 core di processore per Socket

di pubblicata il , alle 09:19 nel canale Private Cloud
Intel
 

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mparlav14 Novembre 2006, 12:13 #11
Se facessero delle belle Mb dual Xeon per l'overclock, ad un dual E5310 portato a 3.0Ghz ci fare un pensierino :-)


Ho qualche dubbio che un sistema dual Xeon E5355 possa reggere contro un quad Opteron 8220, come prestazioni pure, ma in rapporto prezzo/prestazioni e prestazioni/consumi, se la gioca alla grande.
Penso che usciranno parecchie soluzioni rack 1 con queste cpu.
Mic.C.14 Novembre 2006, 13:15 #12
Gia,se esiste una sched madre che permetta overclock (asus per opteron ne ha una dual socket 940 molto overclockabile) sono molto convenienti,le soluzioni entry sono veramente a "buon mercato" se c'e' la possibilita' overclock!
spud2314 Novembre 2006, 13:15 #13

aiuto...

4 COREs?

cioè cioè, mi chiedo come mai abbiano fatto ad arrivare fino ad oggi i nostri genitori , quando tipo il rendering della sigla di star trek veniva fatto con una cascata di z80 e richiedeva 6 giorni... Ora ci danno i QUAD e scommetto che ci vorrannno cmq 6 giorni per un rendering simile... detto questo la domanda è:

A che cosa serve avere processori sempre più veloci se gli applicativi verranno cmq sempre adattati alle nuove potenze di volta in volta?

Rimarremo sempre un gradino dietro il massimo possibile xkè è il mercato che vuole così!
fate voi i vostri conti
0sc0rpi0n014 Novembre 2006, 13:32 #14
Lo sfruttamento reale di queste soluzioni in ambito home , a mio avviso , dipende tutto se i programmi sono strutturati per poterlo fare .
Prendiamo per esempio un gioco del genere sparatutto in soggettiva . Se ad ogni Core gli viene assegnato un compito specifico ( fisica del gioco , gestione della grafica , ecc. ecc. ) ne avremo dei benefici notevoli .
Chiaramente anche gestire più programmi in contemporanea è vantaggioso con un Quad Core , ma quello è logico .
jappilas14 Novembre 2006, 14:12 #15
Originariamente inviato da: spud23]A che cosa serve avere processori sempre più
forse a essere più produttivi?
tieni conto che, in certi ambiti soprattutto, ma vale anche più in generale, la "risorsa base", quella che viene allocata in base a un certo budget, e vincola il risultato finale, è proprio il *tempo* (tempo dedicato alla progettazione, all' analisi, tempo di calcolo - ad esempio ma non solo, rendering -)
dato un certo budget di tempo, si otteranno determinati risultati con le risorse di calcolo a disposizione... aumentando queste si otteranno gli stessi risultati in meno tempo, oppure si potrà sfruttare il budget temporale iniziale per produrre risultati qualitativamente / quantitativamente superiori (in termini di ricchezza di dettaglio, effetti speciali, realismo, "rifinitura"
se gli applicativi verranno cmq sempre adattati alle nuove potenze di volta in volta?
di solito questo non vuol dire che il programma sia più "pesante" della versione precedente a parità di condizioni d' uso (cioè finchè l' operatore lavora con gli stessi strumenti e funzioni che usava prima): oltre ad un' eventuale aggiunta di tool e/o un miglioramento del workflow gli applicativi di solito vengono adattati introducendo p. e. estensioni, o algoritmi di calcolo più sofisticati ma che permettono maggiore qualità , ecc
[QUOTE]Rimarremo sempre un gradino dietro il massimo possibile xkè è il mercato che vuole così!
secondo me è perchè anche chi con certi programmi lavora, potrebbe fare fatica a stare dietro alla loro evoluzione
La soluzione imho sarebbe, quando soddisfatti di uno strumento di lavoro che può essere il software e la workstation su cui gira, tenerlo finchè proprio non assecondi più le esigenze operative
Sig. Stroboscopico14 Novembre 2006, 14:14 #16

x spud23

Quando dici che la sigla di star trek veniva fatto con una cascata di z80 e richiedeva 6 giorni e adesso ci mettono ancora lo stesso tempo epr realizzarla hai ragione.

Il perchè sta nel fatto che 15 anni fa avevano solo quelli e in 6 giorni dovevano fare una sigla passabile, oggi abbiamo di meglio e cerchiamo di avere un prodotto con più qualità.

Il vero problema sta nel fatto che la CG ancora adesso ha una resa inferiore alla realtà.

Manco la foto di un tramondo fatto con una macchina fotografica di ultima generazione ancora rende bene... visto di persona è sempre tutt'altra cosa.

Ciao!
coschizza14 Novembre 2006, 14:22 #17
Originariamente inviato da: spud23
A che cosa serve avere processori sempre più veloci se gli applicativi verranno cmq sempre adattati alle nuove potenze di volta in volta?


le cpu sono costruite per dare piu potenza possibile alle applicazioni, avendo piu potenza disponibile le applicazioni si possono spingere volta per volta sempre avanti con la complessita dei calcoli da eseguire e cosi via

questo è normale non capisco dove vedi il problema


per esempio io ho utilizzato il 3dsmax dalla varsione 1.0 all'attuale 9.0 e posso dire che i 2 programmi sono da alcuni punti di vista identici e negli anni si sono "solo" evoluti i plugin i tool integrati ecc. uno dei progetti che ho fatto a sua tempo caricati nel programma occupavano 50-60mb di ram ed era composto da oltre 1milione di poligono, per fare il rendering di 1 frame impiegavo a seconda dei casi dai 25 ai 30 minuti (ho detto MINUTI) sul mio pentium 166 e 64mb di ram, e quella volta era il top esistente.


prendendo lo steso progetto e aprendolo oggi su di una cpu moderna dual core (e l'ultima versione del software) mi occupa circa 1 Gb di memoria e il tempo di rendering (a parità di opzioni di rendering) è tra i 5-10 secondi a frame.

la questione non è tanto che oggi posso fare le stesse cose che facevo prima in 1/100 del tempo ma che oggi posso prendere lo stesso progetto di una volta e applicare tante di quelle migliorie grafiche di rendering ecc che alla fine il tempo di rendering sarà lo stesos di quello di una volta

quindi il vantaggio di avere sempre piu potenza elaborativa sta nel fatto che oggi posso renderizzare tale progetto utilizzando una qualità inverosimile per 10 anni fa (utilizzando tecniche come il radiosity) e posso farlo in tempi accettabili, mentre uan volta tale tecnica non poteva nemmeno esser pensata , progettata e implementata dagli sviluppatori perche per renderizzare 1 frame ci avrei impiegato oltre 1 mese che è un po troppo persino per le render farm dell'epoca.


se 5 anni va era possibili "rippare" un dvd in divx in tempi di 3-6 ore oggi lo possiamo fare in 30 minuti ma per fare un rip di un film in HD ci rimettiamo dimuovo piu di 6 ore...............quando ci riusciremo dinuovo in 30 minuti avremo disponibile il super hd v2.0 e ci metteremo dinuovo 6 ore sui futuri 10-20-ecc core

sta di fatto che non esistera mai una cpu abbastanza potente perche le esigenze sarenno sempre superiori e i limiti del tempo reale e del fotorealismo sono quasi impossibili da raggiungere se non in generazioni e generazioni future e solo in certi ambiti
Manu_F14 Novembre 2006, 14:37 #18
MAC PROOO
NoRemorse14 Novembre 2006, 14:41 #19

....stiamo dentro alla notizia

per favore, altrimenti diventa dura leggere i commenti....
Gli Xeon sono SOLO per il mercato professionale... commenti da/per professionisti quindi; non facciamo entrare i giochini in questi post, dai...

lucusta14 Novembre 2006, 19:21 #20
un quad sarebbe essenziale in una workstation professionale, in un server dipende dal carico di lavoro e dal servering..

cmq con uno di questi ci vedo bene un serverino da ufficio da 4-8 PC: 1 server con virtualizzazioni varie (database, fileserver, backup, mail server, terminal server, work-office, ecc) e le macchine degli impiegati in terminal server, basate su client piccoli, economici e silenziosi, tipo un mini mac, ma meglio ancora thinclient diskless su linux con avvio in IPX, che sono ancora piu' economici; dove si accede esclusivamente in terminal server pre sfruttare applicazioni, condividerle, e dove l'assistenza e la manutenzione si concentra esclusivamente su una macchina, il server.
a conti fatti 8 PC economici di marca costano 600-800 euro, mentre per il server ne occorrono 2000, un thinclient diskless ne costa 300-400, e la differenza si usana per un bel RAID5 con SAS sul server, e ci si trova ad operare su una macchina realmente potente, senza colli di bottiglia, visto che per un PC economico da ufficio e' sempre e comunque la parte dischi ad essere mal dimensionata.

un quad, in questo caso, renderebbe le cose realmente piacevoli..

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^