Sino a 16 core in una cpu nel 2007

di pubblicata il , alle 09:43 nel canale Private Cloud Sino a 16 core in una cpu nel 2007

Queste sarebbero le specifiche di Tanglewood, evoluzione del progetto Itanium attesa in commercio per l'anno 2007

 
48 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
newtechnology02 Settembre 2003, 23:32 #41
Io non credo che poi la ram sia cosi un collo di bottiglia per un sistema amulticore a 16 Processori, io credo che tra il 2006 e 2007 ci siano gia DDR2 capaci di funzionare benissimo a 1600 MHz (400x2x2)e quindi con un sistema a otto canali canali si otterrebbe un banda massima di 51.2 GB/s e dato il costo che questo processore avrà, non credo che chi sia intenzionato ad acquistarlo sti a speculare su qualche banco di ram!!! Piuttosto speriamo che per quel periodo gli HD serial ATA arrivino almeno a 0.5 GB/s, secondo i progetti della Silico Image e della Promise entro quella data dovremo avere HD capaci di operare realmente a 400 MB/s. Speriamo bene!
KAISERWOOD03 Settembre 2003, 10:18 #42
previsione troppo ottimistica, secondo me la banda delle ram arriverà alla metà di quello che hai detto tu e lo stesso succederà per questa CPu, va a finire che se avrà veramente 16 core viaggerà a ferquenze molto basse. Di solito tra il dire e il fare c'è di mezzo il silicio. Il prescott seconodo le vecchie previoni molto rosee dell'intel doveva arrivare a 5ghz e il tejas a 7ghz e inoltre il tejas doveva avere 2mb di cache adesso dicono 1 e che alla fine dovrebbe arrivare a quasi 5ghz, perché intel sta incontrando chiari problemi nel salire di frequenza e sta rallentando la scalta delle mhz. Un altro esempio è l'Hammer che doveva uscire da un sacco di tempo e alla fine forse lo vedremo a ottobre sul mercato e le prestazioni non sono così esaltanti come doveva essere. Purtroppo è sempre stato così che quello che promettevano non si è mai riscontrato nella relatà, forse l'unico caso è l'r300 di ati al momento della presentazione.
alimatteo8603 Settembre 2003, 18:00 #43
temo che costeranno 10 volte tanto quelli attuali...
BlackBug04 Settembre 2003, 09:42 #44

Futuro

1)Costeranno mila soldini?
2)E il frigorifero dove mettere il case lo regalano?
cdimauro06 Settembre 2003, 07:58 #45
Ho letto di tutto in questo thread (compreso delle fantomatiche cpu a 128 bit :rolleyes), ma il 2007 è molto lontano e quelle che vengono riportate sono, molto probabilmente, le previsioni che un'azienda può fare su come impiegare lo spazio disponibile con un certa tecnologia costruttiva. Vogliono integrare 16 core in die? Benissimo: ci facciano conoscere le frequenze che si potrebbero raggiungere, quanto dissiperà il "bestione", e quali soluzioni intendono adottare per l'opportuno raffreddamento del core (perché sarà molto caldo: questo è poco, ma sicuro).
Fino ad allora per me resteranno tutte fantasie...

Un appunto sulle istruzioni x86 che sono "inefficienti": per quanto mi riguarda, contano sempre e soltanto le prestazioni "sul campo". Un'architettura può essere brutta quanto si vuole, ma se poi permette di macinare numeri, non vedo perché non si dovrebbe continuare ad utilizzarla. A maggior ragione se pensiamo che, ormai, quasi nessuno scrive codice assembly, ma ci affidiamo ai compilatori, per cui non ce ne può fregar di meno di come verrà eseguito il nostro codice e comunque alcune architetture RISC sono talmente complicate che è meglio lasciar perdere l'assembly e usare sempre il compilatore. Vedi Itanium/EPIC, ad esempio, mentre con gli 80x86 si può ancora pensare di poterlo fare, famiglia Hammer a 64 bit inclusa...

Poi, proprio il fatto che gli x86 abbiano delle istruzioni "complesse", permette di "spalmare" su più stadi di pipeline il lavoro di decodifica e di generazione delle istruzioni RISC86, e poiché la tendenza di continuare ad alzare il clock porta con sé la necessità di aumentare le pipeline (di qualche stadio alla volta quasi ad ogni passaggio a una nuova tecnologia costruttiva), mi sembra che si instauri un eccellente connubbio.

D'altra parte i limiti di un'architettura RISC vengono fuori proprio da questo: è difficile scalare in frequenza anche per loro, perché, eseguendo delle istruzioni più semplici, generalmente sono dotate di poche pipeline. Ecco che, anche per loro, è sopraggiunta la necessità di aumentare a dismisura il numero di pipeline per raggiungere frequenze decenti e globalmente delle prestazioni migliori delle precedenti generazioni (vedi Power4 -> PPC970/G5), che li portino ad essere più competitivi.

Infine, se andiamo a dare un'occhiata alla nuova architettura x86-64, notiamo che nella modalità nativa a 64 bit sono sparite molte istruzioni "legacy" che sono estremamente complesse e che non sono quasi mai state ottimizzate da quando si è passati all'utilizzo di un core RISC per la loro esecuzione: è un chiaro segnale di come venga preso atto che parte della filosofia CISC debba necessariamente essere buttata via, in quanto sovradimensionata e limitante per quanto riguarda le prestazioni e la costruzione di un core efficiente. Rimane, in sostanza, quella che tempo addietro venne definita "architettura CRISP": poche istruzioni, ma che permettano anche di poter eseguire lavori complessi, come il contemporaneo accesso alla memoria (anche con indirizzamenti "complicati" e all'ALU per eseguire un'operazione, ma decisamente lontani dalla singola istruzione che arrivava fare anche il caffè.

Questa mi sembra la soluzione che può mettere d'accordo la necessità di avere prestazioni migliori e di poter continuare a scalare in frequenza. Mi spiace solanto che da questa "corsa" sia rimasta tagliata fuori da tempo quella che considero la migliore architettura CRISP mai ideata: la famiglia Motorola 68000 e successivi...
dnarod06 Settembre 2003, 08:15 #46
pero mauro, sono d accordo.....il problema è che come dici tu dovrebbero rifare tutto (il crisp è chiaramente conveniente a patto che si sappia prendere il lato buono da entrambi ovviamente) ma mi sa che non cambieranno molto in fretta: in genere l uomo si da una scrollata solo quando batte la capa contro un ostacolo----->ergo continueremo a tenerci gli x86, x85-64, x86-xx(x? :eek ancora fino a che non capiranno che facendo i proci con i cervelli di mukka riusciranno ad avere un superrisc che viaggia a impulsi elettrici veloci come la luce (ne serviranno di pipel. dunque!!) e potra girare a 25 ghz rock solid con un dissy bundle in alluminio............pero sara scomodo uguale perche cosi dovranno cambiare il socket (magari bio-socket 001 sai che sturia!!) e ci faranno upgradare per l ennesima volta........
scherzi a parte anche io non ci do molto a sta news......vediamo un po di avere dei test o ancor meglio di vedere quando escono......tanto io mi dico: erano anni che spaccavano con doom3,doom3,doom3 e ti va a uscire in sordina hl2 che magari è pure meglio..........quindi diranno sta roba qua e magari fra un anno veramente ci puppiamo il 5 ghz!!
cdimauro08 Settembre 2003, 09:01 #47
Per quanto mi riguarda penso che l'architettura x86, con l'estensione a 64 bit, abbia non meno di un'altra decina d'anni di florido mercato davanti a sé, prima di lasciare il passo a qualche altra RISC-like, semmai ce ne sarà una che riuscirà ad essere interessante anche per il mercato desktop.

Sui 5Ghz, fra un anno ci starei attento: se il processo produttivo a 0,09u sarà raffinato, probabilmente ci andremo vicini. Resta comunque l'enorme problema dell'assorbimento e della dissipazione del calore generato dai cento e più milioni di transistor che lavorano a quelle frequenze (anche se con tensione di core ridotta), e impaccati in uno spazio molto più piccolo di quello attuale.

La vedo dura, insomma, anche se è presto per poterne parlare, e ancor di più per i 16 core nello stesso die...
leoneazzurro08 Settembre 2003, 10:13 #48
Infatti uno dei problemi più grandi che si hanno quando si sale di frequenza è la dissipazione termica. Spesso si sente dire che il passaggio agli 0,09 consentirà di avere frequenze più alte perchè il processo a 0,09 "consuma di meno". Ma spesso molti si scordano di una cosa molto importante. Ossia la superfice del die (il nucleo del processore).

Esempio: sappiamo che Prescott dissiperà circa 100 Watt di potenza. Molti, vedendo che la cifra totale è all'incirca quella del P4 3,2 attuale, ma a una frequenza più alta, si sono subito a precipitati a dire che in effetti il problema non è così grave, anzi non esiste affatto. Ma c'è una cosa importante: a 0,09 il Prescott avrà solo l'80-85% della superficie di silicio del Northwood. La sua resistenza termica con l'esterno sarà dunque più alta, ergo necessiterà di una costruzione più accurata per poter dissipare il calore oppure raggiungerà temperature più elevate del suo predecessore. Vedremo cosa saranno in grado di fare gli ingegneri Intel (e Amd, che del resto ha gli stessi problemi) a riguardo nei prossimi anni.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^