Sino a 16 core in una cpu nel 2007
di Paolo Corsini pubblicata il 02 Settembre 2003, alle 09:43 nel canale Private Cloud
Queste sarebbero le specifiche di Tanglewood, evoluzione del progetto Itanium attesa in commercio per l'anno 2007
Queste sarebbero le specifiche di Tanglewood, evoluzione del progetto Itanium attesa in commercio per l'anno 2007
48 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoFuturo
1)Costeranno mila soldini?2)E il frigorifero dove mettere il case lo regalano?
Fino ad allora per me resteranno tutte fantasie...
Un appunto sulle istruzioni x86 che sono "inefficienti": per quanto mi riguarda, contano sempre e soltanto le prestazioni "sul campo". Un'architettura può essere brutta quanto si vuole, ma se poi permette di macinare numeri, non vedo perché non si dovrebbe continuare ad utilizzarla. A maggior ragione se pensiamo che, ormai, quasi nessuno scrive codice assembly, ma ci affidiamo ai compilatori, per cui non ce ne può fregar di meno di come verrà eseguito il nostro codice e comunque alcune architetture RISC sono talmente complicate che è meglio lasciar perdere l'assembly e usare sempre il compilatore. Vedi Itanium/EPIC, ad esempio, mentre con gli 80x86 si può ancora pensare di poterlo fare, famiglia Hammer a 64 bit inclusa...
Poi, proprio il fatto che gli x86 abbiano delle istruzioni "complesse", permette di "spalmare" su più stadi di pipeline il lavoro di decodifica e di generazione delle istruzioni RISC86, e poiché la tendenza di continuare ad alzare il clock porta con sé la necessità di aumentare le pipeline (di qualche stadio alla volta quasi ad ogni passaggio a una nuova tecnologia costruttiva), mi sembra che si instauri un eccellente connubbio.
D'altra parte i limiti di un'architettura RISC vengono fuori proprio da questo: è difficile scalare in frequenza anche per loro, perché, eseguendo delle istruzioni più semplici, generalmente sono dotate di poche pipeline. Ecco che, anche per loro, è sopraggiunta la necessità di aumentare a dismisura il numero di pipeline per raggiungere frequenze decenti e globalmente delle prestazioni migliori delle precedenti generazioni (vedi Power4 -> PPC970/G5), che li portino ad essere più competitivi.
Infine, se andiamo a dare un'occhiata alla nuova architettura x86-64, notiamo che nella modalità nativa a 64 bit sono sparite molte istruzioni "legacy" che sono estremamente complesse e che non sono quasi mai state ottimizzate da quando si è passati all'utilizzo di un core RISC per la loro esecuzione: è un chiaro segnale di come venga preso atto che parte della filosofia CISC debba necessariamente essere buttata via, in quanto sovradimensionata e limitante per quanto riguarda le prestazioni e la costruzione di un core efficiente. Rimane, in sostanza, quella che tempo addietro venne definita "architettura CRISP": poche istruzioni, ma che permettano anche di poter eseguire lavori complessi, come il contemporaneo accesso alla memoria (anche con indirizzamenti "complicati"
Questa mi sembra la soluzione che può mettere d'accordo la necessità di avere prestazioni migliori e di poter continuare a scalare in frequenza. Mi spiace solanto che da questa "corsa" sia rimasta tagliata fuori da tempo quella che considero la migliore architettura CRISP mai ideata: la famiglia Motorola 68000 e successivi...
scherzi a parte anche io non ci do molto a sta news......vediamo un po di avere dei test o ancor meglio di vedere quando escono......tanto io mi dico: erano anni che spaccavano con doom3,doom3,doom3 e ti va a uscire in sordina hl2 che magari è pure meglio..........quindi diranno sta roba qua e magari fra un anno veramente ci puppiamo il 5 ghz!!
Sui 5Ghz, fra un anno ci starei attento: se il processo produttivo a 0,09u sarà raffinato, probabilmente ci andremo vicini. Resta comunque l'enorme problema dell'assorbimento e della dissipazione del calore generato dai cento e più milioni di transistor che lavorano a quelle frequenze (anche se con tensione di core ridotta), e impaccati in uno spazio molto più piccolo di quello attuale.
La vedo dura, insomma, anche se è presto per poterne parlare, e ancor di più per i 16 core nello stesso die...
Esempio: sappiamo che Prescott dissiperà circa 100 Watt di potenza. Molti, vedendo che la cifra totale è all'incirca quella del P4 3,2 attuale, ma a una frequenza più alta, si sono subito a precipitati a dire che in effetti il problema non è così grave, anzi non esiste affatto. Ma c'è una cosa importante: a 0,09 il Prescott avrà solo l'80-85% della superficie di silicio del Northwood. La sua resistenza termica con l'esterno sarà dunque più alta, ergo necessiterà di una costruzione più accurata per poter dissipare il calore oppure raggiungerà temperature più elevate del suo predecessore. Vedremo cosa saranno in grado di fare gli ingegneri Intel (e Amd, che del resto ha gli stessi problemi) a riguardo nei prossimi anni.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".