Intel continua lo sviluppo dell'architettura Many Core

Intel continua lo sviluppo dell'architettura Many Core

Continua l'investimento Intel nelle soluzioni Many Core: le proposte Knights Corner debutteranno con tecnologia produttiva a 22 nanometri integrando oltre 50 piccoli core

di pubblicata il , alle 15:00 nel canale Private Cloud
Intel
 

In occasione dell'ultimo giorno del proprio Developer Forum 2011 Intel ha fornito alcune informazioni sulla propria architettura Many Core, meglio nota con la sigla MIC (Many Integrated Core). Ricordiamo come una delle più note concretizzazioni di questa architettura sia stato Larrabee, progetto di Intel per lo sviluppo di una GPU declinato in seguito a coprocessore in grado di gestire codice x86.

L'approccio MIC vede l'utilizzo di architetture che integrino al proprio interno un elevato numero di core, inizialmente tutti uguali tra di loro e gestiti in parallelo, collegati da una interconnessione interna a banda elevatissima. Ogni core è piccolo per dimensione e capace di operare con consumi molto contenuti, mantenendo compatibilità con codice x86 e quindi sulla carta non richiedendo allo sviluppatore di adattare il proprio codice all'elaborazione su GPU così come avviene con le proposte concorrenti di NVIDIA e AMD.

La prossima generazione di soluzioni Knights Corner verrà sviluppata utilizzando tecnologia produttiva a 22 nanometri, la stessa che vedremo al debutto con le poposte Ivy Bridge, integrando al proprio interno oltre 50 core. Intel non ha fornito indicazioni specifiche su quanto maggiore di 50 sarà il numero di core, ma è evidente come l'utilizzo di una tecnologia produttiva più sofisticata permetterà di integrare un numero di core paralleli semre più elevato.

Intel ha inoltre specificato come l'evoluzione futura dell'architettura MIC passerà attraverso l'affiancamento di tipologie di core differenti tra di loro, e non più tutti uguali. Questo approccio permetterà di ottenere un miglior utilizzo della potenza di calcolo a disposizione del chip nel suo complesso, adattando i core in funzione del tipo di codice che da questi verrà eseguito.

Da molti anni Intel promuove la propria architettura MIC quale strada per accelerare le elaborazioni del futuro, ma sino ad ora questo non ha portato a prodotti realmente disponibili sul mercato. Il fallimento della strategia Larrabee per il segmento consumer spiega in parte questo ritardo, che Intel intende colmare in futuro grazie anche alle prossime generazioni di soluzioni Knights Corner.

E' significativo inoltre evidenziare come questa edizione dell'IDF sia stata molto sottotono per quanto riguarda informazioni legate alle future architetture per sistemi server. In particolare si attendevano informazioni sulle CPU Xeon E5, proposte per sistemi sino a 2 socket destinate a prendere il posto dei modelli Xeon 5600 attualmente presenti sul mercato. E' a questo punto ipotizzabile che il debutto di questi processori non avverrà nel corso dell'autunno come inizialmente previsto ma sarà spostato ai primi mesi del 2012.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Tedturb016 Settembre 2011, 16:27 #1
progetto nato morto, visto che non puo competere con ati e nvidia ne sul fronte prestazioni, ne sul fronte consumi
coschizza16 Settembre 2011, 16:38 #2
Originariamente inviato da: Tedturb0
progetto nato morto, visto che non puo competere con ati e nvidia ne sul fronte prestazioni, ne sul fronte consumi


non è in competizione ne con le gpu ati ne con quelle nvidia perche non stiamo parlando di gpu usata come scheda video ma come batteria di core per calcolo parallelo e le gpu in questione non sono nate e non sono adatte per tutti gli scopi.

La soluzione intel è molto diversa da quella delle concorrenti sia come struttura fisica dei core sia come programmazione.
Rubberick16 Settembre 2011, 19:50 #3
Originariamente inviato da: Tedturb0
progetto nato morto, visto che non puo competere con ati e nvidia ne sul fronte prestazioni, ne sul fronte consumi


centra niente...

qui si parla di avere una vagonata di core x86 con un costo relativamente contenuto, cosa che ti permette di runnare praticamente il 99% delle app gia' pronte e scritte per normali sistemi multicore

il multi gpu computing per ora e' relegato ad ambiti scientifici, ha vari linguaggi di programmazione dove uno standard vero e onorato ancora non si è trovato e non tutti si smazzano per scrivere nuovo codice per processare roba...

sempre supposto che il programma abbia algoritmi che possano realmente beneficiare di calcolo sulla gpu

se ste schede possono semplicemente essere infilate dentro un pc o una workstation e essere visti come core aggiuntivi avoja che successo avranno!
Giulius Caesar17 Settembre 2011, 10:13 #4
Si va bene ma i netbook con atom n2600 e n2800 quando escono?

Sapete niente?
sbudellaman17 Settembre 2011, 21:15 #5
Quindi per ora niente a che vedere con una scheda grafica da poter usare ad esempio anche in ambito gaming, ho capito bene ?
filippo197419 Settembre 2011, 09:20 #6
Originariamente inviato da: sbudellaman
Quindi per ora niente a che vedere con una scheda grafica da poter usare ad esempio anche in ambito gaming, ho capito bene ?


Intel ha già abbandonato da tempo quei propositi. Quindi non mi aspetto di vedere da Intel proposte sul fronte grafica basate su Larrabee o simili né ora, né in futuro.

Per battere "giganti" affermati come AMD e Nvidia, l'unico "plus" che Intel aveva a disposizione era di sfornare una scheda video che parlasse la stessa lingua (ISA x86) delle CPU dei PC, così da semplificare la vita agli sviluppatori; purtroppo la flessibilità di un processore nato per il General Purpose si paga con l'impossibilità di eguagliare le prestazioni di una GPU concepita appositamente per elaborazioni grafiche. Tutto ciò ha reso Larrabee un prodotto improponibile per l'uso come acceleratore 3D; però almeno potrebbe ricavarsi una sua credibilità come, appunto, acceleratore x86 per elaborazioni su algoritmi fortemente paralleli. Il valore aggiunto resta lo stesso di prima, cioè l'avere un processore che mastica lo stesso formato binario delle comuni CPU (mentre Nvidia con CUDA e AMD con APP richiedono comunque sviluppi dedicati).

Ciao
Filippo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^