Knights Corner: il GPU Computing secondo Intel

Knights Corner: il GPU Computing secondo Intel

Intel fornisce ulteriori informazioni sulla propria strategia MIC, many integrated core: Knights Corner a 22 nanometri nel 2012 e per il 2018 un supercomputer da 1.000 PetaFLOPs di potenza

di pubblicata il , alle 12:33 nel canale Private Cloud
Intel
 

In concomitanza con la International Supercomputing Conference di Amburgo, Germania, Intel ha anticipato alcune informazioni sulla propria strategia MIC, Many Integrated Core. Si tratta di una serie di prodotti che integrano un elevato numero di core per elaborazioni parallele di notebole portata, dei quali ha fatto parte anche in passato il progetto noto con il nome in codice di Larrabee.

Al momento attuale Intel non ha nessun prodotto della serie MIC disponibile in commercio, fatta eccezione per alcune schede indicate con il nome di Knights Ferry che sono destinate al testing interno di quelle realtà che vogliono sperimentare il calcolo parallelo su GPU. Di fatto le soluzini Knights Ferry altro non sono che schede Larrabee alle quali sono stati rimossi i connettori per i display modificando il sistema di raffreddamento.

Knights Corner è il nome della prossima generazione di soluzione MIC di Intel, che verrà costruita utilizzando tecnologia produttiva a 22 nanometri. Per questa soluzione si prevede l'integrazione di almeno 50 core, contro i 32 delle soluzioni Knights Ferry, con un livello prestazionale atteso pari quantomeno al doppio delle proposte attualmente tra le mani di alcuni sviluppatori doftware e centri di calcolo.

La particolarità dell'approccio sviluppato da Intel con le architetture MIC è quella di abbinare tanti core di non elevatissima potenza elaborativa quando presi singolarmente. Eseguendo codice parallelo diventa possibile sfruttare agevolmente tutta questa potenza di calcolo giungendo a livelli prestazionali molto elevati. L'archtiettura è compatibile con codice x86, a differenza delle proposte Intel e AMD che nascono inizialmente come GPU grafiche e che richiedono una qualche forma di linguaggio intermedio (CUDA o OpenCL per citare i due più popolari) per poter venir sfruttate per elaborazioni non grafiche.

Gli sviluppatori software sono quindi, quantomeno in teoria, facilitati nella programmazione di codice che possa sfruttare le applicazioni MIC in quanto devono utilizzzare la stessa logica alla base della programmazione per CPU x86 abbinando una ottimizzazione per l'elaborazione parallela, così da sfruttare le peculiarità architetturali delle soluzioni MIC.

Quali sono gli obiettivi di Intel per architetture di questo tipo? Raggiungere una potenza di elaborazione di un ExaFLOP, pari a 1.000 PetaFLOPS, nel corso dell'anno 2018, ovviamente attraverso la costruzione di un supercomputer apposito che preveda l'utilizzo di un elevato numero dia rchitetture MIC. A titolo di riferimento segnaliamo che il supercomputer più potente attualmente presente sul mercato sia quello presente nel RIKEN Advanced Institute of Computational Science in Giappone, capace di 8,16 PetaFLOPs nell'esecuzione del benchmark Linpack; per informazioni su questa installazione rimandiamo a questa notizia.

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
C++Ronaldo21 Giugno 2011, 12:37 #1
1000 petaFlop..outstanding!
buffo il nome...tradotto: "l'angolo dei cavalieri" sembra un corso di bon ton
Vash_8521 Giugno 2011, 13:00 #2
Intel e Gpu nella stessa frase non sono mai andati d'accordo!
calabar21 Giugno 2011, 13:19 #3
"a differenza delle proposte Intel e AMD"
Immagino si volesse scrivere
"a differenza delle proposte Nvidia e AMD"
dato che viene poi citato anche CUDA.

Comunque se il prodotto uscirà, ho idea che intel saprà ricavarsi la sua fetta di utenza. A meno che non esca con un ritardo tale da farsi raggiungere dalle soluzioni concorrenti nel campo della compatibilità (cosa non troppo lontana, a giudicare dagli sforzi annunciati di AMD e Nvidia).
marcyb5st21 Giugno 2011, 13:31 #4
Il fatto che sono x86 capable potrebbe essere una manna dal cielo. Anche se comunque il 99% degli applicativi andrà riscritto in quanto per beneficiare di queste schede bisogna minimizzare i trasferimenti tra host e devices.
filippo198021 Giugno 2011, 14:03 #5
Ma il software preferito per sviluppare su questa tecnologia sarà "Tavola rotonda" o "Camelot"?
A parte questo, era da un po' che non risentivo parlare di Larrabee...
Speravo avessero rinunciato a beneficio di AMD e NVIDIA
Tedturb021 Giugno 2011, 14:05 #6
mah
secondo me non ha nessun senso farle x86

non c'e' nessuna necessita' di retrocompatibilita', pertanto sarebbe proprio il caso di scegliere un ISA che consenta il massimo rapporto spazio/prestazioni

per esempio ibm power? o qualcosa di simile..
C++Ronaldo21 Giugno 2011, 14:16 #7
Originariamente inviato da: Tedturb0
mah
secondo me non ha nessun senso farle x86


impossibile per motivi religiosi.. INTEL è x86

farebbe anche frullatori e frigoriferi x86 se li producesse.
D1o21 Giugno 2011, 17:52 #8
Originariamente inviato da: Tedturb0
mah
secondo me non ha nessun senso farle x86

non c'e' nessuna necessita' di retrocompatibilita', pertanto sarebbe proprio il caso di scegliere un ISA che consenta il massimo rapporto spazio/prestazioni

per esempio ibm power? o qualcosa di simile..


è qui che ti sbagli.

eisite una barcata di sw gia pensato e che funziona bene in mt (ansys, fluent, openfoam, FEM, codici genetici, etc...) e soprattutto che è ottimizzato e scala bene con tanti core (fino a 300 con connessioni IB) che ad oggi non ha potuto sfruttare il gpucomputing perche nvidia ed ati richiedevano che fosse riscritto (impossibile).

mentre con sto scherzo di intel si aprono davvero delle possibilità interessanti...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^