Intel Knights Corner, 50 core per confermare Moore

Intel Knights Corner, 50 core per confermare Moore

Intel presenta Knights Corner, proposta per centri di ricerca in grado di presentare fino a 50 core all'interno dello stesso processore

di pubblicata il , alle 17:12 nel canale Private Cloud
Intel
 

La necessità di avere a disposizione sempre una maggiore potenza di calcolo ha portato nel corso degli ultimi anni allo sviluppo delle cosiddette soluzioni multi-core: la possibilità di unire due o più core all'interno della stessa CPU ha rappresentato un passo determinante per continuare la curva di crescita indicata da Moore nella sua tanto famosa legge.

Ma in quale direzione punterà lo sviluppo delle future soluzioni per il mercato delle CPU? Secondo quanto riporta Intel stessa, l'approccio multi-core rappresenta ancora una valida soluzione e in questo senso presenta Kinghts Corner. La nuova proposta si presenta come un prodotto dedicato al mercato HPC (high performance computing) e sviluppato a partire dall'architettura Intel many integrated core (MIC), la stessa applicata per Larrabee. La nuova soluzione, destinata ad ambienti estremamente verticali come la ricerca scientifica, la simulazione finanziaria o meteorologica, sarà prodotta a 22 nanometri e consentirà di sfruttare oltre 50 core all'interno dello stesso processore.

Come spesso accade in questi casi, e come è facilmente riscontrabile nel nostro piccolo con l'avvento delle soluzioni a quattro e a sei core, non tutti i programmi sono in grado di trarre massimi benefici dal solo incremento del numero di core: è necessario che l'applicazione sia ottimizzata per la gestione in parallelo. In questo senso anche, Intel ha già cominciato la distribuzione del kit di sviluppo ad un numero ristretto di programmatori selezionati, kit che prende il nome di Knight Ferry e che si caratterizza per la presenza di 32 core con frequenza di 1,2GHz.

Nella seconda metà del 2010 inoltre, Intel amplierà il programma per gli sviluppatori, introducendo una vasta gamma di tool di sviluppo dedicati all'architettura Intel MIC. Lo scopo è ovviamente quello di rendere più facile la migrazione di programmi già scritti e ottimizzati per piattaforme Xeon, grazie anche alla presenza di tool e tecniche di ottimizzazione comuni.

Le nuove proposte sono ovviamente soluzioni destinate a segmenti estremamente verticali del mercato, non a caso come esempio viene citato il CERN di Ginevra: "Il team dell'Openlab CERN è riuscito ad eseguire la migrazione di un benchmark parallelo complesso in C++ sulla piattaforma di sviluppo software Intel MIC in pochi giorni", ha dichiarato Sverre Jarp, CTO dell'Openlab CERN. "Il fatto di utilizzare un modello di programmazione hardware che ci è familiare ci ha permesso di avere un software funzionante in un tempo minore del previsto".

Intel Knights Corner si presenta così come una diretta risposta alle soluzione Tesla di NVIDIA, proposte che, sviluppate sull'architettura estremamente parallelizzata della GPU, ben si adattano ad applicazioni che necessitano di una elevata potenza di calcolo.

26 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
danyroma8031 Maggio 2010, 17:44 #1
ci girerà crysis? penso di sì, un nemico per core
StyleB31 Maggio 2010, 17:58 #2
MAH...non son sfruttate al massimo neancora le core 2 duo in ambito home e in campo scientifico spesso cercan le gpu per un miglior rapporto prezzo/potenza... la vedo nera per questo esercizio di stile intel (oltre al fatto che mi sorge spontaneo chiedermi se le raffreddano direttamente ad azoto visto il calore che potrebbero generare 50core in una singola piastra di silicio) mi sembra tanto una stentata corsa per dimostrare che la legge di moore è ancora valida...
El Bombastico31 Maggio 2010, 18:01 #3
A dire il vero, un po' mi manca quell'irrefrenabile corsa al Mhz che caratterizzava il mondo delle CPU di qualche annetto fà.
Ancora mi ricordo i tempi del 486 e di quando una ventina di Mhz in più faceva sembrare un processore una belva.
Bei ricordi.
fpg_8731 Maggio 2010, 18:06 #4
questa soluzione se nn erro dovrebbe consumare sui 125-150W, quindi ad aria si raffredda benissimo.
Secondo me stanno riciclando Larrabee. Per la grafica non era performante, ma essendo un x86 a tutti gli effetti, con le ottimizzazioni giuste, potrebbe far paura.
Hanno iniziato a distribuirlo a pochi, così da iniziare a creare interesse ed applicazioni, per quando uscirà a 22 nm.
La vedo come un riciclo, e come preparazione x il terreno x i prossimi anni...
Hanno capito ke senza software Larrabee non avrebbe attirato nessuno, quindi prima invoglieranno a creare soft ottimizzati, poi lo spacceranno come rivoluzione x il calcolo parallelo x86... e nel mezzo avranno tempo x ottimizzare i software anche per la grafica.
Superboy31 Maggio 2010, 18:11 #5
@StyleB
Avercene di tali progetti di ricerca! Se a te non serve o non ne vedi l'utilità non vuol dire che il mondo sia tutto li. Seconda cosa, non si è parlato di consumo nè di architettura, secondo il tuo ragionamento una gpu ati (che ha 800core) dovrebbe consumare come una piccola città.
JackZR31 Maggio 2010, 18:45 #6
Presto nei nostri PC avremo CPU a 48core da 4GHZ con multi-GPU integrata con consumi sotto i 100W e TDP glaciali.

Beh per i 4Ghz ci si potrebbe benissimo già arrivare...
mau.c31 Maggio 2010, 18:58 #7
qual'è il numero di core necessario per rendersi conto che l'approccio multicore è ridicolo? voglio dire, fino a 10 possiamo pure tirare avanti questa architettura... ma andare a 50 o 100 mi pare una sciochezza siceramente.
-=W1S3=-31 Maggio 2010, 19:09 #8
e l'approccio giusto quale sarebbe? la corsa al GHz? mi sa che più core ci sono e meglio è, soprattutto se il software sarà fatto girare in parallelo e in multithreading... mi sa che il cervello umano funziona più o meno così, con i neuroni al posto dei core!
mau.c31 Maggio 2010, 19:19 #9
Originariamente inviato da: -=W1S3=-
e l'approccio giusto quale sarebbe? la corsa al GHz? mi sa che più core ci sono e meglio è, soprattutto se il software sarà fatto girare in parallelo e in multithreading... mi sa che il cervello umano funziona più o meno così, con i neuroni al posto dei core!


l'approccio giusto va studiato ma bisognerebbe ripensare tutta l'architettura. qui stiamo esasperando sempre la stessa cosa... invece di costruire una macchina da corsa da zero, continuiamo a modificare una fiat punto... questo per mantenere sempre il più possibile compatibilità e portabilità quando possibile. forse sarebbe l'ora di pensare a qualcosa di diverso, o no? la corsa ai GH è pure peggio da questo punto di vista... allora si che è meglio più core. neuroni al posto dei core. allora il mio PC ha 4 neuroni? poraccio
B|4KWH|T331 Maggio 2010, 19:56 #10
Nei centri di ricerca cercano le GPU?
Ma se sono mosche bianche e solo ora stanno COMINCIANDO A PENSARE di farci qualcosa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^