Intel
Intel e High Performance Computing: MIC contro GPGPU
di Andrea Bai pubblicata il 07 Dicembre 2010, alle 14:57 nel canale Private Cloud
Nel mondo HPC Intel deve iniziare a fronteggiare le crescenti minacce delle soluzioni GPGPU. Ma il colosso di Santa Clara è convinto di poter avere un asso nella manica
14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoQuesta flessibilità potrebbe far gola a molte aziende quando si tratterà di scegliere tra mic e gpgpu.
Già, la soluzione MIC di Intel nella sostanza è un set d'istruzioni incompatibile con quello degli x86 attuali ma che permette di ricompilare abbastanza agevolmente il codice x86 su di essa e di portare i vari S.O. su di essa abbastanza agevolmente.
Il core x86 "di base" è lo stesso, ma quello che erano le SSE "non c'è più" (sono state sostituite dalle istruzioni della "nuova" VPU).
Visto che le parti che contengono istruzioni SSE o le ha generate automaticamente il compilatore oppure sono spezzoni di codice "piccoli" relativamente facili da riscrivere (e spesso con un fallback su codice x86 oppure C/C++ per supportare i vecchi x86 che non avevano le SSE), la cosa è sensata.
Intel potrà proporre i chip su architettura MIC sia per macchine "multicore" tipo server che per architetture HPC in cui le prestazioni aggiuntive dovute alle VPU dei core si faranno sentire di più (avrà quindi anche maggiori economie di scala rispetto ai concorrenti).
L'unica cosa che potrebbe scombinare le carte ad Intel sarebbe qualche sviluppo (es: le interconnessioni ottiche on-chip) che renderesse più efficienti soluzioni basate su molti più "mini-core" (senza VPU e con cache più piccole).
Uno dei motivi per cui MIC o cpugpu hanno senso è che con le tecnologie attuali molti più core "più piccoli" non possono essere sfruttati a dovere a causa dei limiti di banda sulle interconnessioni tra core e core e tra i core e la memoria esterna, ma se le cose cambiassero ...
Quindi un supercomputer con 50.000 cpu intel xeon e niente altro dentro usa le cpu come controllo.
E i calcoli chi li fa? E per controllare cosa?
le architetture eterogenee sono il futuro nel presente sono usate in una piccola percentuale dei sistemi in elenco compreso nella 1° posizione.
Ha senso utilizzare 50 mini core x86 al posto dei 6-8-12 core fisici?
Sempre x86 sono, mi sembra un po' un controsenso sto MIC.
ti sei risposto dasolo 50 > 12 > 8 > 6
le cpu moderne sono estremamente potenti ma spesso sono esageratamente complesse per far girare del codice che avrebbe bisogno di una complessita molto minore. Quindi avere cpu standard x86 piu semplici come degi atom ma munite di unita sse o vmx vettoriali avanzate è molto meglio di avere anche 50 core completi ma con solo 1 unita vettoriale avanzata ciascuno. Questo perche i 50 core semplici occupano magari 1/10 dello spazio dei 50 core completi.
Immagina di fare un calcolo del tipi A+B=C, cosa ti serve avere dei core completi se potresti farlo su cpu 100x piu piccole e semplificate.
Una volta esisteva la gara dei GHZ ma siamo arrivati a un limite ora siamo nella gara dei core ma arriveremo a un limite e quindi si arriva alla gara dei mini core per continuare a evolvere i pc.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".