Niente più Knights Hill nelle roadmap Intel per i supercomputer

Niente più Knights Hill nelle roadmap Intel per i supercomputer

Intel rimuove la futura generazione di acceleratori della famiglia Xeon Phi, in attesa di nuove microarchitettura e piattaforma associate

di pubblicata il , alle 10:41 nel canale Private Cloud
IntelXeon Phi
 

In occasione di SC17, la supercomputing conference che si sta svolgendo in questi giorni a Denver, si susseguono gli annunci di nuove architetture e soluzioni destinate al mondo del datacenter. Si tratta di prodotti destinati a venir utilizzati per elaborazioni sempre più complesse, in grado di offrire potenze di calcolo via via crescenti in abbinamento a livelli di consumo che tendono, ove possibile, a restare invariati.

Tra le novità che meritano una segnalazione di rilievo evidenziamo come Intel abbia annunciato di aver abbandonato lo sviluppo della propria futura generazione di acceleratore della famiglia Xeon Phi, nota con il nome in codice di Knights Hill. Questo prodotto verrà sostituito, nello sviluppo futuro dell'azienda, da una nuova microarchitettura e da una nuova piattaforma specificamente disegnati per rispondere alle esigenze delle soluzioni exascale.

Di Knights Hill si conosce ben poco, se non che nella roadmap Intel avrebbe preso il posto delle soluzioni Xeon Phi della famiglia Knights Landing. Queste ultime saranno costruite con tecnologia produttiva a 10 nanometri, integrando la seconda generazione di interconnessione proprietaria Omni-Path specificamente sviluppata da Intel per gestire le interconnessioni nei sistemi dedicati al supercomputing.

E' molto interessante vedere come Intel indichi che le soluzioni Knights Hill, attese in ogni caso tra alcuni anni al debutto, verranno sostituite da una nuova microarchitettura sviluppata ex novo. Il collegamento con gli annunci della scorsa settimana, in particolare l'ingresso in azienda dell'ex CTO Graphics di AMD Raja Koduri, lascia pensare che la strategia di Intel per il mondo del supercomputing passi anche attraverso lo sviluppo di nuove architetture di acceleratori che abbandonino il design delle proposte Xeon Phi ora in commercio in favore di qualcosa che richiami più da vicino le attuali architetture di GPU utilizzate in datacenter.

16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
AceGranger14 Novembre 2017, 11:47 #1
Originariamente inviato da: Veradun
Ed ecco che il progetto Larrabee muore definitivamente dopo essere fallito miseramente come GPU ed essere stato riciclato per altro.


in campo HPC, come schede acceleratrici, nVidia ha fatto terra bruciata.


Intel negli ultimi anni sembra arrivare sempre un passo dopo gli altri, e ultimamente poi si sta facendo fregare da nVidia in tutti i nuovi mercati.
coschizza14 Novembre 2017, 12:04 #2
Originariamente inviato da: AceGranger
in campo HPC, come schede acceleratrici, nVidia ha fatto terra bruciata.


Intel negli ultimi anni sembra arrivare sempre un passo dopo gli altri, e ultimamente poi si sta facendo fregare da nVidia in tutti i nuovi mercati.


guardando le clessifiche di vendita dei computer HPC non si direbbe proprio visto che le schede intel sono largamente usate e sono anche nella top 10 su piu sistemi
AceGranger14 Novembre 2017, 12:19 #3
Originariamente inviato da: coschizza
guardando le clessifiche di vendita dei computer HPC non si direbbe proprio visto che le schede intel sono largamente usate e sono anche nella top 10 su piu sistemi


ho dimenticato di segnare anceh workstation e calcolo intesivo

i PHI li stanno dismettendo perchè non riescono a tenere il passo con le GPU nVidia e non si è creato quell'ecosistema che Intel sperava si creasse.

le Tesla le vendono anche in workstation e trovano una miriade di applicazioni con software di terze parti gia pronti, le PHI, tolti gli accordi che fa Intel, non se le compra quasi nessuno e le prendono solo realta che poi si sviluppano anche il software.
CrapaDiLegno14 Novembre 2017, 13:09 #4
Pilotare decine di FPU con decine di core x86 era una idea sciocca che non poteva portare a risultati diversi. Ma era Intel e c'è voluto un po' perché gli investimenti scadessero e la concorrenza con duro lavoro lo dimostrasse (aiutata anche da i nuovi PP, vedesi miei antichi commenti sul fatto che i nuovi PP della concorrenza sarebbero stati una spina nel fianco per Intel non solo per quanto riguardava il mercato mobile).

Il prossimo passo di Koduri credo infatti che sarà mettere le enormi unità AVX in una architettura mesh (ala GPU) senza core x86 in mezzo a rubare spazio e a succhiare inutili W.
D'altronde credo che anche Intel sia arrivata alla conclusione che l'architettura x86 non ha più il vantaggio che aveva prima (che era poi la quantità di transistor che poteva mettere in campo vs la concorrenza allo stesso prezzo e consumi) e nemmeno "l'avanzatissimo" PP che Intel proclama avere la aiuta più a coprire il gap che ha e da qualche anno sta cercando alternative, prima con le FPGA e ora con nuove architetture simil-GPU , ovviamente sempre collegate a x86, ma che sta prendendo un ruolo sempre più marginale rispetto a prima.
Anche Intel ha smesso di voler spingere x86 ovunque anche là dove non è adatta allo scopo.

In più altri contendenti sembrano interessati, come questi: https://en.wikichip.org/wiki/pezy/pezy-scx/pezy-sc2
Che già dimostrano come una architettura qualsiasi non necessariamente x86 può fare molto e anche meglio.
csavoi14 Novembre 2017, 15:10 #5
INTEL deve finalmente cedere un po' del suo orgoglio e ricominciare a lavorare.

Colpire in qualche modo NVIDIA, lo ha fatto con l'accordo di partnership con AMD per processori modulari INTEL con grafica VEGA.

Adesso, grazie all'acquisizione di Raja Koduri, non sarebbe improbabile pensare che AMD e INTEL convergano in un HW per Supercomputing condiviso (o per lo meno compatibile) in modo da non fare la fine di Labarree e creare i presupposti per un supporto software decente.

In Fondo se NVIDIA "ha sfondato" è anche per il supporto software che ha dato alle sue schede video.
cdimauro14 Novembre 2017, 19:53 #6
Non ci si dovrebbe fermare soltanto al titolo, senza approfondire con la notizia e magari senza nemmeno aver visto la press release originale, prima di commentare.

Si parla chiaramente che il progetto Knights Hill, e solo questo, è stato cancellato perché l'azienda sta lavorando a una nuova MICRO-architettura (e nuova piattaforma. Di contorno, quindi).

Dunque NON sarà una nuova ARCHITETTURA: quella rimarrà sempre x86/x64, che è ancora viva e vegeta nonostante i proclami di gufi, hater e novelli maghi Otelma, che la vorrebbero già morta da una 30ina d'anni ormai.

Com'è anche chiaro che l'arrivo di Koduri ha influito su queste decisioni. D'altra parte è ben noto che le GPU di AMD siano ben più votate ai calcoli GPGPU, rispetto a quelle nVidia.
Koduri ha contribuito grandemente allo sviluppo di tale architettura, per cui può ben contribuire anche allo sviluppo della prossima MICRO-architettura Intel votata al GPGPU-computing -> Xeon Phi.

Infine, è bene notare che soluzioni esotiche possano ovviamente fare molto meglio di soluzioni più "generali/generiche". Ed è ovvio che sia così. Com'è, però, anche ovvio che sfruttarle richieda molti più sforzi (codice e/o compilatori ad hoc), e in ogni caso tali soluzioni sono difficilmente riutilizzabili per altri scopi.
Infatti pezy-sc2 ha prestazioni stellari soltanto in virgola mobile a singola precisione, mentre di gran lunga inferiori per quelle a doppia o mezza precisione. Ergo: si chiama fuori da HPC e IA/deep-learning.
CrapaDiLegno14 Novembre 2017, 20:45 #7
". Ed è ovvio che sia così. Com'è, però, anche ovvio che sfruttarle richieda molti più sforzi (codice e/o compilatori ad hoc), e in ogni caso tali soluzioni sono difficilmente riutilizzabili per altri scopi.

Si certo, più sforzi ad utilizzare un compilatore piuttosto che un altro. Dal punto di vista di chi scrive il codice non cambia una mazza, sopratutto perché le routine utilizzate sono scritte in ASM e si chiamano quelle, dato che nessun compilatore può astrarre in maniera automatica lo scopo di un calcolo complesso come quello da fare su una SIMD.
Quindi al massimo puoi parlare di soluzioni che hanno un diverso supporto, ma non certo che usare un determinato HW piuttosto che un altro diventa complicato per il programmatore.
Inoltre la suddetta architettura non ha molto di "esoterico", certamente è meno fantasiosa nell'avere un inutile core x86 per pilotare 2 FPU che sono quelle addette a lavorare per davvero.

Infatti pezy-sc2 ha prestazioni stellari soltanto in virgola mobile a singola precisione, mentre di gran lunga inferiori per quelle a doppia o mezza precisione. Ergo: si chiama fuori da HPC e IA/deep-learning.

Eh? Scusa ma che specifiche hai letto? Quelle della prima versione vecchia di 2 anni? Per la corrente in produzione e vendita e installate sugli ultimi super computer leggo 8TFLOPS in FP32 e 4TFLOPS in FP64 e 16TFLOPS in FP16. Il tutto con consumo di picco di 180W e 130W di media (che la rende la scheda acceleratrice più efficiente finora costruita, persino migliore delle soluzioni nvidia che le stanno poco dietro). Quanti TFLOPS fa una Knight Landing e in quanti W?
Ci sarà un motivo per cui la presenza di queste schede acceleratrici siano aumentate nel tempo nella classifica. E infatti stanno prendendo piede proprio nei server HPC, IA e DeepLearning (non so se hai capito che ogni scheda a 16FLOPS in FP16, tutt'altro che "poco" per il DeepLearning).

Per quanto riguarda la MICRO-Architettura, è molto ma molto probabile che sarà pensata per fare un die con il core e "incollarlo" (usando la sintassi di Intel) ad un bel die separato creato dal Koduri che eseguirà i calcoli veri. L'MCM di Intel è promettente sotto questo punto di vista, e credo proprio che potrebbe salvargli la vita permettendogli di integrare roba non x86 per progredire.

lucusta14 Novembre 2017, 21:20 #8
in realtà Intel ha annunciato di aver dismesso le schede addon xeon Phi, quelle discrete.
cosa già nota tre mesi fa, in cui ha smesso la produzione e mantenuto a magazzino uno stock per clienti particolari.

le CPU xeon Phi continueranno comunque lo sviluppo. secondo la roadmap.

rammento che le schede xeon Phi non erano altro che xeon Phi messi su scheda, dai quali, volendo, si poteva avviare anche un OS (non virtuale, ma nativo).

questo fa venire in mente che già 3 mesi fa c'era piu' di qualcosa nell'aria per la costituzione della nuova divisione grafica Intel, con questi personaggi...
queste cose non piovono certo dal cielo dall'oggi al domani, e sicuramente dietro c'è una strategia molto più profonda, che pian piano andremo a scoprire.
lucusta14 Novembre 2017, 21:23 #9
cdimauro, glie lo spieghi tu a capadilegno cosa sono le AVX512, perchè sentirle chiamare FPU....
lucusta14 Novembre 2017, 21:36 #10
Originariamente inviato da: CrapaDiLegno
Il tutto con consumo di picco di 180W e 130W di media (che la rende la scheda acceleratrice più efficiente finora costruita, persino migliore delle soluzioni nvidia che le stanno poco dietro). Quanti TFLOPS fa una Knight Landing e in quanti W?


picco?
media?
quando usi un processore del genere sei sempre al limite dell'ultima istruzione utile, sempre se la riesci a sfruttare (perchè un processore non è solo pipeline di calcolo).
comunque 180W su 16TeraFlops, se fossero 25 sarebbero 280W, con una Mi25 che ha 25TF per 300W.
20W in piu' di consumo a scapito di una massificazione di calcolo del 50% in piu', ossia usi meno schede, e piu' economiche, per ottenere la stessa potenza finale.
come in tante altre cose, non devi guardare esclusivamente il consumo del singolo componente, ma come questo consumi insieme a tutto il resto per operare ad un certo livello di prestazioni.
se devo metterci il 50% in piu' di ingegnerizzazione attorno, che dici, quei 20W sono ancora così fondamentali?

Intel, acquisendo le IP AMD, puo' costruire blade che spaziano efficacemente ed efficientemente da INT8 a FP512 massimizzando sia l'efficienza che la potenza di calcolo assoluta.
non c'e' alternativa, se non farsi un asic dedicato allo scopo, se non ti è chiaro il concetto.

ed il tutto senza riesumare il cubotto fatto con le Vega di AMD, in cui si unisce potenza di calcolo a capacità comunicative insuperabili...

giocare con quegli aggeggi è quasi meglio che giocare con i lego.

e, di contorno, ROCm 1.7 oggi supporta pienamente Tensor Flow, oltre al fatto che con OpenCL Port il 99.6% del codice cuda per Caffè è automaticamente convertito in OpenCL.

se nvidia non comincia a spacciare ile sue mattonelle a prezzi più concorrenziali, la vedo ben cupa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^