Radeon InstinctAMDVega

Le GPU AMD Vega a 7nm in test interno: debutto nel 2018

di pubblicata il , alle 09:41 nel canale Private Cloud Le GPU AMD Vega a 7nm in test interno: debutto nel 2018

Lisa Su, CEO di AMD, conferma che le GPU Vega a 7 nanometri sono in test interno all'azienda: debutto di mercato nella seconda metà dell'anno, in prodotti della famiglia Radeon Instinct

 
76 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
tuttodigitale28 Aprile 2018, 15:43 #51
Originariamente inviato da: nickname88
Se il software non sfrutta determinati componenti è da stupidi inserirli.
Il chippetto tuttofare ? Dove quindi a seconda degli utilizzi ci sono sempre componenti non sfruttati.

come il T&L introdotto da nvidia nelle GeForce, e la logica programmabile in NV20, le DX9 di R300, e lo SM3.0 di NV40, e le DX10 di G80, le DX11 di Evergreen..tutte soluzioni che pagavano al debutto prestazioni per numero di transistor scadenti nei confronti dei predecessori.
Se non offri l'HW che si avvantaggia dell'utilizzo delle FP16 (cosa che avveniva regolarmente con NV40 e G70, e nei giochi PS3 e mai abbandonato nel mobile) e il primitive shader, gli sviluppatori non lo sfrutteranno mai...
è il software che segue l'hardware, non il contrario.
lucusta28 Aprile 2018, 15:44 #52
Originariamente inviato da: calabar
Non importa perchè Vega sia così, il punto è che essere così la rende poco competitiva nel mercato gaming.

calabar, stiamo parlando di aria fritta.
è da marzo 2017, più di un anno, che non esiste più un mercato gaming.
i gamer non hanno avuto la possibilità del ricambio generazionale a causa dell'elevato costo.
insomma... un anno di bocce ferme ma comunque un mare di soldi per tutti, che li fa comunque contenti.

io ho avuto l'occasione di trovare una 56 a 375 euro in tempi non sospetti.
ora dimmi, una vega 56, pur con tutti i difetti che annovera, a 375 cosa avrebbe da invidiare ad una 1070 o 1070Ti (tra l'altro uscita apposta per competerci), e se sei fortunato a trovare un buon chip anche a confronto di una 1080 sui nuovi giochi?
e parliamo di periodi in cui era appena uscita.
a distanza di 9 mesi a che prezzi concorrenziali saremmo arrivati oggi?

avremmo potuto trovare una 1070 a 340 euro o anche a meno....
oggi siamo ancora a 100 euro sopra come minimo.

non avendo il polso del riscontro di prezzo reale sul mercato, tutti i discorsi che facciamo sono campati in aria.
io posso fare anche un chip il doppio più grosso del tuo che va uguale, ma se poi lo faccio pagare meno, al cliente cosa importa quanto silicio di bassa qualità ho messo sotto il dissipatore?

ci sono troppe variabili che, purtroppo o per fortuna, la gente comune non considera.
accetto chi non ne capisce nulla e mi viene a comparare la barretta di un benchmark con il costo, ma non quelli che mi si mettono a parlare di mm^2 ed efficienza senza nemmeno aver preso in considerazione quanti altri aspetti produttivi ci sono dietro, decretando la vittoria tecnologica a mente fresca (almeno tu qualcosa l'hai considerata.. io ancora ho presente un articolo sui processi produttivi dei chip grafici linkato su questa testata dove di tutto si parlava all'infuori dei parametri vitali per la produzione dei chip... una marketta da fanboy da far accapponare la pelle).

come scrivi anche tu Vega è un bel pezzo di chip, ma, mettiamola come congiunzione stellare, è nato per altri scopi e non era questo l'universo in cui può dire la sua sui giochi.
in uno in cui la concorrenza non si fa a suon di soldi distribuiti qua e la sarebbe stato diverso, non in questo.

per quanto riguarda prove efficaci per dare suggerimenti giusti al pubblico e ai lettori, vedi le la riga sopra.
non te le faranno mai, finchè non sei tu a pagare.
ho visto una sola prova, e manco completa, in cui facevano vedere una vega 64 a confronto di una 1080 sotto il 2700x ed a confronto di un 8700k (tutto a default), e vega non accusava il colpo tra intel e AMD sulle CPU e rispetto alla 1080 sulla maggiorparte dei pochi giochi testati, fino a che non si prendono giochi gimpati e DX11 fatti proprio per andare male.

uno, fatto male, su 100 reviews lette.
ma perchè? eppure a più di qualcuno potrebbe venir il dubbio e mettere le carte (schede) sul tavolo e capire cosa sta succedendo alla tecnologia che compriamo.

discorso assai lungo quello dei test, ma che sarebbe molto importante fare, perchè è su quei test che poi tutti noi parliamo e ci facciamo un'idea.
lucusta28 Aprile 2018, 16:14 #53
a questo proposito sto valutando un'idea di business:
test acritici sui giochi con tutti gli HW e in tutti i settaggi disponibili.
analisi tal quali, facendosi pagare dagli appassionati e non dai pusher PR.
facendosi pagare dagli sviluppatori per controllargli lo stato dei lavori su una miriade di configurazioni (debugging finale e test).
rendere il database disponibile a tutti e guadagnare con gli stupidi banner di google.

io produco i numeri, i tool di confronto, il pubblico ne trae le conclusioni.

sempre più convinto che si riuscirebbe a fare soldi così, e senza che nessuno possa criticarti.
nickname8828 Aprile 2018, 17:56 #54
Originariamente inviato da: lucusta
tu lo faresti su uno dei tanti giochi gimpati game works che sono usciti e stanno uscendo.
hai visto l'ultimo tomb raider?
chè più verde acido sui demo che tette di lara croft.
è per questo che temo che nvidia, anche con le prossime schede, ci propinerà un pascal rivisto e rivisitato ma che non andra ancora in DX12.
stà gimpando i nuovi giochi in uscita a più non posso.

Vabbè non avevo dubbi


è una questione di opportunità.
stai valutando un sistema che è nato per altro e lo stai criticando perchè non esegue il lavoro allo stesso modo di uno fatto solo per quella cosa ed congeniato per fare quello in quel determinato periodo di sviluppo software.

critica accettabile finchè non vedi il prezzo: le vega, in realtà, costerebbero pure meno.
Che Vega sia nata per altro mi interessa poco, dal momento in cui la butti fuori sotto forma di Radeon per me è un prodotto per giocare e lo confronti con i prodotti rivali SOLO nel gioco.
nickname8828 Aprile 2018, 18:13 #55
Originariamente inviato da: lucusta
è invece la concorrenza che oggi si trova un chippetto che sforza le CPU all'inverosimile (spostando una buona parte del consumo su questa)


https://www.youtube.com/watch?v=12OLCkmR7xY
https://www.youtube.com/watch?v=lmtiVahyTDc
https://www.youtube.com/watch?v=xwhAKuaf_pE
https://www.youtube.com/watch?v=zMjdkaC1H5o
https://www.youtube.com/watch?v=t_AyKdvr8bo
https://www.youtube.com/watch?v=R7MxohmjuXg
https://www.youtube.com/watch?v=g32GD6Dn8-4

Considerando il frame rate non mi pare affatto che con Nvidia si registri una % di utilizzo CPU molto più elevata rispetto a Vega, anzi generalmente son più o meno sullo stesso piano su tutti i giochi.

E sono video presi da 4 fonti e alcune realizzate con un quad core ( che quindi dovrebbe risentire di più dell'utilizzo ).

Questo "[I][U]sforzo della CPU inverosimile[/U][/I]" io sinceramente non lo vedo, quindi o sono cieco io ... oppure attendo parole di gomblottismo.
Gyammy8528 Aprile 2018, 19:37 #56
@lucusta condivido il tuo pensiero, all'inizio vega 56 era da prendere a occhi chiusi.
Per il resto...penso che lo stile delle manovre di nvidia sia sotto gli occhi di tutti.
Io ricordo che due anni fa "l'ue4 sarà il primo vero engine nativo dx12", poi si è visto com'è andata, praticamente un engine per indie e multiplay commerciali approssimativo e rigorosamente dx11.
calabar28 Aprile 2018, 20:25 #57
Originariamente inviato da: tuttodigitale
Praticamente va considerata l'impostazione di fabbrica un OC.
Il problema di VEGA sono le scarse prestazioni per mmq (anche GP100 soffre di tali problemi nei confronti di GP102).

Le due cose non sono così slegate. Il silicio che Vega destina a funzioni non utilizzate nel gioco comunque incidono sui consumi.
Che poi Vega possa essere ben tarata per consumare meno lo sappiamo, ma rimane sempre un po' indietro, e soprattutto perde quel pochino di prestazioni che servono per meglio competere con i più piccoli chip della concorrenza.

PS: grazie anche per le informazioni di prima, mi mancava qualche passaggio.

Originariamente inviato da: lucusta
non avendo il polso del riscontro di prezzo reale sul mercato, tutti i discorsi che facciamo sono campati in aria.
io posso fare anche un chip il doppio più grosso del tuo che va uguale, ma se poi lo faccio pagare meno, al cliente cosa importa quanto silicio di bassa qualità ho messo sotto il dissipatore?

Attenzione: come avevo specificato in precedenza, non sto parlando di convenienza per l'utente finale, ma di sostenibilità di un prodotto per l'azienda nell'arco del tempo.
Vega come sai è un chip grande (e con un interposer ancora più grande), e questo significa chip più difficili da produrre, meno chip per wafer e costi tendenzialmente superiori (dico tendenzialmente perchè qui entrano in gioco tanti fattori come il costo per wafer, la resa, le soglie di tensioni/frequenza che si decide di adottare, ecc...).
Se tu utilizzi per tre anni la stessa soluzione e il concorrente tira fuori chip migliorati, una situazione già difficile non può che peggiorare.
lucusta28 Aprile 2018, 23:22 #58
Originariamente inviato da: tuttodigitale
il problema è sempre quello di dover spartire il carico tra le diverse gpu, alla fine il fatto che vengano replicate le texture nella VRAM non è un grosso problema (a maggior ragione con le HBCC attivo)....una soluzione che mi viene in mente, è quella di avere diversi chip collegati tramite interposer, o tecnologie simili, che si interfacciano ad un altro chip che costituisca il front-end di tutto il pacchetto. Questo, imho è un modo elegante e raffinato per le soluzioni multichip (no-multigpu, visto che di fatto è una singola GPU composta da più chip....e sarebbe gestita come tale )


stai pensando ad un multimodulo con bus esposto.
in pratica puoi selezionare l'engine più adatto da collegare ai moduli di calcolo, e alle memorie...
sarebbe simpatico, ma solo di controller per la comunicazione ti costa un sacco di silicio.
comunque non è una strada da scartare a priori, soprattutto se si pensa a grossi, grossi chip.
lucusta28 Aprile 2018, 23:32 #59
Originariamente inviato da: nickname88
https://www.youtube.com/watch?v=12OLCkmR7xY
https://www.youtube.com/watch?v=lmtiVahyTDc
https://www.youtube.com/watch?v=xwhAKuaf_pE
https://www.youtube.com/watch?v=zMjdkaC1H5o
https://www.youtube.com/watch?v=t_AyKdvr8bo
https://www.youtube.com/watch?v=R7MxohmjuXg
https://www.youtube.com/watch?v=g32GD6Dn8-4

Considerando il frame rate non mi pare affatto che con Nvidia si registri una % di utilizzo CPU molto più elevata rispetto a Vega, anzi generalmente son più o meno sullo stesso piano su tutti i giochi.

E sono video presi da 4 fonti e alcune realizzate con un quad core ( che quindi dovrebbe risentire di più dell'utilizzo ).

Questo "[I][U]sforzo della CPU inverosimile[/U][/I]" io sinceramente non lo vedo, quindi o sono cieco io ... oppure attendo parole di gomblottismo.


ehm... scusa, ma perchè hai preso solo giochi che vanno bene nell'uso di più core, almeno più di 4?
ma forse qualche battuta che abbiamo avuto in precedenza ti ha fatto capire a cosa servono i multicore e giochi costruiti per usarli?
comunque, lascia stare l'uso di video di influencer YT.
renditi conto, come ti ho già scritto, che questi signori lo fanno per pecunia, perchè con solo gli introiti di YT non ci ripagherebbero nemmeno la metà dell'HW che stanno mettendo alla prova.
hanno la garanzia di un cinese che ti vende una borsa di louis vuitton in un garage di periferia.

nel dettaglio puoi vedere:
primo video:
BF1
7700K@4500mhz
1080ti 68.3fps
vega 64 70fps
max min CPU 1080ti 56/23
max min vega 64 47/17
logicamente poi manca il test con il 7700K a default, che stà a 3.8Ghz in quel tipo di uso.
a quel punto come cambiano gli fps della 1080ti?
no, perchè sai, alle Vega non servono tutti tutti i 4500mhz che fornisce quel processore; ad occhio e croce gli bastano i 3800mhz per avere la stessa occupazione dei core che ha la 1080Ti a 4500mhz.

già solo questo ti fa vedere che i 50-60W in più che succhia vega sono ben bilanciati dai 50-60W che la 1080 Ti richiede in più per una CPU a 4500mhz.
quindi? questa efficienza sbandierata ai quattro venti dove accedenti sta?

la naturale sòla che ti stanno mostrando?
questo video è "1080p at 200% resolution scale", situazione in cui le 1080 Ti perdono molto meno per compressione dati sulle memorie.
un 1080p nativo era chiedere troppo, o un 4K...
mi spieghi perchè io trovo sempre il cavillo che fa scattare la mia mente sospettosa sui "gomblotti" o meglio sullo scoprire gli scacciacani che non sanno lavorare?
e così via.... senza perdere altro tempo, sennò diventa più noioso che interessante.
lucusta28 Aprile 2018, 23:54 #60
Originariamente inviato da: calabar
Se tu utilizzi per tre anni la stessa soluzione e il concorrente tira fuori chip migliorati, una situazione già difficile non può che peggiorare.


logico che il ritardo tecnologico lo paghi (ed anche caro), ma parliamo di un'azienda che ha saputo comunque innovare anche nel peggior periodo della sua esistenza...
ad oggi vedo più preoccupante la situazione di nvidia, che sembra voler rimanere ancorata alle DX11, ma che stà perdendo il supporto d'intel per le elevate frequenze necessarie per le sue soluzioni.

guardando gli ultimi prodotti usciti, l'overclock delle CPU non paga più così tanto (quantomeno non porta gli stessi vantaggi bilanciati da sempre più pesanti svantaggi).

Originariamente inviato da: Gyammy85
@lucusta condivido il tuo pensiero, all'inizio vega 56 era da prendere a occhi chiusi.

anche perchè poi la potevi rivendere usata al doppio del prezzo.. mica siamo scemi ^_^
Originariamente inviato da: Gyammy85
Per il resto...penso che lo stile delle manovre di nvidia sia sotto gli occhi di tutti.
Io ricordo che due anni fa "l'ue4 sarà il primo vero engine nativo dx12", poi si è visto com'è andata, praticamente un engine per indie e multiplay commerciali approssimativo e rigorosamente dx11.

lo ricordo anche io... sto "aizzando" la figlioletta sui giochi (perchè a differenza dei benpensanti, credo che stimolino molto l'intelletto delle menti giocani, nella giusta misura)...
vedo spesso giochi Ue4, sulla xbox one, ma vedo anche come male sia stato usato, almeno per quella console.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^