Radeon InstinctAMDVega

Le GPU AMD Vega a 7nm in test interno: debutto nel 2018

di pubblicata il , alle 09:41 nel canale Private Cloud Le GPU AMD Vega a 7nm in test interno: debutto nel 2018

Lisa Su, CEO di AMD, conferma che le GPU Vega a 7 nanometri sono in test interno all'azienda: debutto di mercato nella seconda metà dell'anno, in prodotti della famiglia Radeon Instinct

 
76 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nickname8829 Aprile 2018, 01:37 #61
Originariamente inviato da: lucusta
ehm... scusa, ma perchè hai preso solo giochi che vanno bene nell'uso di più core, almeno più di 4?
ma forse qualche battuta che abbiamo avuto in precedenza ti ha fatto capire a cosa servono i multicore e giochi costruiti per usarli?
comunque, lascia stare l'uso di video di influencer YT.
renditi conto, come ti ho già scritto, che questi signori lo fanno per pecunia, perchè con solo gli introiti di YT non ci ripagherebbero nemmeno la metà dell'HW che stanno mettendo alla prova.
hanno la garanzia di un cinese che ti vende una borsa di louis vuitton in un garage di periferia.

nel dettaglio puoi vedere:
primo video:
BF1
7700K@4500mhz
1080ti 68.3fps
vega 64 70fps
max min CPU 1080ti 56/23
max min vega 64 47/17
logicamente poi manca il test con il 7700K a default, che stà a 3.8Ghz in quel tipo di uso.
a quel punto come cambiano gli fps della 1080ti?
no, perchè sai, alle Vega non servono tutti tutti i 4500mhz che fornisce quel processore; ad occhio e croce gli bastano i 3800mhz per avere la stessa occupazione dei core che ha la 1080Ti a 4500mhz.

già solo questo ti fa vedere che i 50-60W in più che succhia vega sono ben bilanciati dai 50-60W che la 1080 Ti richiede in più per una CPU a 4500mhz.
quindi? questa efficienza sbandierata ai quattro venti dove accedenti sta?

la naturale sòla che ti stanno mostrando?
questo video è "1080p at 200% resolution scale", situazione in cui le 1080 Ti perdono molto meno per compressione dati sulle memorie.
un 1080p nativo era chiedere troppo, o un 4K...
mi spieghi perchè io trovo sempre il cavillo che fa scattare la mia mente sospettosa sui "gomblotti" o meglio sullo scoprire gli scacciacani che non sanno lavorare?
e così via.... senza perdere altro tempo, sennò diventa più noioso che interessante.
C'è sempre la scusa eh

ad oggi vedo più preoccupante la situazione di nvidia, che sembra voler rimanere ancorata alle DX11, ma che stà perdendo il supporto d'intel per le elevate frequenze necessarie per le sue soluzioni.
Quindi se non hai cpu ad alta frequenza le GPU Nvidia non vanno ? PROVALO
bagnino8929 Aprile 2018, 10:34 #62
Originariamente inviato da: nickname88
C'è sempre la scusa eh


Sembra un po' l'atteggiamento di chi non sa che pesci prendere. Che poi il ragionamento di lucusta mi sembra tutt'altro che valido.

1) Il 7700K, a default, in giochi come BF1 non va a 3800 MHz all core, ma a 4400 MHz. A 3800 MHz ci arriva, al limite, all core eseguendo istruzioni AVX, ma non è questo il caso.

2) La differenza min/max dell'occupazione della CPU con le due GPU è talmente piccola che non ha alcun valore statistico. Tra l'altro si basa su due rilevazioni istantanee che sono perturbate da mille fattori: scena elaborata in corso, occupazione della CPU in quel momento, vattelapesca vari, ecc.

3) Continua a non dimostrare che Vega va meglio con CPU a frequenza di lavoro più bassa. Provasse a cercare CPU come i Ryzen o gli 8400, che non possono superare i 4 GHz in alcun modo... Ma non credo che riuscirà a provare la sua tesi. Tra l'altro lui più e più volte parlava di CPU anche a meno di 3 GHz, 3.8 GHz mi sembrano molti di più.

Originariamente inviato da: nickname88
Quindi se non hai cpu ad alta frequenza le GPU Nvidia non vanno ? PROVALO


Questo è un corollario, in realtà la tesi di lucusta è che le Radeon vanno anche con CPU a meno di 3 GHz (cito a memoria parole sue). Effettivamente l'onere della prova spetta a chi propone una tesi, non spetta agli altri dimostrare che essa sia sbagliata. E' un po' come se io dicessi che ho una Bugatti Chiron in garage: sono io a dover dimostrare adeguatamente di possederla, non sono mica gli altri a potersi sobbarcare la pena di falsificare la mia affermazione. Non avrebbero la possibilità pratica di farlo.

Se poi resta una tesi non verificabile, tutt'al più la si potrà definire congettura, ammesso che abbia un fondo di validità teorica. Se manca anche quest'ultima, allora il termine tecnico che usano gli epistemologi è doxa, ovvero è una semplice opinione. Quindi, nel migliore dei casi, la sua resta una congettura in mancanza di evidenti prove sperimentali.




A seguire alcune clausole per evitare di scatenare inutili putiferi.

PS1. Scuse del tipo "io sono nato ben prima di voi", "seguo HW dagli albori", "sono reduce decorato del Vietnam" ecc. non sono affermazioni valide per sviare dalla richiesta di provare una tesi. Qui l'età ed il nonnismo non hanno alcuna autorità. Così come usare insulti vari. Qui, lucusta, tutti quelli che ti vanno contro - me compreso - lo fanno sul piano tecnico, non personale. Battute e scherni che restano sul piano tecnico ci stanno, sul piano personale no.

PS2. Non so con chi tu mi abbia confuso, ma su Tom's non sono stato assolutamente bannato e il mio account è ancora lì bello attivo. Tra l'altro, per curiosità, ho rieffettuato l'accesso dopo secoli e rimpiango questa scelta perché sono già colpito da newsletter spam. Su Tom's non ho mai risposto ad un tuo post.

PS3. Non hai l'autorità per impormi cosa scrivere o meno sulla mia firma. Se tu sei libero di dire che le Pascal non sono efficienti, anche io lo sono. Adesso non c'è alcun riferimento diretto a te, quindi non hai di che lamentarti.

@lucusta: se ti risulta impossibile rispettare i PS di cui sopra, o proporre prove valide a dimostrare la tua congettura/doxa, puoi tranquillamente ignorare il mio post.
nickname8829 Aprile 2018, 10:47 #63
Originariamente inviato da: bagnino89
Sembra un po' l'atteggiamento di chi non sa che pesci prendere. Che poi il suo ragionamento mi sembra tutt'altro che valido.

In realtà io ho portato un sacco di contenuti, quelli che non han portato proprio nulla sono altri.
Aspettiamo prove da parte tua quindi, possibilmente qualcosa di visibile e reale che non siano solo parole.

2) La differenza min/max dell'occupazione della CPU con le due GPU è talmente piccola che non ha alcun valore statistico. Tra l'altro si basa su due rilevazioni istantanee che sono perturbate da mille fattori: scena elaborata in corso, occupazione della CPU in quel momento, vattelapesca vari, ecc.

Addirittura prima si dice che Nvidia carico all'inverosimile la CPU e ora che i rilevamenti di uso CPU in game non contano ?

Continui a non dimostrare che Vega va meglio con CPU a frequenza di lavoro più bassa
Infatti sto affermando l'inverso
Non c'è alcuna prova o test a parte discorsi teorici che dimostra che Vega carica la CPU in modo tangibilmente inferiore.
Ti ricordo che le parole di Locusta sono queste : "[B][I][U]la concorrenza oggi si trova un chippetto che sforza le CPU all'inverosimile[/U][/I][/B]"

Questo è un corollario, in realtà la sua tesi è che le Radeon vanno anche con CPU a meno di 3 GHz.

Sotto i 3Ghz ? Fra le piattaforme da gioco di sicuro non si troveranno mai visto che non esistono modelli che rispondono a tale specifica nemmeno a frequenza stock

Se una GPU comporta grandi miglioramenti sul carico cpu come tu dici, questo fattore dovrebbe vedersi comunque, non che superata una certa frequenza scompare come per magia Certe cose le riesce a fare solamente Copperfield.
Per giunta su un quad core la sollecitazione della % di utilizzo è sicuramente più marcata di un octo.
bagnino8929 Aprile 2018, 11:05 #64
Non mi stavo riferendo a te, ma a lucusta... Ho quotato te ma mi stavo riferendo a lui, non ti stavo dando del lei

Edita
nickname8829 Aprile 2018, 11:13 #65
Originariamente inviato da: bagnino89
Non mi stavo riferendo a te, ma a lucusta... Ho quotato te ma mi stavo riferendo a lui, non ti stavo dando del lei

Edita

Ah scusi
lucusta29 Aprile 2018, 12:03 #66
Originariamente inviato da: nickname88
C'è sempre la scusa eh

"C'è sempre una scusa, eh " non lo dovrestri scrivere a me, ma a chi manipola i settaggi per farti vedere quello che vuole.
la ragione per fare un 1080p at 200% resolution scale quale è?
questa è la nota sotto al video:
"NOTE: 1080p at 200% resolution scale = 8 294 400 pixel upscale | 4K Native = 8 294 400 pixels, thus both will have the same relative performance. This is the only way for me to test 4K performance on Vega 64. This is compared against a Stock 1080 Ti both using a 7700k."
cioè, come si può vedere da quest'altro video (del solito YTer):
https://www.youtube.com/watch?v=4PvCBny1zxQ
il tizio ha preso il semiquadro relativo alla 1080Ti di quest'ultimo e ha comparato con un'altra scheda?
non si capisce nemmeno se usano lo stesso OS, figurati a chiedersi se fosse la stessa build, ed a seguire stessi settaggi macchina e software.

Originariamente inviato da: nickname88
Quindi se non hai cpu ad alta frequenza le GPU Nvidia non vanno ? PROVALO


prendi qualsiasi gioco e moltiplica il valore del benchmark a 4K per 4.
se non è corrispettivo a quello a 1080p significa che c'è un collo di bottiglia dovuto in massima parte alla CPU.
tutte le GPU soffrono questo scaling teorico sulla risoluzione, ma c'è chi ne soffre di più e chi di meno.
http://www.guru3d.com/articles-page...k-review,6.html
prendiamo questa sequenza su un gioco che, più o meno, non modifica i parametri di carico all'aumentare della risoluzione.
e lo vedi da questo in riferimento ad una titan X.

http://www.guru3d.com/index.php?ct=...le&id=25201

i rapporti tra i diversi settaggi sono sempre gli stessi alle tre risoluzioni.
significa che tra 4K e 1080p la differenza di carico rimane costante.
la prima curva, che si riferisce a 1080p con frame su setting ti riporta 130fps per minimum e 80 per ultra, rapporto 0.62.
la curva più bassa, per il 4K, riporta 33fps ultra 50fps minimum, circa 0.66.

appurato questo andiamo a guardare lo scaling sulla risoluzione:
prendiamo i 33 del 4K ultra e moltiplichiamo per 4 otteniamo 132, non 80.
nella situazione 4K abbiamo che il processore è sicuramente in grado di produrre 33fps e stare dietro alla scheda, visto che come minimo ne può produrre 130 (minimum FHD), e sul processore gravano driver e meshing, con quest'ultimo che non dovrebbe cambiare affatto.
in FHD invece il limite diventa il processore.
la maggiore complessità della scena riduce la possibilità di generare frame.
preso 80 come riferimento massimo delle soluzioni pascal con la titan X, andiamo a guardare la 1080 che ne fa 63.
in quella condizione il processore non ha limitazione, in quanto dimostra che ne può produrre minimo 80.
vai a 4K e la 1080 fa 25fps.
25x4 sono 100fps.
al limite il processore ne potrebbe produrre 80, ma la scheda ne fa 63.
non sei quindi in CPU limited per il meshing, ma per il lavoro dei driver.
un CPU limited metterebbe tutte le schede con una determinata potenza allo stesso livello; tutte quelle che ci arrivano faranno massimo 80 come limite, e dal teorico anche una 1070 può fare 80, visto che in 4K ne produce 20 (e 20x4 fa 80 non 51).
ciò significa che le pascal hanno una perdita di computazione per limite dell'architettura, non del processore.
la stessa analisi la puoi effettuare sulle AMD.
te la faccio dopo perchè ora devo andare (ho una vita).

ok, continuiamo con l'analisi.

sulla fury x otteniamo 28 su 85fps, ossia un rapporto di 0.33

il nostro ideale teorico è di arrivare ad un rapporto 0.25, ossia 4, se lo vedi invertito, che è il rapporto tra i pixel che ci sono tra FHD e 4K.
più ti avvicini a questo rapporto, più la soluzione video scala in modo più vicino al lineare (ossia è proporzionale).
in questo gioco e con preset high la memoria richiesta a 4K non limita schede con 4GB (fury x), quindi non hai collo di bottiglia dovuto agli stenti della memoria della GPU.

come hai fatto notare sotto (sbagliando):
Originariamente inviato da: nickname88
Assolutamente no, il carico sulla VGA prima di tutto non è esclusivamente dato dalla risoluzione, e se fai 25fps in 4K, anche se su una stessa VGA non vuol dire assolutamente che a 1080p ne farai 100

la risposta è che il carico sulla VGA è proporzionale alla risoluzione, perchè i suoi calcoli sono inerenti esclusivamente a quello.
stesso preset a risoluzioni diverse hanno stesso perso di costruzione texture ed effetti moltiplicati per il rapporto che esiste tra le risoluzioni.
è la CPU che è gravata diversamente, perchè il suo carico deriva da diversi fattori.
sulla CPU hai la fisica, l'IA, l'audio spazializzato i driver video ed il meshing della scena 3D.
fisica, IA ed audio influiscono in quota fissa indipendentemente dagli fps.
sono variabili che si contano sul tempo, non sulla generazione di scene nel tempo.
meshing e driver video invece si qualificano come variabile che grava sulla generazione dei frame.
il meshing non è però legato alla risoluzione, ma al dettaglio della scena, semmai (più oggetti o più vertici per gli oggetti ed i pesonaggi);
la richiesta di potenza è quindi proporzonale alla quantità di frame.
i driver, invece aumentano il loro lavoro per l'aumento della risoluzione e dei frame.
ti viene fuori una legge che è ax^2+bx+c, un classico braccio di parabola (prendendolo positivo, naturalmente).
ax^2 è frame per risoluzione dovuto ai drive;
bx è frame dovuto al meshing;
c e il lavoro dovuto ai fattori costanti (ai, fisica ed audio, oltre che networking e menate varie).
quindi al diminuire della risoluzione a si abbassa, ma essendo x quadrica questo addendo ha comunque un peso assai elevato rispetto a quello lineare di b per x.
ammettendo che hai 100 di possibilità di computo della CPU, e con risoluzione infinita avresti 0 frame, puoi ricavarti quanto pesa il driver grafico nell'insieme.
meno pesa, più puoi distribuire meglio la potenza della CPU tra il lavoro della generazione del meshing e del far operare i driver grafici.

in generale più aumenti i frame più potenza ti serve rispetto ad un prospetto lineare (e lo potresti vedere anche usando il cap frame dei driver: prendi il valore FHD, dividi per 4 e metti il cap frame a quel valore, poi vai a leggere quanto CPU ci vuole per il 4K e vedrai che sarà molto inferiore.
se fosse lineare avresti lo stesso carico).

a tutto questo puoi rimediare cercando di minimizzare alcuni lavori che il driver porta avanti.

ci spostiamo anche su questi grafici, in modo da includere vega 64:
http://www.guru3d.com/articles_page..._review,18.html
qui dobbiamo però riferirci ai valori che misurano in high preset, ossia quelli in celestino, più alti, che vedi per ogni scheda.
controlliamo che la titan x o la 1080 Ti, visto che fornisce la medesima prestazione, rientri nel rapporto trovato prima per assicurarci che tutto sia conseguenziale e troviamo:
4K = 46
1080p = 121
rapporto 46/121= 0.38
siamo passati però a DX12, e nell'altra serie di grafici la titan x faceva 40 in 4K e 105 in FHD, il che indica che c'è stato un buon maneggiamento sui driver in un anno di differenza (sett 2016 contro agosto 2017), che ha portato la media da 40 a 46 e da 105 a 121fps.
40/105=0.38
possiamo quindi affermare che anche se c'è stato un aumento del 15% del framerate questo si è mantenuto costante sia a bassa risoluzione che elevata risoluzione.
quindi le considerazioni fatte prima dovrebbero rimanere comunque valide.

analiziamo i dati di vega 64:
vega ci da 38 a 4K e 100 in FHD.
38/100=0.38
otteniamo quindi anche qui il medesimo rapporto.
possiamo vedere però che anche la fury x ha mantenuto il suo rapporto, con 30 su 90, ossia 0.33.

ora prendiamo un diverso set di dati:
https://www.eteknix.com/asus-strix-...-card-review/3/
leggermente più recente (ma che influisce solo sui driver di vega 64, essendo fatto a dicembre 2017 e non agosto).
la differenza in questo set è che è stato usato l'identico processore, ossia un 5960X, ma questa volta a stock value e non a 4.4Ghz all core (da guru 3D: "Our test system is based on the eight-core Intel Core i7-5960X Extreme Edition with Haswell-E based setup on the X99 chipset platform. This setup is running 4.40 GHz on all cores."; da eTekinc:"Processor – Intel Core i7 5960X at stock with Turbo enabled".
in questo caso abbiamo tagliato la frequenza a 3Ghz (tanto fa il 5960X quando usi più di 2 core insieme.. il suo turbo è di 3.5Ghz solo se usi un core e gli altri sono a riposo).
la seconda differenza sul preset standard è questa per eTeknix:
"For this game, we use the Very High preset, with some small changes to increase the Texture Filtering, turn off the AA, and all V-Sync settings."
preset very high senza AA, ma anche guru 3D esegue gli stessi test senza MSAA abilitato ("ou can select various quality settings. We use HIGH image quality settings at DX12 and no MSAA".
a questo punto leggiamo che la 1080 Ti, su deux ex, che è un gioco che sfrutta bene i multicore, si attesta sui 98.1fps in DX12 FHD VH, contro i 119 fps che avevano in high su guru 3D (dobbiamo prendere a riferimento la gigabyte aurus 1080 Ti, visto che le altre sono con memorie a 11Gbit).
attento:
se la scheda fosse il collo di bottiglia a questa risoluzione, la spigazione sarebbe che i minori FPS siano dovuti al passaggio da HIGH a VERY HIGH;
se invece lo fosse il processore a causa della minore frequenza si allude al fatto che sui grafici di guro 3D la titan X potrebbe esprimere molto di più se avesse un octacore a 5ghz.
sempre su guru 3D, nel grafico del peso dei preset, possiamo andare a vedere che tra HIGH e VERY HIGH il computo è +13% ( http://www.guru3d.com/articles_page...k_review,6.html )... avevamo già osservato che i preset erano molto regolari nell'incidere su peso grafico.
ora 98.1+13% hai 110fps, non 119.
significa che con l'unica differenza del processore siamo passati da 119 a 110, senza considerare il fatto che probabilmente anche i 119 già soffrivano per una CPU a bassa frequenza.
prendiamo la fury X e vediamo che ottiene 70.4 nelle condizioni di eTeknix.
70.4+13%=80, contro i 90 di guru 3D.
anche qui vediamo che l'avere una CPU a basso clock ha il suo peso, con questa soluzione, in questo gioco.
prendiamo ora la vega 64.
qui abbiamo la strix, ma quella scheda, con il processore a 3ghz, va il 7%in più della vega 64 reference con processore a 4.4ghz, ed in più dovresti metterci anche il 13% in più dovuto alla differenza tra il setting che c'è tra le due diverse reviews.. a dire tanto doveva fare si e no 94fps non 107....
tutto merito dei driver? un +15%?
può essere, d'altronde la patch di deus ex ha migliorato proprio in quella misura le soluzioni nvidia e la fury x, ma vega è stata provata da guru 3D già con la patch...
ci spostiamo sulla risoluzione 4K e vediamo che la vega scende a 37.7fps, contro i 38 di guru 3D.
tutto solo driver? l'aumento di carico dovuto al preset, che influisce mediamente per il 13%, è del tutto annullato, ma allora perchè la 1080 Ti passa da 46 a 38, accusando un -20%?

bene, la risposta è: PROCESSORE.
senza alti clock le soluzioni nvidia, che gravano maggiormente sui driver e quindi sulla CPU, hanno una diminuzione di frame (e lo vedi anche confrontando la 1080, con dati in linea con la scala della 1080 TI).
le vega soffrono molto meno ed un 3ghz riesce comunque a farle andare adeguatamente.
ora qui sei al cospetto di un gioco che usa bene più di 4 core e che quindi minimizza, in parte, il problema, ma le soluzioni nvidia non sono adattre ad utilizzare ne le DX12 ne tantomeno oltre il numero dei core di quanti GPC contano, perchè per sfruttarne di più devono ulteriormente far operare il GPC in due thread diversi... lavoro in più per riunificarli dopo sui driver.

quindi, anche se con grande confusione dovuta al fatto di trovare i giusti test (quelli che portano differenze sul processore) e doverli riparametrizzare, puoi ben vedere quale è la differenza.

hai capito perchè la maggiorparte dei test ti mostra esclusivamente quello che il produttore più forte vuole farti vedere?
e tu mi tiri fuori video di influencer di YT che non si sa ben precisamente ne che siano ne tantomeno chi li paga a confronto di dati tirati fuori da presunti professionisti del settore?

ma smettila d'importunarmi.
nickname8829 Aprile 2018, 12:47 #67
Originariamente inviato da: lucusta
"C'è sempre una scusa, eh " non lo dovrestri scrivere a me, ma a chi manipola i settaggi per farti vedere quello che vuole.
Si sono tutti complotti contro AMD.
Poi chissà perchè non esistono articoli realizzati apposta sull'utilizzo CPU con Vega e le Nvidia ... misteri della fede.

prendi qualsiasi gioco e moltiplica il valore del benchmark a 4K per 4.
se non è corrispettivo a quello a 1080p significa che c'è un collo di bottiglia dovuto in massima parte alla CPU.
Assolutamente no, il carico sulla VGA prima di tutto non è esclusivamente dato dalla risoluzione, e se fai 25fps in 4K, anche se su una stessa VGA non vuol dire assolutamente che a 1080p ne farai 100

Nè tutto l'HW reagisce sempre al medesimo modo, architettura GPU e specifiche tecniche della scheda anche elementari influiscono in primo piano, la scalabilità del frame rate con una VGA al salire o scendere della risoluzione di conseguenza non non ha mica una proporzionalità fissa, nè di certo può centrare in questa tua tesi.







https://www.techpowerup.com/reviews...Ti_FTW2/28.html


Fra 1080p e 4K fra Vega e 1080 liscia c'è un gap totale sulla scalabilità del 5% a vantaggio di Vega ( passerebbe da -3% a +2% )
Questo vuol dire solamente che Vega 64 intesa come scheda scala un po' meglio al salire ( aiutino della HBM ? ) e non che sia meno CPU limited.
E infatti la 1080Ti scala ancora meglio rispetto alla Vega, quindi secondo te la Ti usa ancora meno la CPU ?


Detto ciò, non centra una mazza tutto questo con il carico sulla CPU.
[B][COLOR="Red"]Vorremmo vedere un confronto DIRETTO se è permesso su piano pratico ( in game ), al posto delle parole[/COLOR][/B]
lucusta29 Aprile 2018, 14:00 #68
Originariamente inviato da: nickname88
Si sono tutti complotti contro AMD.
Poi chissà perchè non esistono articoli realizzati apposta sull'utilizzo CPU con Vega e le Nvidia ... misteri della fede.

Assolutamente no, il carico sulla VGA prima di tutto non è esclusivamente dato dalla risoluzione, e se fai 25fps in 4K, anche se su una stessa VGA non vuol dire assolutamente che a 1080p ne farai 100

Nè tutto l'HW reagisce sempre al medesimo modo, architettura GPU e specifiche tecniche della scheda anche elementari influiscono in primo piano, la scalabilità del frame rate con una VGA al salire o scendere della risoluzione di conseguenza non non ha mica una proporzionalità fissa, nè di certo può centrare in questa tua tesi.







https://www.techpowerup.com/reviews...Ti_FTW2/28.html


Fra 1080p e 4K fra Vega e 1080 liscia c'è un gap totale sulla scalabilità del 5% a vantaggio di Vega ( passerebbe da -3% a +2% )
Questo vuol dire solamente che Vega 64 intesa come scheda scala un po' meglio al salire ( aiutino della HBM ? ) e non che sia meno CPU limited.
E infatti la 1080Ti scala ancora meglio rispetto alla Vega, quindi secondo te la Ti usa ancora meno la CPU ?


Detto ciò, non centra una mazza tutto questo con il carico sulla CPU.
[B][COLOR="Red"]Vorremmo vedere un confronto DIRETTO se è permesso su piano pratico ( in game ), al posto delle parole[/COLOR][/B]


ti ho chiesto di aspettare, perchè non è il classico post da news, ma una cosa leggermente più elaborata (ed ho anche io una vita.. con questo solo preferisco portare la bimba al parco che cercare di farti capire le cose).

per quanto riguarda i relative performance di TPU... te l'ho già scritto di lasciarli stare, che portano solo confusione.
ora fammi finire il post di prima.
nickname8829 Aprile 2018, 14:37 #69
per quanto riguarda i relative performance di TPU... te l'ho già scritto di lasciarli stare, che portano solo confusione.
nessuno ti vieta di guardare gioco per gioco.
lucusta29 Aprile 2018, 19:02 #70
Originariamente inviato da: bagnino89
Sembra un po' l'atteggiamento di chi non sa che pesci prendere. Che poi il ragionamento di lucusta mi sembra tutt'altro che valido.

1) Il 7700K, a default, in giochi come BF1 non va a 3800 MHz all core, ma a 4400 MHz. A 3800 MHz ci arriva, al limite, all core eseguendo istruzioni AVX, ma non è questo il caso.

2) La differenza min/max dell'occupazione della CPU con le due GPU è talmente piccola che non ha alcun valore statistico. Tra l'altro si basa su due rilevazioni istantanee che sono perturbate da mille fattori: scena elaborata in corso, occupazione della CPU in quel momento, vattelapesca vari, ecc.

3) Continua a non dimostrare che Vega va meglio con CPU a frequenza di lavoro più bassa. Provasse a cercare CPU come i Ryzen o gli 8400, che non possono superare i 4 GHz in alcun modo... Ma non credo che riuscirà a provare la sua tesi. Tra l'altro lui più e più volte parlava di CPU anche a meno di 3 GHz, 3.8 GHz mi sembrano molti di più.



Questo è un corollario, in realtà la tesi di lucusta è che le Radeon vanno anche con CPU a meno di 3 GHz (cito a memoria parole sue). Effettivamente l'onere della prova spetta a chi propone una tesi, non spetta agli altri dimostrare che essa sia sbagliata. E' un po' come se io dicessi che ho una Bugatti Chiron in garage: sono io a dover dimostrare adeguatamente di possederla, non sono mica gli altri a potersi sobbarcare la pena di falsificare la mia affermazione. Non avrebbero la possibilità pratica di farlo.

Se poi resta una tesi non verificabile, tutt'al più la si potrà definire congettura, ammesso che abbia un fondo di validità teorica. Se manca anche quest'ultima, allora il termine tecnico che usano gli epistemologi è doxa, ovvero è una semplice opinione. Quindi, nel migliore dei casi, la sua resta una congettura in mancanza di evidenti prove sperimentali.




A seguire alcune clausole per evitare di scatenare inutili putiferi.

PS1. Scuse del tipo "io sono nato ben prima di voi", "seguo HW dagli albori", "sono reduce decorato del Vietnam" ecc. non sono affermazioni valide per sviare dalla richiesta di provare una tesi. Qui l'età ed il nonnismo non hanno alcuna autorità. Così come usare insulti vari. Qui, lucusta, tutti quelli che ti vanno contro - me compreso - lo fanno sul piano tecnico, non personale. Battute e scherni che restano sul piano tecnico ci stanno, sul piano personale no.

PS2. Non so con chi tu mi abbia confuso, ma su Tom's non sono stato assolutamente bannato e il mio account è ancora lì bello attivo. Tra l'altro, per curiosità, ho rieffettuato l'accesso dopo secoli e rimpiango questa scelta perché sono già colpito da newsletter spam. Su Tom's non ho mai risposto ad un tuo post.

PS3. Non hai l'autorità per impormi cosa scrivere o meno sulla mia firma. Se tu sei libero di dire che le Pascal non sono efficienti, anche io lo sono. Adesso non c'è alcun riferimento diretto a te, quindi non hai di che lamentarti.

@lucusta: se ti risulta impossibile rispettare i PS di cui sopra, o proporre prove valide a dimostrare la tua congettura/doxa, puoi tranquillamente ignorare il mio post.


e andiamo a quest'altro:

1) parliamo di setting default, non in overclock.
fa base clock 4.2ghz finchè può, 3.8 se usi le AVX.

2)non è solo questo l'handicap, ma anche il fatto che sono collage di video presi uno di qua ed uno di là... se non hai esattamente la stessa macchina risulta difficile il confronto.

3)vedasi sopra.

PS1:il fatto che venga citata la questione che alcuni di noi girano da molto più tempo di voi su questo ed altri forum non è un messaggio essenzialmente per voi, ma per i moderatori;
si scrive per incitarli ad intervenire verso atteggiamenti che hanno palesemente stancato; non sapete fare nemmeno la giusta ironia.
è una silente lamentela sul fatto che non si riesce più a scambiarsi idee come una volta, con implicita richiesta d'aiuto onde evitare poi di doversi impelagare con bulletti da tastiera o cessare di frequentarlo; un forum in cui ci sono 4 gatti che si spalleggiano non è una gran cosa da portare avanti...
(altra messaggino telegrafato ai moderatori, se non l'hai capito).

PS2:non sò con chi mi confondi te, ma io non sono un ingenuo, amico mio.

PS3:ho ancora l'autorità per chiedere ad un moderatore d'infliggetri una penale per aver fatto una cosa contro il regolamento, e non importa che oggi non hai più il link, importa che lo hai fatto e che continui imperterrito ad avere lo stesso atteggiamento.
tiri il sasso e nascondi la mano?
nella vita non funziona così e, realmente, non ti conviene stuzzicarmi ancora, perchè io sono 30 anni che sono "on line" (e nell'89 mi facevo le mie belle scopate, giusto per scendere al livello a cui avete portato il forum) e posso passare minimo i prossimi 40 a prendermela con te soltanto.
quindi cosa vuoi?
guerra o pace?


a me non porta nessuna sostanziale differenza;
non ho mai messo nessuno in black list, proprio perchè leggo "la voce" di tutti (ma proprio tutti), e magari discuto su quanto scritto.
sei solo tu che devi decidere.

ora hai espressamente capito o vuoi che sia più schietto di così?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^