AMD Radeon RX Vega 64/56/56 Nano: Tests/Meinungen im Netz. Links in Post 1

Hi,

ich frage mich jetzt gerade ob das vorher noch niemanden aufgefallen ist, wenn ich mir den VegaThread im HWL anschaue, dann lassen da welche ihre Karten mit Ramtakt über 1100 laufen, angeblich mit Vcore gesenkt! :o

Mfg
macom
 
Vielleicht ist es beim HBM auch anders.....wer weiß.
Ich habe im Superposition Benchmark mit 950 Mhz ca. 30 Punkte mehr gehabt als mit 900 Mhz mit der V56. Bei ca. 4330 also 30 mehr , das ist nichts. Evtl. ist das mit einer V64 anders die hat mehr Einheiten zu füttern.
1000 mhz laufen bei mir nicht , bei 980 Mhz ist Ende. Bei 990 Mhz gibt es Fehler, trotz Samsung Ram da die V56 wohl nur 1.25V auf den Ram gibt und die V64 1.35V.
Vielleicht gibt es ja ein Programm mit dem man die Speicherleistung von GPUs testen kann.
 
Diejenigen die 1100Mhz RAM fahren haben das BIOS der Liquid Edition drauf + Wasserkühlung. Da geht dann einiges mehr.
Würde ich für den Alltag aber nicht empfehlen.

Bei meinen Vega64s ist zum Beispiel die Spannung vom HBM2 nur 1,100 Volt laut Wattman.
Mit dem Liquid Edition Bios kann ich dort bis 1,350 Volt angeben.

Zumindest beim Betrieb von 2 Vega64 stelle ich immer wieder fest, das es eher unvorteilhaft ist.
Sei es falsches bzw unterschiedliches Hochtakten der beiden GPU oder RAM.
FPS-Einbrüche unter 100% Last unter 4K Auflösung.
Sehr hoher Verbrauch und kaum Mehrleistung.
 
Zuletzt bearbeitet:
Mal eine Frage in die Runde:

Ich habe hier zwei luftgekühlte ASUS ROG Strix Vega64. Eine davon werde ich vermutlich wieder veräußern, da das Projekt, was ich mit den Karten eigentlich aufziehen wollte, nicht zu Stande zu kommen scheint.

Eine der Karten ist im 3DMark TimeSpy reproduzierbar ca. 3 Prozent schneller als die andere Karte. Andere Benchmarks habe ich bisher nicht ausprobiert - ich gehe aber davon aus, dass es dort auch so ist.

Lässt sich aufgrund des Leistungsunterschiedes darauf schließen, dass die schnellere Karte unter OC auch die bessere Wahl sein könnte? Oder ist diese Momentaufnahme hinfällig, wenn man sich ernsthaft mit OC beschäftigt?!

Ich habe keine Lust, beide Karten erst auf Wasser umbauen zu müssen, nur um dann eventuell festzustellen, dass ich die bessere Karte schon unter Luft hätte auswählen können... *chatt*

Was sagen eure Erfahrungswerte?!
 
Jo würd ich auch vermuten das die 3% davon kommen das die karte weniger leckströme hat und deswegen effizienter arbeitet bzw denn boost besser halten kann, daher wird sie im UV Bereich sicher besser sein beim OC kann es sein muss aber net
 
Statt dem Umbau auf Wasserkühlung würde ich weitere Messungen (nicht bloß reine Benchmarks, wenn zumutbar) mit beiden Karten vornehmen und hierbei den/die PowerTune-Regler in mind. 3 je weit voneinander weg liegende Positionen setzen. So könntest du grob abklopfen, wie die Kontrahenten sich mit verschiedenen energetischen Parametern verhalten.

Alternativ könntest du schlicht wenig realistische UV- und/oder OC-Vorgaben setzen: Welche dann unter identischen Realbedingungen (Lieblingsspiele in max. Optik mit höchstem VSR? Auf max. FPS getrimmte Lieblingsspiele? Unterschiedliche display refresh rates? Wie du die Karte eben nutzen möchtest) schlimmere Fehler produziert, wird aussortiert.
 
Statt dem Umbau auf Wasserkühlung würde ich weitere Messungen (nicht bloß reine Benchmarks, wenn zumutbar) mit beiden Karten vornehmen und hierbei den/die PowerTune-Regler in mind. 3 je weit voneinander weg liegende Positionen setzen. So könntest du grob abklopfen, wie die Kontrahenten sich mit verschiedenen energetischen Parametern verhalten.

Alternativ könntest du schlicht wenig realistische UV- und/oder OC-Vorgaben setzen: Welche dann unter identischen Realbedingungen (Lieblingsspiele in max. Optik mit höchstem VSR? Auf max. FPS getrimmte Lieblingsspiele? Unterschiedliche display refresh rates? Wie du die Karte eben nutzen möchtest) schlimmere Fehler produziert, wird aussortiert.

Zugegeben, das sind gute Ansätze.

Irgendwie habe ich dann aber doch kein Bock auf hohen Aufwand... :( Ich werd es wohl beim Bauchgefühl belassen und die langsamere Karte abstoßen.
 
Nur aus Neugierde: wie laut ist die Asus unter Last (z.B. Boinc) ?
 
Nur aus Neugierde: wie laut ist die Asus unter Last (z.B. Boinc) ?

Das kann ich dir leider nicht sagen, da ich ausschließlich 3D-Benchmarks getätigt habe. Noch nicht mal gezockt habe ich mit den Karten... *chatt*

Das Betriebsgeräusch ist im offenen Aufbau relativ laut, allerdings in einer Tonlage, die noch ok ist. Mit -25 Prozent Powertarget ist es dann nach meinem Empfinden absolut in Ordnung, die Leistung nimmt dadurch aber kaum ab.

Der Kühler hält die Karte aber - zumindest in meinem offenen Aufbau - relativ kühl. Sie stößt ans Powerlimit und wenn GPU-Z recht hat, dann liegt die Temperatur in diesen Fällen bei mittigen 60 Grad.
 
Hm, das ist doch eigentlich ein uralter Hut, Gehäuselüfter auf den Originalkühler zu schrauben.
Ghetto-Mod 2.0 ??? Jaja, die Jugend von heute. ;)
 
Sicherlich, zumal man auch die (sicherlich brauchbaren) Ergebnisse nicht geliefert bekommt, aber zumindest bei volle Pulle kühlt das ordentlich.

Den Namen "GhettoMod" hab ich da komplett nicht beachtet, die Bezeichnung finde ich auch panne.

Wobei meine Erfahrung leider ist das Markenlüfter die Grafikkartenlüfter von A, B und C leider oft toppen.
TOP war ein 120mm Enermax auf einem Arctic S1 auf ner HD5770 - unhörbar !
Medium waren die zwei 80er auf der Gigabyte HD6850, und das auch nur nach einem BiosUpdate.
Medium war der 85mm auf der Gigabyte GTX 650 Ti, TOP dafür ein 120mm Scyhte SLIM 800rpm auf einem Arctic S1.
Richtig gut ab Werk waren die beiden 85/90er auf der MSI GTX760 TwinFrozr.
Die beiden 90er auf der Sapphire RX570 hingegen brauchen anscheinend erst Einlaufzeit und sind eher röhrig.
Wären auf den rückwärtigen Kühlerschrauben kein Aufkleber/Siegel hätte ich wohl schonmal rumgeschraubt, aber bei einer 2 Monate alten Karte schon die Garantie opfern ?
 
Hi zusammen,

Was den GhettoMod angeht.. bin ich so überhaupt kein Fan von. ;)
Und was die Lautstärke angeht.. bin ich mit meiner Sapphire Nitro+ überaus zufrieden.

Eine der Karten ist im 3DMark TimeSpy reproduzierbar ca. 3 Prozent schneller als die andere Karte. Andere Benchmarks habe ich bisher nicht ausprobiert - ich gehe aber davon aus, dass es dort auch so ist.

Lässt sich aufgrund des Leistungsunterschiedes darauf schließen, dass die schnellere Karte unter OC auch die bessere Wahl sein könnte?
Oder ist diese Momentaufnahme hinfällig, wenn man sich ernsthaft mit OC beschäftigt?!
Was sagen eure Erfahrungswerte?!

Was den Leistungsunterschied angeht.. du hast die beiden aber mit den selben VGA Bios Versionen gebencht..??
Oder hat die ROG Vega keinen Schalter ??

Meine Nitro+ macht im Silent Bios sogar ein Boost v. 1600 mhz (GPU-Z, Game-Forza Horizon4, Log File)
Im Aktuellen Basemark Bench Official-DX12 - 5934 Punkte (1578Mhz)

Also würde ich eher auch nach dem Post vom Unbekannter Krieger entscheiden..

Aber was f. ein Projekt wars denn eigentlich.. ;)

Grüße
 
mhz_vegas_gta5_4k_balance.jpgwatt_vegas_gta5_4k_balance.jpgcpuauslastung_vegas_gta5_4k_balance.jpgvolt_vegas_gta5_4k_balance.jpg

zum thema Mhz und verbrauch von Vega.
Hier einmal eine Run von GTA5 Benchmark in 4 K mit 2xvega64@ekwk fullcover block und treiber profil balance und aktuellen treiber.
prozessor ist ein 1700x@3,7Ghz all cores
man sieht das die takraten nur minimal abfallen.

auch schön zu sehen wie alle threads und die beiden gpus von gta5 genutzt werden.
bei blanace und bios1 sieht man das der verbrauch mit max 250 watt voll in ordnung geht.

nochmal zum vergleich des verbrauchs mit benutzerprofil +50%pt 975Mhz RAM-takt , enhanced sync und 60 fps framelimit per treiber.
mhz_vegas_gta5_4k_50pt_esync_60fpslimit.jpgwatt_vegas_gta5_4k_50pt_esync_60fpslimit.jpgcpuauslastung_vegas_gta5_4k_50pt_esync_60fpslimit.jpgvolt_vegas_gta5_4k_50pt_esync_60fpslimit.jpg
 
Zuletzt bearbeitet:
zum thema Mhz und verbrauch von Vega.
Hier einmal eine Run von GTA5 Benchmark in 4 K mit 2xvega64@ekwk fullcover block und treiber profil balance und aktuellen treiber.
prozessor ist ein 1700x@3,7Ghz all cores
man sieht das die takraten nur minimal abfallen.

auch schön zu sehen wie alle threads und die beiden gpus von gta5 genutzt werden.
bei blanace und bios1 sieht man das der verbrauch mit max 250 watt voll in ordnung geht.

*great*
Ich sollte mir evtl. auch nochmal GTA in 4k geben.. ;)
 
mit einer karte wird es wahrscheinlich mit sehr hohen details eng mit den 60 fps, im singelplayer sollte es aber gehen.
es ist egal ob die vsr und einer auflösung in 4k im spiel wählst oder das upscaling in den grafikoptionen auf 2x und 1080p als auflösung.
upps da war ja 2xMSAA noch aktiv :D

20180103182733_1.jpg

FPS-Ergebnis zu den ersten Diagrammen blanace und bios1
Frames Per Second (Higher is better) Min, Max, Avg
Pass 0, 9.543267, 80.278152, 62.502270
Pass 1, 48.112915, 130.594437, 77.221855
Pass 2, 50.138268, 136.594177, 74.264030
Pass 3, 29.443426, 133.041748, 94.479958
Pass 4, 38.189438, 146.581696, 81.187798

FPS-Ergebnis zum den zweiten Diagrammen mit Framelimiter 60FPS:
Frames Per Second (Higher is better) Min, Max, Avg
Pass 0, 7.469109, 72.228310, 59.483154
Pass 1, 47.272995, 71.407440, 60.228661
Pass 2, 44.958225, 72.552338, 60.084354
Pass 3, 26.013632, 75.372612, 60.196613
Pass 4, 25.490725, 83.435608, 58.906879

hier mal meine settings.xml. bei nur einer karte musste wahrscheinlich auf 2xMSAA deaktivieren. der rest sollte OK sein.
ist für 1080p mit 2x upscaling per Spiel

C:\Users\%USER%\Documents\Rockstar Games\GTA V\settings.xml

<?xml version="1.0" encoding="UTF-8"?>


<Settings>
<version value="27" />
<configSource>SMC_AUTO</configSource>
<graphics>
<Tessellation value="2" />
<LodScale value="1.000000" />
<PedLodBias value="0.200000" />
<VehicleLodBias value="0.000000" />
<ShadowQuality value="1" />
<ReflectionQuality value="2" />
<ReflectionMSAA value="0" />
<SSAO value="2" />
<AnisotropicFiltering value="16" />
<MSAA value="2" />
<MSAAFragments value="0" />
<MSAAQuality value="0" />
<SamplingMode value="8" />
<TextureQuality value="2" />
<ParticleQuality value="1" />
<WaterQuality value="0" />
<GrassQuality value="0" />
<ShaderQuality value="2" />
<Shadow_SoftShadows value="1" />
<UltraShadows_Enabled value="false" />
<Shadow_ParticleShadows value="true" />
<Shadow_Distance value="1.000000" />
<Shadow_LongShadows value="false" />
<Shadow_SplitZStart value="0.930000" />
<Shadow_SplitZEnd value="0.890000" />
<Shadow_aircraftExpWeight value="0.990000" />
<Shadow_DisableScreenSizeCheck value="false" />
<Reflection_MipBlur value="true" />
<FXAA_Enabled value="false" />
<TXAA_Enabled value="false" />
<Lighting_FogVolumes value="true" />
<Shader_SSA value="true" />
<DX_Version value="2" />
<CityDensity value="1.000000" />
<PedVarietyMultiplier value="1.000000" />
<VehicleVarietyMultiplier value="1.000000" />
<PostFX value="2" />
<DoF value="false" />
<HdStreamingInFlight value="false" />
<MaxLodScale value="1.000000" />
<MotionBlurStrength value="0.000000" />
</graphics>
<system>
<numBytesPerReplayBlock value="9000000" />
<numReplayBlocks value="36" />
<maxSizeOfStreamingReplay value="1024" />
<maxFileStoreSize value="65536" />
</system>
<audio>
<Audio3d value="false" />
</audio>
<video>
<AdapterIndex value="0" />
<OutputIndex value="0" />
<ScreenWidth value="1920" />
<ScreenHeight value="1080" />
<RefreshRate value="60" />
<Windowed value="0" />
<VSync value="0" />
<Stereo value="0" />
<Convergence value="0.100000" />
<Separation value="1.000000" />
<PauseOnFocusLoss value="0" />
<AspectRatio value="0" />
</video>
<VideoCardDescription>Radeon RX Vega (EG LEXINGTON)</VideoCardDescription>
</Settings>
 
Zuletzt bearbeitet:
Was den Leistungsunterschied angeht.. du hast die beiden aber mit den selben VGA Bios Versionen gebencht..??
Oder hat die ROG Vega keinen Schalter ??

Du wirst lachen, aber an die unterschiedlichen BIOS-Varianten habe ich überhaupt nicht gedacht. Daher musste ich das erstmal checken.

Auch die Strix hat zwei BIOS-Versionen (Q-Mode für "Quiet" und P-Mode für "Performance"). Beide Karten waren aber im P-Mode, also hatten beide identische Bedingungen. Ich musste aber tatsächlich erstmal schmunzeln als ich deinen Post gelesen habe, weil ich daran überhaupt nicht gedacht hatte - betriebsblind halt... *buck*





Aber was f. ein Projekt wars denn eigentlich.. ;)

Ich wollte ursprünglich äußerst umfangreiche Tests mit CrossFire/SLI machen. Das Ganze dann auf AM4 und TR4 um dann zu entscheiden, ob ich vielleicht meine beiden 1080 TIs rausschmeiße und durch die Vegas ersetze. Ich hab mir sogar extra dafür neben den beiden Vegas samt Wasserkühlern auch noch einen FreeSync-Monitor gekauft...

Nach allen Überlegungen ist mir aber der Aufwand zu hoch und obendrein habe ich schon bei den wenigen Tests, die ich überhaupt gemacht habe, einige Problemchen gefunden, die ich mir im Alltag eigentlich nicht antun will.
 
Sind die Versionsnummern des jeweiligen Grafik-BIOS ebenfalls identisch?
 
Mal eine Frage in die Runde:

Ich habe hier zwei luftgekühlte ASUS ROG Strix Vega64. Eine davon werde ich vermutlich wieder veräußern, da das Projekt, was ich mit den Karten eigentlich aufziehen wollte, nicht zu Stande zu kommen scheint.

Eine der Karten ist im 3DMark TimeSpy reproduzierbar ca. 3 Prozent schneller als die andere Karte. Andere Benchmarks habe ich bisher nicht ausprobiert - ich gehe aber davon aus, dass es dort auch so ist.

Lässt sich aufgrund des Leistungsunterschiedes darauf schließen, dass die schnellere Karte unter OC auch die bessere Wahl sein könnte? Oder ist diese Momentaufnahme hinfällig, wenn man sich ernsthaft mit OC beschäftigt?!

Ich habe keine Lust, beide Karten erst auf Wasser umbauen zu müssen, nur um dann eventuell festzustellen, dass ich die bessere Karte schon unter Luft hätte auswählen können... *chatt*

Was sagen eure Erfahrungswerte?!
Hallo, sind denn beide Karten im selben PCI Express Slot getestet worden oder manuelle Auswahl mit beiden Karten verbaut?
PCI Express Steckplatz Power Limit oder längere Datenleitungen zur zweiten GPU?!?
 
@MusicIsMyLife
log mal mit hwinfo alle sensoren, spannung und takt etc und schick mir das mal als csv datei. dann kann ich mal schauen wo die 3 prozent hin sind.

kannst auch schön selbst mit https://www.hwinfo.com/files/GenericLogViewer/GenericLogViewer_v4.0.zip ansehen was so los ist.
Ich hab mir mein eigenes PHP-Script dafür gebastelt, wo ich ganz einfach alle Werte sortieren ein und ausblenden kann :D
 
psst Windhund, falscher Thread ;)
 
Zurück
Oben Unten