[Usertest] AMD Radeon Vega Frontier Edition - Bilder, Benchmarks, Energiemessungen

Gute Idee, nehme ich mal auf die Wunschliste mit auf. :) Ich lade gleich noch schnell alle meine Ergebnisse als Excel-File hoch, vielleicht findet sich jemand, der schöne Diagramme zaubert. Somit ist aber alles absolut transparent nachvollziehbar.
 
@Casi30
Ich habe den Verbrauch im Auge, das deckt sich eigentlich immer mit den Aussagen von oben, je nach Auflösung und Benchmark liegt der Gesamtverbrauch des Systems zwischen 345W und 375W. Es macht keinen Unterschied, ob Fire Strike Ultra oder Superposition, es bewegt sich immer in etwa in diesem bereich.

Das Wichtigste,wieviel verbrauchte die RX 480?!
CPU + GPU waren rund 100Watt mehr bei Vega.
Wenn ich die 100watt jetzt auch bei der RX abziehe,dann passt das irgend wie überhaupt nicht mit dem Lastverbrauch,die RX bringt Deutlich mehr Leistung pro Watt und passt so garnicht zu meinen Messungen mit der RX 470......
Die meisten sind zwar schon was Älter,aber recht gut zum Messen:
http://www.pcgameshardware.de/Benchmarks-Thema-58180/Downloads/Benchmark-Download-749014/
http://www.geforce.com/games-applications/pc-games/resident-evil-6/downloads
http://mho.qq.com/cp/a20141201benchmark/en/index.htm
http://de.finalfantasyxiv.com/benchmark/download/
Und die drei:
https://benchmark.unigine.com/heaven

Wenn du einstellen kannst , alles auf Max und FullHD.
3 Runns und ne Messstelle suchen für den Identischen Verbrauch.
Die 3 Ergebnisse + und durch 3 Teilen , dazu den Max Verbrauch.
;D*great*
 
Zuletzt bearbeitet:
So, jetzt fliegen auch richtige Diagramme ein. War gestern einfach zu spät dafür. So sieht's jedenfalls schon besser aus :)

@Casi030
Naja, das Problem beim Verbrauch ist, dass ich nur Pi mal Daumen messen kann. Ersichtlich aus dem Energiediagramm ist doch zumindest schon mal der Mehrverbrauch der Vega FE ggü. einer RX 480.

Ich kann es ganz einfach nicht genauer bestimmen als so... Wie kommst du denn aber auf 100W mehr? Der Test von PC Perspective ist da sehr aufschlussreich, die können genauer messen als ich.

--- Update ---

Für alle BOINC-Interessierten:
https://boinc.thesonntags.com/collatz/results.php?userid=1566390
 
.
Wie kommst du denn aber auf 100W mehr?

Dein Diagramm ,dort schreibst Vega 473 Watt für CPU+GPU
ansonsten im Schnitt
....... 345W und 375W.......

Grob 100Watt weniger.
Da für die RX 480 keine weiteren Daten vorhanden sind,rechne ich dort auch einfach mal mit rund 100Watt weniger in deinem Diagramm.
100Watt........CPU/Wandler.....?!

Alles noch recht undurchsichtig bei dir.;)
 
Du machst Dir ja Arbeit, die ist nicht zu bezahlen.
Aber wenn ich mir jetzt mal so alles zusammen lese was es im Netz an Infos & Test´s zur Vega FE gibt bin ich erschrocken.
Ich weis das dies die FE Version ist, aber ! So viel Schneller wird die Gaming Variante dann auch nicht sein. Es sei denn die verbät 100 Watt mehr.
Ich habe keinen Überflieger erwartet, aber so etwa an die 1080Ti Leistung und Verbrauch hatte ich dann doch schon gehofft.

Ich bereue es fast schon so lange auf AMD gewartet zu haben. Das was bei Ryzen gut ( Leistung & Verbrauch ) ist ist bei Vega? naja
 
@Casi030
Ja, ich gebe zu, dass das mit der Energiemessung vll nicht das gelbe vom Ei gewesen ist. Ich nehme das mal mit auf auf meine Liste der Dinge, die ich noch prüfen möchte. Ob ich tatsächlich noch mal alles auseinander pflücke, will ich aber lieber nicht versprechen.

Deine Rechnung mit 100W weniger passt so aber nicht, weil im Fire Strike Ultra idelt die CPU ja nicht, die ist ja auch belastet. Vll nicht mit 100% am Anschlag, aber doch merklich. Ich meine Tom's Hardware hatte zum Release der RX 480 sehr detailierte Verbrauchsmessungen, eventuell lässt sich mit deren Zahlen grob errechnen, was für das System abzüglich Grafikkarte in Frage käme. Ist zwar noch immer nicht so schön wie selbst gemessen, aber eventuell kommt man da auf ein paar Zahlen.

Der verlinkte Test von PC Perspective spricht je nach Szenario von 240W-300W. Und ich denke dass man sich auf die Zahlen verlassen kann, die haben ja wirklich direkt an der Karte gemessen.

--- Update ---

@Gozu
Ich hab mal versucht, den Zcash Miner ans Laufen zu bekommen. Muss ich für den Benchmark-Modus zwingend auch an einem Pool angemeldet sein? Hast du sonst mal einen Account für mich, auf den ich minen kann? Gerne auch per PN.
 
Du machst Dir ja Arbeit, die ist nicht zu bezahlen.
Aber wenn ich mir jetzt mal so alles zusammen lese was es im Netz an Infos & Test´s zur Vega FE gibt bin ich erschrocken.
Ich weis das dies die FE Version ist, aber ! So viel Schneller wird die Gaming Variante dann auch nicht sein. Es sei denn die verbät 100 Watt mehr.
Ich habe keinen Überflieger erwartet, aber so etwa an die 1080Ti Leistung und Verbrauch hatte ich dann doch schon gehofft.

Ich bereue es fast schon so lange auf AMD gewartet zu haben. Das was bei Ryzen gut ( Leistung & Verbrauch ) ist ist bei Vega? naja
Falls noch nicht bemerkt, die Karte läuft momentan nur wie eine übertaktete Fury X die Architekturverbesserungen von GCN5 sind allesamt inaktiv. Dazu gehören so wichtige Sachen wie Tile-Based Rendering.
 
Falls noch nicht bemerkt, die Karte läuft momentan nur wie eine übertaktete Fury X die Architekturverbesserungen von GCN5 sind allesamt inaktiv. Dazu gehören so wichtige Sachen wie Tile-Based Rendering.

Sorry, wusste ich nicht!

Aber warum ? Ist ja nicht so das es diese Karte noch nicht zu Kaufen gäbe. Dann hätte AMD warten sollen bis das in dem Treiber alles läuft.
Wir wissen doch selber, die Neerds schaun jetzt auf den Test. Die interessiert es nicht was & wieso was nicht freigeschaltet ist.
Die sehen den Balken, und der ist nun mal mies!
 
In den anderen Foren wird gemutmaßt, dass es die Vega FE nur gibt, um die Investoren und Aktionäre zufrieden zu stellen. Es hieß bisher Vega = 1. Halbjahr 2017. Mit der Frontier Edition schafft man das, egal wie weit der Software-Support ist. So gibt's keine Möglichkeit, AMD verfehlte Geschäftsziele vorzuwerfen... Ob's tatsächlich der Grund ist? Man weiß es nicht.

--- Update ---

So, habe noch ein bisschen mit den Settings gespielt. Die besten Benchmarkergebnisse erziele ich aktuell mit Undervolting in Kombination mit minimaler Erhöhung des Power Targets. Das frisst zwar jegliche Ersparnis auf, aber die Ergebnisse sprechen für sich. Ich liege damit in etwa beim Energieverbauch der Stock-Settings, bekomme aber höhere Scores, weil der Takt von 1600 MHz dauerhaft gehalten werden kann. Das werden vermutlich meine Alltags-Settings werden.

UV_03a.PNGUV_03b.jpgUV_03c.jpg
 
Mal eine Überlegung meinerseits.
Die Karte soll sich ja in erster Linie an die Entwickler der Spiele richten, wäre es dann nicht eher ungünstig wenn die Karte von sich aus schon die Hälfte vom Bild verwirft weil sie der Meinung ist das es eh nicht sichtbar wäre? Man erinnere sich nur an den damaligen Affenzirkus um die unterschiedliche Bilddarstellung bei Ashes zwischen der Radeon und der Geforce.
War schon witzig wie die üblichen verdächtigen Gift und Galle wegen der angeblichen Fehldarstellung der Radeon spuckten, was auf einmal nicht mehr so schlimm war als sich rausstellte das die Geforce das falsche Bild ausgab. Was wurde überhaupt aus der Story? Wurde das mal gefixt?

Es wäre jedenfalls eine interessante Variante wenn sie im Standard Modus mit dem normalen Rasterizer und später beim Gaming Modus mit dem Tile Based Rendering laufen würde. Dann könnte man direkt das Ergebnis beider Varianten vergleichen.
 
Das ist eine interessante Idee. Vermutlich wird sich das aufklären, wenn es das nächste Treiberupdate gibt.

Zum Review gibt's noch ein paar Infos: so wie es aussieht, klappt die Zusammenarbeit mit Michael Larabel von phoronix.com. Er hat Nachts Fernzugriff auf meine Maschine und kann hoffentlich in den nächsten Tagen auch einige Linux-Benches präsentieren. Sobald es da etwas gibt, werde ich das hier auf alle Fälle durchgeben. Also bleibt weiter fleißig interessiert. :)
 
Zuletzt bearbeitet:
Mal eine Überlegung meinerseits.
Die Karte soll sich ja in erster Linie an die Entwickler der Spiele richten, wäre es dann nicht eher ungünstig wenn die Karte von sich aus schon die Hälfte vom Bild verwirft weil sie der Meinung ist das es eh nicht sichtbar wäre?
nein, das effektivere z-Culling bedeutet was anderes. Es geht um Teile einer Szene, die sowieso nicht sichtbar sind, weil andere Objekte von der Kamera aus gesehen davor sind (so wie das Licht im Kühlschrank ausgehen kann und soll, wenn er zu ist und keiner reinguckt). Die Szene muß erstmal aufgebaut werden, also werden diese Objekte auch erstellt, aber je früher klar wird, daß man daran nicht rumrechnen muß, weil es eh im Bild nicht erscheint, umso besser. Man muß also möglichst einfach und möglichst früh erkennen, was weg kann, ohne dabei aber Sachen wegzuschneiden, die man sieht.

Falls noch nicht bemerkt, die Karte läuft momentan nur wie eine übertaktete Fury X die Architekturverbesserungen von GCN5 sind allesamt inaktiv. Dazu gehören so wichtige Sachen wie Tile-Based Rendering.
deswegen heißt das Ding wohl Frontier Edition, weil man als User absoluter Frontkämpfer ist, Betatester für Bananaware. Dafür darf man ordentlich Kohle abdrücken und soll sich auch noch freuen ;)

Aber benutzbar ist sie ja wohl schon, immerhin. Ich hoffe für Dich, daß es mit der Leistungssteigerung auf erwartetes Niveau nicht mehr zu lange dauert, damit Du nicht das Gefühl eines Fehlkaufs bekommst.

Die blaue Farbe ist aber schon cool, das ist wohl wie bei der Radeon Pro dieses neue Pigment "YInMn Blue", was wohl Koduri einfach geil fand und unbedingt haben wollte (https://www.youtube.com/watch?v=GMXS1A2uBeE). Würde sich als Autolack sicher auch gut machen.

Yoshi 2k3 schrieb:
So, habe noch ein bisschen mit den Settings gespielt. Die besten Benchmarkergebnisse erziele ich aktuell mit Undervolting in Kombination mit minimaler Erhöhung des Power Targets. Das frisst zwar jegliche Ersparnis auf, aber die Ergebnisse sprechen für sich. Ich liege damit in etwa beim Energieverbauch der Stock-Settings, bekomme aber höhere Scores, weil der Takt von 1600 MHz dauerhaft gehalten werden kann. Das werden vermutlich meine Alltags-Settings werden.
sehr interessant. Mich würde auch interessieren, wie weit Du runterkommst, bzw. wie stark bei gewisser Untertaktung und Untervoltung der Vollast-Verbrauch sinkt. Also so eine Art "Vega Nano"-Simulation.
 
Zuletzt bearbeitet:
Das Thema Undervolting ist schwierig. Ich kann mit den oben genannten Settings stundenlang benchen und plötzlich ohne Vorwarnung steigt die Karte aus. Keine Grafikfehler, kein Throtteling, einfach weg. Ich vermute, dass ich vll bis 1095mV eher 1100mV komme für den höchsten State. Alles darunter scheint schon instabil zu werden. So ähnlich verhält sich die Karte von r4yn3 aus dem CB-Forum auch... Er hat 1300 MHz bei 1000mV getestet, wenn ich das richtig in Erinnerung habe. Das scheint erstmal so zu laufen.

Hier nochmal ein paar nackte Zahlen ^^ Fan 4900 rpm, Power Target 50%, Gesamtverbrauch des Systems 527W *chatt*
PT_FAN_100_Crimson.PNGPT_FAN_100_Superposition_DX.jpg
 
Wie sieht es mit Fury x Takt aus? Wie weit hinten ist das auf deiner Todo Liste? Es muss sich ja auch jemand finden, der dann die entsprechenden Gegenbenchs macht ;)
 
Hilf mir noch mal kurz auf die Sprünge. Base Takt der Fury X waren 1050 MHz und Speicher bei 1000 MHz, oder? Beim Speicher könnte ich probleme bekommen, den so hoch zu ziehen. Aber 1050 MHz sollten kein Problem sein. Wie mache ich das im sinnvollsten? Limitiere ich nur den letzten State auf 1050 MHz oder alle vorherigen auch?

€dit: 1052 MHz Core, 800 MHz Memory (daran kann ich leider nix ändern, so wie es aussieht).
1050MHz_Settings.PNG1050MHz_Superposition_DX.jpg1050MHz_Superposition_OGL.jpg

--- Update ---

Erste Linux-Benches gibt's auch, ohne Vergleichswerte etc. Da muss jeder selbst die richtigen Schlüsse ziehen. Mal sehen ob wir noch weitere Benches hinbekommen...

http://openbenchmarking.org/result/1707020-TR-RADEONVEG08
 
Zuletzt bearbeitet:
@Casi030
Ja, ich gebe zu, dass das mit der Energiemessung vll nicht das gelbe vom Ei gewesen ist. Ich nehme das mal mit auf auf meine Liste der Dinge, die ich noch prüfen möchte. Ob ich tatsächlich noch mal alles auseinander pflücke, will ich aber lieber nicht versprechen.

Deine Rechnung mit 100W weniger passt so aber nicht, weil im Fire Strike Ultra idelt die CPU ja nicht, die ist ja auch belastet. Vll nicht mit 100% am Anschlag, aber doch merklich. Ich meine Tom's Hardware hatte zum Release der RX 480 sehr detailierte Verbrauchsmessungen, eventuell lässt sich mit deren Zahlen grob errechnen, was für das System abzüglich Grafikkarte in Frage käme. Ist zwar noch immer nicht so schön wie selbst gemessen, aber eventuell kommt man da auf ein paar Zahlen.

Der verlinkte Test von PC Perspective spricht je nach Szenario von 240W-300W. Und ich denke dass man sich auf die Zahlen verlassen kann, die haben ja wirklich direkt an der Karte gemessen.

Die Strommessung an sich schon,der Ansatz war nur nicht so gut.;)
Ich mess auch nur an der Dose,es reicht aber vollkommen aus für nen Vergleich.
Es fehlen bei dir einfach nur mehr Vergleiche beim Stromverbrauch.
Wenn du dir noch mal meine Tabelle anschaust wo ich NUR die CPUs verglichen hatte.
Die Grafikkarte brachte mit beiden CPUs fast die gleichen Punkte,ABER der Verbrauchs Unterschied liegt bei rund 50Watt.......
Da du mit der gleichen CPU Testest,diese die Grafikkarten nicht ausbremst.....(was du eigentlich nur sehen kannst wenn du dir die Daten anzeigen lässt) kann man eigentlich recht gut Vergleichen und sehen welche Grafikkarte mehr FPS pro Watt bring.
Das die Vega mehr Verbraucht ist klar,sie bringt ja auch mehr FPS.
Nur wie viel mehr gegenüber der RX pro Watt kann man leider nicht bei dir sehen.;)

Mit anderen PCs ist immer schlecht zu Vergleichen.
 
Danke für die Werte, jetzt fehlt nur noch jemand mit einer Fury X. Hab mal bei 3Dcenter nachgefragt, ob das jemand benchen kann. Vielleicht findet sich ja jemand mit einer Fury X.

Edit:

Leider mit einem RAM Takt von 500MHz, aber das sagt doch schon einiges. Die Handbremse muss angezogen sein.

attachment.php

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11419198&postcount=7679
 
Zuletzt bearbeitet:
Das ist eine interessante Idee. Vermutlich wird sich das aufklären, wenn es das nächste Treiberupdate gibt.
Ich für meinen Teil rechne mit dem Zeitraum wo auch die kommenden Desktop Karten das andere render Verfahren nutzen werden. Für ein einfaches aufweichen des TDP Limits und/oder der Lüfterkontrolle sehe ich diesen Gaming Modus als völlig überflüssig an, für einen Test der Szene unter Spiele Bedingungen hingegen interessant.

@OBrian
Ich bin mir nicht sicher ob rüber gekommen ist was ich sagen wollte.
Bei der Entwicklung des Spiels sehe den Spareffekt durch das z-Culling als sinnlos an weil es dort doch eher um das Erstellen der Szenen, also auch um die Kontrolle aller Objekte geht und nicht um eine möglichst hohe darzustellende Framerate. Für den Test der Szene unter real Bedingungen könnte man wiederum in den Gaming Modus schalten und man könnte schauen ob die nSzene auch mit beiden render Verfahren korrekt dargestellt wird, siehe Probleme bei Ashes.
 
Das Thema Undervolting ist schwierig. Ich kann mit den oben genannten Settings stundenlang benchen und plötzlich ohne Vorwarnung steigt die Karte aus. Keine Grafikfehler, kein Throtteling, einfach weg. Ich vermute, dass ich vll bis 1095mV eher 1100mV komme für den höchsten State. Alles darunter scheint schon instabil zu werden. So ähnlich verhält sich die Karte von r4yn3 aus dem CB-Forum auch... Er hat 1300 MHz bei 1000mV getestet, wenn ich das richtig in Erinnerung habe. Das scheint erstmal so zu laufen.

Hier nochmal ein paar nackte Zahlen ^^ Fan 4900 rpm, Power Target 50%, Gesamtverbrauch des Systems 527W *chatt*
Anhang anzeigen 35973Anhang anzeigen 35974
Superposition reagiert nicht so sehr auf CPU Leistung, hab mal Energiesparmodus vs. Ausbalanciert verglichen:

http://abload.de/img/superposition_1080p_mqdju1.jpg
http://abload.de/img/superposition_1080p_mezjgu.jpg

Leider nur medium setting, da nur 3GByte VRAM. ;D
Es wird nur eine GPU ausgelastet, was bei meinem System etwa 330-370W Peak an der Steckdose sind.
 
Mal ein kleines Beispiel:
Hab "Verschiedene"Grafikkarten (meine RX470) über die Leistungsgrenze gemessen.Dazu werden mir die Daten angezeigt und HWInfo64 kann es zu dem noch Aufzeichnen Idle/Last/Average.Da kannst bei Average auch sehen wie lange etwas auf Max 100%/Max Takt......lief.Geht natürlich nicht 100% genau weil bei diesem Benchmark z.b. ne kurze Ladezeit ist wo alles im Idle bleibt,aber in der recht kurzen Testzeit kannst hier schon was "Rauslesen" und du musst natürlich direkt vor dem Starten des Benchmarks die Anzeigen über die Uhr Zurück stellen und sobald du ein Ergebnis hast ein Screen machen.

System Idle 45Watt

Leistungsgrenze -25%
Max Last 157Watt
11,3 Punkte Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 24,9 Punkte Pro Watt



http://abload.de/img/-25kaqtr.jpg

Leistungsgrenze 0%
Max Last 200Watt
12,1 Punkt Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 26,8 Punkte Pro Watt



http://abload.de/img/0m4ras.jpg

Leistungsgrenze +25%
Max Last 222Watt
12 Punkte Pro Watt ODER du nimmst den Errechneten Verbrauch von HWinfo64 / Average / GPU Core Power und kommst auf 27,4 Punkte Pro Watt



http://abload.de/img/25j0qes.jpg

Leistungsgrenze +50% = +25% Da ändert sich nix mehr.

Das Ergebnis ist aber gleich, -25% ist Schlechter als 0% und +25% bringt bei diesem Benchmark nicht mehr viel.
Würde ich jetzt noch mehr Takten,mehr Spannung drauf geben,dann würde die GPU wieder gedrosselt und das Ergebnis würde schlechter werden..........Das kannst aber NUR sehen wenn du die Wichtigen Daten immer im Bild hast.;)
 
Zuletzt bearbeitet:
Was war eigentlich mit dem AIDA GPGPU Benchmark?
 
Ich muss die letzte Grafik noch mit Werten füllen. ;-) War bisher "zu wenig motiviert". Ne, im Ernst, brauchte mal einen Tag Pause von den vielen zahlen. Füge die Bilder gleich ein. :)

€dit: Sind drin, entschuldigt die Verzögerung.
 
Zuletzt bearbeitet:
Zurück
Oben Unten