[Usertest] AMD Radeon Vega Frontier Edition - Bilder, Benchmarks, Energiemessungen

Vielen Dank. Die Werte finde ich sehr interessant im Vergleich zu einer GP102 (Werte aus CB Forum) zum Beispiel:

S9hI4ZF.jpg


Edit:

Hier auch nochmal meine Fury X Werte zum Vergleich: (der Ryzen im Moment ohne SMT):

TVFIC5i.png


Der Memory-Copy erscheint mir sehr langsam bei der Vega FE.
 
Zuletzt bearbeitet:
Super Vergleichswerte, danke. Ich behaupte, das liegt an AIDA64. Der kann mit der Vega FE bisher absolut nichts anfangen. Keine Temp-Sensoren, kein Energieverbauch, keine Lüfterdrehzahl, nichts wird angezeigt. Unter "Sensoren" taucht nix auf, was mit der GPU zu tun hat. Von daher gehe ich davon aus, dass neuere versionen in Zukunft andere Ergebnisse liefern werden.

Meine Karte läuft momentan unter Volllast und der Crimson wirkt mal wieder sehr fehlerbehaftet. Ich kann im WattMan momentan keine Core Frequenzn oder Core Voltages anpassen. Nur der höchste/letzte P-State lässt sich ändern, alle anderen sind N/A. Das lässt sich erst beheben, wenn ich den Rechner komplett herunterfahre. Ein einfacher Neustart reicht nicht. Oder, was schlimmer wäre, es liegt nicht am Crimson sondern am BIOS der Karte selbst.

Kann ich das bei AMD eigentlich direkt melden?

€dit: PC Perspective macht aber gleich Nägel mit Köpfen :o
C18CA6ED-2CF1-4FB4-8DA5-ACBC1F89B084.jpg
 
Zuletzt bearbeitet:
Vielen Dank. Die Werte finde ich sehr interessant im Vergleich zu einer GP102......

Ich hab hier auch noch mal einen Vergleichswert von Aida64 mit einer 1080Ti / bzw. 2 Vergleichswerte.

Mir ist nämlich aufgefallen, dass bei GPGPU die Ti nicht in den P0 State wechselt, sondern im P1 State verweilt.
(P0 = 2100 / 6000 MHz | P1 = 1550 / 5500 MHz)
Die Werte die Aida selbst hinterlegt hat sind nicht im Ansatz korrekt, denke es liegt am Boost 3.0

Lege ich zusätzliche Last an, sind die Werte bei den SP und DP Berechnungen sehr nah an der XP, allerdings ist die Speichergeschwindigkeit dann weitaus geringer (was ja verständlich ist, wenn er im Hintergrund noch etwas berechnen muss)

Bild 1 mit P1 State :

Bild 2 mit P0 State:

Ok, außerdem ist bei mir der Unterbau nur ein 4 Kerner, aber daran sollte es bei diesem Test ja nicht liegen.
 
Zuletzt bearbeitet:
@Casi030
*buck*

Super Vergleichswerte, danke. Ich behaupte, das liegt an AIDA64. Der kann mit der Vega FE bisher absolut nichts anfangen. Keine Temp-Sensoren, kein Energieverbauch, keine Lüfterdrehzahl, nichts wird angezeigt. Unter "Sensoren" taucht nix auf, was mit der GPU zu tun hat. Von daher gehe ich davon aus, dass neuere versionen in Zukunft andere Ergebnisse liefern werden.
Bei AIDA64 gibt es die Möglichkeit einen Bericht zu erstellen und ihn zum AIDA64 Server hoch zu laden.
Hast du das schon mal gemacht?

Der TimeSpy lauf sieht gut aus. :)
 
"Arbeite" momentan mit Martin Malik, dem Entwickler von HWiNFO, an passender Unterstützung. Um AIDA64 hab ich mich noch nicht weiter gekümmert. Ich habe vorhin mal testweise den RAM-Takt auf 1100 MHz hochgezogen (bei +25mV Spannung) und AIDA64 schafft dann ~343.000 MB/s, Höchstwert waren heute ~349.000 MB/s bei Memory Copy. Ich könnte mir vorstellen, dass da tatsächlich ECC in die Parade fährt. Zeigt aber auch, wie eine RX Vega evtl aussehen könnte. Meine Glaskugel sagt, dass am Core-Takt nicht mehr viel geändert wird, dafür der Speichertakt noch ein gutes Stück nach oben geht. Ich mutmaße, dass das RX Vega Ref Design von AMD 1600 MHz Core-Takt und 1050 MHz RAM-Takt haben wird. Ob die Boardpartner daran etwas ändern wird man sehen, ich könnte mir vorstellen, dass die die angesetzte Spannung etwas nach unten korrigieren werden.

Ich bin wirklich gespannt ob ich Recht behalte mit der Einschätzung.
 
Hab noch ein paar Mining-Ergebnisse hinzugefügt und BOINC ist in Planung. Collatz ist schon drin, für Einstein rechnet gerade ein bisschen was. Habt ihr andere spannende GPU-Projekte, die man im BOINC noch testen könnte?
 
Ich würde es ja wie immer "im Bios 2 Module abschalten und" selber Testen,ABER hab den FX ja vor ner Weile Verkauft.;)
Ich schalte via Energiesparplan ab, dann spar ich mir das übertakten.
Die 4.5GHz sind mit allen UEFI Energieoptionen und knapp über 155W Delta (mit CoreParking!)

Hab noch ein paar Mining-Ergebnisse hinzugefügt und BOINC ist in Planung. Collatz ist schon drin, für Einstein rechnet gerade ein bisschen was. Habt ihr andere spannende GPU-Projekte, die man im BOINC noch testen könnte?
Collatz ist sehr AMD Software favorisiert, Einstein geht auch auf nvidia.
Aber die Herausfoderung ist das Projekt "MilkyWay"...
 
Na dann werfen wir doch mal Milky an. Da hab ich sogar noch einen Account :) Einstein-Ergebnisse sind im Startpost. :)
 
Na dann werfen wir doch mal Milky an. Da hab ich sogar noch einen Account :) Einstein-Ergebnisse sind im Startpost. :)
THX!
Ich schau mal drüber, sobald ein Zeit-Fenster vorhanden ist. ;)

Mit +20% Power Limit im Crimson, sind es 2x 270W TDP (Board Design)
 
So, Milky wäre auch drin. 54 Sekunden laufzeit pro WU scheint mir jetzt aber nicht besonders aufwendig. Oder ich hab noch keine Kracher-WU bekommen :D
 
Zuletzt bearbeitet:
Naja,dann komm Ich dir mal entgegen.

Ich würde es ja wie immer "im Bios 2 Module abschalten und" selber Testen,ABER hab den FX ja vor ner Weile Verkauft.;)


Ich schalte via Energiesparplan ab, dann spar ich mir das übertakten.
Die 4.5GHz sind mit allen UEFI Energieoptionen und knapp über 155W Delta (mit CoreParking!)

Delta um 50W


Bin auch mal mit dem Takt ein wenig rauf gekommen.:P
Delta um 120W

 
Zuletzt bearbeitet:
Hm, beim ZCash-Mining nur ~350 Sol/s :o Damit läge die Vega FE zwischen einer GeForce GTX 1060 und 1070; bei deutlich höherem Stromverbrauch. :(

Auch 900 H/s bei Monero sind nicht so dolle. Ein AMD Ryzen 7 1700 schafft mit dem CPU-Miner @Stock 500 H/s bei nur ~90 W Volllastverbrauch (Gesamtsystem). Da dürfte die Vega nur 160 W verbrauchen, um wenigstens auf die gleiche Effizienz zu kommen wie Ryzen. Das wird sie wohl "knapp" *buck* nicht schaffen.
 
Zuletzt bearbeitet:
Ich glaube aber, dass das eher an nicht optimierten Minern liegt. Manche, wie der Claymore, funktionieren mit der Vega FE gar nicht. Da ist also nch etwas Arbeit nötig, bevor es zu 100% verlässliche Ergebnisse geben wird...
 
Ja, das kann natürlich auch sein. GPGPU-Computing, was Mining ja beinahe in reinster Form ist, müsste der Vega doch eigentlich auf den Leib geschneidert sein. Wenn hier nichts vorwärts geht, wo dann? *noahnung* Mal ein paar aktualisierte Miner-Versionen abwarten.
Läuft der Nicehash Miner nicht mit Vega?
 
Zuletzt bearbeitet:
Ist doch gut so, wer den Schrott noch optimiert kann mal 1000 Euro für eine 1080TI hinblättern, ich denke das will hier niemand. Und ich hoffe auch das Nvidia mit Volta Mining im negativen Sinne beeinträchtigen wird, sonst kommt die nächste Welle wo die Grafikkarten wieder mit Gold aufgelegt werden.
 
Nicehash nutzt auch nur andere Mining Programme wie SG Miner, oder die von Claymore. Claymore hat bei Bitcointalk geschrieben daß er sich erst darum kümmern wird wenn die RX Vega auf dem Markt ist. Die Miner von Claymore haben so eine hohe Hashrate, weil sie für jede Hardware einen angepassten Kernel haben.
 
OffT
Naja,dann komm Ich dir mal entgegen.







Delta um 50W


Bin auch mal mit dem Takt ein wenig rauf gekommen.:P
Delta um 120W

Oha, Gänsehaut feeling wa?
OnT
Evt. wird AMD auch Versuchen zu verhindern, dass die Miner am Anfang alles "abgrasen" aufgrund der geringen Stückzahl am Anfang.
Erste Reaktionen sind ja seitens der Hersteller schon geschehen, es werden nun extra Mining GPUs angeboten ohne Monitor Ausgänge.
 
Erste Reaktionen sind ja seitens der Hersteller schon geschehen, es werden nun extra Mining GPUs angeboten ohne Monitor Ausgänge.
Ja, hoffentlich spricht das die professionellen Miner in China an. Die, die das als Zubrot nebenher machen, haben ja ein anderes Geschäftsmodell. Die kaufen eine brandaktuelle Grafikkarte, lassen sie ein halbes Jahr minen und verkaufen dann die immer noch relativ aktuelle Grafikkarte als gebraucht in der Bucht. Damit kostet sie die Grafikkarte nicht den vollen Kaufpreis, sondern ehemaliger Kaufpreis minus gebrauchten Wiederverkaufspreis. Bei einer Grafikkarte ohne Monitorausgänge jedoch funktioniert das nicht, denn welcher private Schnäppchenjäger in der Bucht kauft schon eine Grafikkarte ohne Monitorausgänge *buck*
 
@Nero24.
Naja, ohne Montior Ausgang bedeute auch 0W wenn sie nicht minnt, oder ist das Feature noch deaktiviert?
 
Zurück
Oben Unten