AMD Radeon RX Vega 64/56/56 Nano: Tests/Meinungen im Netz. Links in Post 1

So, die Vega Karte ist nun in der Kiste drin das ist ne verdammt knappe Geschichte.
Zwischen dem oberen Teil und der Oberseite der passt noch nicht einmal mehr mein kleiner Finger und ich bekomme das Oberteil nur zugeklappt weil die Stromstecker auf der Oberseite der Karte in eine Öffnung stoßen. Morgen muss ich noch die gesammte Kabelage neu verlegen weil ich sie weiter nach hinten drücken musste und sie so den HDD Käfig blockiert. Schön ist auch das der Lüfter nun so weit hinten ist das er über die TV Karte hinaus ragt und von ihr nicht mehr verdeckt wird. Was weniger schön ist das ist die Lautstärke des derzeit offenen Systems denn das Kühlsystem gibt bei Last doch eine recht röhrende Tonlage von sich.

Die Leistung kann sich aber im Vergleich zur Nano durchaus sehen lassen. Zum einen weil sie selbst im Stromspar Profil höher taktet und zum andere weil die 4 GB der Nano bei UHD Spielen doch recht schnell zum Engpass wurden. Da nun endlich auch HEVC von der GPU voll beschleunigt wird laufen auch die UHD Sat Sender und HDR Videos flüssig. Der Fiji konnte zwar normale UHD Videos beschleunigen, HDR Videos hingegen nicht.

Mal schauen ob ich morgen dazu kommen mal die 3 unterschiedlichen Energie Profile zu vergleichen.
 
Das ja auch nicht die Frage (von mir jedenfalls nicht) sondern warum sich die Custom Modelle von Vega immer weiter verzögern. Und einfach wird das mit dem Erscheinen der GTX 1070 Ti auch nicht je nach dem wie sich die Preise entwickeln.
ich war eigentlich der meinung, dass die 1070 ti wenig sinn macht. aber sie bringen sie früh genug und platzieren sie so, dass man eigentlich auf alles an der vega-front reagieren kann. bei der enormen preisstabilität der letzten monate kann nvidia dann relativ einfach mit kleinen preissenkungen speziell bei der 1070 reagieren.

aber man muss nachwievor den eindruck haben, dass die amd-partner keine großes interesse an vega haben. warum auch immer. sind die partner eigentlich vertraglich verpflichtet, zu jeder amd-generation eigene custom-designs zu platzieren?

bleibt zu beobachten, inwiefern amd mit vega wenigstens am mining-geschäft partizipieren kann.
 
Das lustige an der Ti ist doch das sie wegen dem kaum vorhandenen Leistungsabstand die 1080 Modelle kanibalisiert und man sich automatisch fragt was damit für eine Lücke geschlossen worden sein soll.

Um aber beim Thema zu bleiben setze ich mich gleich mal ran und lasse den Zwiebelbench und meinen heiß geliebten Valley Test mit den 3 Energieprofilen durchlaufen. ;)
 
zumal das thema "übertacktungssperre" sich ja als schlechter scherz rausgestellt hat. ;)

die frage ist, wo das problem mit vega ist. warten amd partner auf einen refresh oder gleich auf den nachfolger?
 
Das Problem wird die Kühlung des Chips+Speicher sein. Diese ist zu sehr auf einen Punkt konzentriert.

Mit Wasserkühlung ist es gut in den Griff zubekommen. Aber mit Luft? Der Referenzkühler ist nicht so schlecht, aber leider auch nicht ausreichend.
Habe die maximale Drehzahl per Wattman auf 3200 gesetzt, das hat schon geholfen, Sie wurden aber gut hörbar.

Viele Hersteller haben Ihre Kühler auf die TDP der NV 1070/1080 ausgelegt. Diese werden daher die Vega64 nicht gekühlt bekommen.
Allerdings sollte die Vega56 kein Problem sein. Denke aber auch,das die Gewinnspanne zu niedrig ist und daher nix kommt.

Das Dritte was noch mit reinspielt wird die Liefersituation der reinen Chips sein.

Ich hoffe das einige Spielehersteller durch die PS4 pro und jetzt auch noch Xbox X mehr auf Mutlithreading und Vulkan optimieren.
Selbst Mircrosoft haben mit Forza gezeigt was mit guter Optimierung geht.
 
Das glaube ich kaum denn der Chip ist ziemlich groß und die Abwärme vom Speicher hält sich in Grenzen.
Ich denke der Chip sollte auf zu vielen Hochzeiten gleichzeitig tanzen und das neue Render Verfahren angesichts der minimalen Gewinne nicht optimal läuft oder nvidia es zu aggressiv eingestellt hat. Letzteres würde zumindest erklären warum hin und wieder bei den letzten GPU Generationen davon berichtet wird das bei ihren Karten Sachen nicht Dargestellt wurden.

Warum das bei dem MS Titel so vergleichsweise gut aussah kann auch einen sehr simplen Grund haben, nvidia hatte dort nicht die Finger drin und damit auch keinen Treiber Vorsprung und auch keine Trumpfkarte durch hauseigene Software oder an die eigene Hardware ausgelrichtete Programmierung.

--- Update ---

So, mal die ersten Testergebnisse.
ich hatte zwar leider nicht das Steckdosen Messgerät wie sonst aber für einen ersten Eindruck sollte es reichen.

Idle: ca. 80W (alle Gehäuselüfter voll aufgedreht)

Power Save:
Valley Ultra @ 3840 x 2160 ohne AA

FPS: 37.6
Score: 1571
Min FPS: 21.1
Max FPS: 60.4
305 - 320W


Valley Ultra @ 3840 x 2160 + 8x AA

FPS: 18.6
Score: 780
Min FPS: 11.7
Max FPS: 33.5
305 - 320W



Balanced:
Valley Ultra @ 3840 x 2160 ohne AA

FPS: 40.5
Score: 1696
Min FPS: 20.5
Max FPS: 67.1
Erst 395-38, zum Ende hin auf bis zu 365W runter

Valley Ultra @ 3840 x 2160 + 8x AA

FPS: 18.8
Score: 786
Min FPS: 11.6
Max FPS: 34.1
Erst 390-380, dann auf bis zu 350W runter

Turbo:
Valley Ultra @ 3840 x 2160 ohne AA

FPS: 39.2
Score: 1642
Min FPS: 20.3
Max FPS: 64.3
Erst 430 - 440 W, dann recht schnell auf 350 - 390 W


Valley Ultra @ 3840 x 2160 + 8x AA

FPS: 18.9
Score: 791
Min FPS: 12.0
Max FPS: 34.2

Erst 425 - 435 W, dann recht schnell auf 350 - 380 W

Bei Power Save bleibt die Karte also die ganze Zeit im Power Target, bei Ballanced rutscht sie nach einer gewissen Aufwärmzeit immer mal wieder ins Temperatur Target und bei Turbo knallt sie nach einer recht kurzen Zeit immer wieder in das Temperatur Target, weshalb ich behaupte das man sich die Stufe mit dem Standard Kühler definitiv sparen kann.
Angesichts des recht kleinen Unterschieds zwischen den ersten beiden Stufen kann ich aber auch getrost in der Power Save Einstellung bleiben und mir den Strom sparen.

--- Update ---

Noch was nebenbei, ich habe auch noch ein wenig mit Sisoft Sandra rumgespielt und bei der GPGPU Variante der wissenschaftlichen Analyse mit halber Genauigkeit bekomme ich mit der Vega eine Fehlermeldung das der/ein GP-Treiberaufruf fehlgeschlagen wäre. Der Test mit der normalen und der doppelten Genauigkeit laufen normal durch. Es kam dabei der Cataylst 17.11.1 zum Einsatz.
 
Meine Vega 56 kann ich im DC-Betreib mit -130 mV Offset untervolten. Das Powerlimit lässt dann Taktraten von 1500 - 1650 MHz zu. Der HBM Speicher geht bis 950 MHz ohne Spannungserhöhung.

Von dem her, auf Augenhöhe mit 1080 und 1070ti würde ich mal sagen.
 
Lol, mit dem neuen Patch steppt der Bär.
In FullHD wäre die Vega64 dann gute 20% schneller als die 1080Ti, in 2.560 × 1.440 ca. 10% schneller und in UHD ca. gleich schnell.
Da machts sich wohl die hohe Shader Leistung bei halber Präzision und die relativ geringe Texturen/Renderleistung bemerkbar.
 
Warum das bei dem MS Titel so vergleichsweise gut aussah kann auch einen sehr simplen Grund haben, nvidia hatte dort nicht die Finger drin und damit auch keinen
du meinst forza 7?

wo auch immer das problem lag, als vergleich erinnere ich mich an quantum break. war laut ms angeblich auch dx12- und uwp-exklusiv. und da waren die amd-karten im vergleich zu nvidia sehr stark. war ja auch ein titel, der für amd-technik in der xbox-one optimiert wurde.

dann gab es einige monate später die dx11-version für steam. und ohne dass "nvidia die finger drin gehabt hätte", haben die nvidia-karten plötzlich kreise um die konkurrenz gezogen.

da es parallel keine dx12-version für steam gab, fehlt natürlich ein interessanter baustein für einen vergleich mit der uwp-variante.
 
Ich denke aber das du auch weißt dass das nichts heißen muss denn es gab schon mehr als genug Konsolen Ports die auf den Radeons mehr schlecht als recht liefen aber mit Gameworks Kram vollgestopft waren.

Sicherlich ist AMDs Architektur in den Konsolen eine Chance aber die bringt ihnen herzlich wenig wenn die Entwicklung der PC Version zu wesentlichen Teilen an den konkurrierenden GPU Hersteller ausgelagert wird. Der von dir angesprochene Fall hat meiner Meinung nach nur allso oft einen simpen Grund. Die Konsolen arbeiten mit einer low level API und entsprechend guter Kern Skalierung, DX11 ist hingegen eine Multicore Krücke die nvidia besser umschifft hat. Wer also nur einen billigen Port hin rotzt und sich nicht um das Problem kümmert dann sind die Geforce Karten automatisch schneller weil sie die CPU besser auslasten können.
 
es war ein beispiel. ist schon klar, dass sich das nicht verallgemeinern lässt.
 
Endlich hab ich alles unter Linux zum laufen gebracht. Lag wohl daran den Link im Sys zu setzen das sie auch von Boinc gefunden wird.*buck*

Läuft auf jeden Fall anders wie unter Windows. Von den Rechenzeiten für Einstein@home liegt Windows und Linux gleich auf (6.30 min). Aber in Linux macht es keinen Unterschied ob ich auf der CPU was laufen habe. Auch macht es keinen Unterschied ob ich das Boost oder Silent Bios aktiv habe, nur 5 C° kühler. Halt ein Soc regelt alles selber so wie es ihm passt.

Eine 1070 soll die Einstein Wu in ca. 5 min. schaffen kann das wer bestätigen? Würde mich schon interessieren ob der Unterschied so groß ist. Von der Rechenleistung her ist die doch mit deutlich weniger angegeben.
 
Zuletzt bearbeitet:
Solchen monströsen Karten mit 3 Slot Kühlern konnte ich noch nie was abgewinnen. Dann lieber der Standard Karte einen Wasserkühler verpassen und Spass haben.
 
Warum wird die Vega schon als Flop abgeschrieben?
Man weiss ja dass die Software/Treiber immer hinterher hinken.
Hier ein weiterer Fortschritt:
https://www.computerbase.de/2017-11/wolfenstein-2-vega-benchmark/

Laut, heiß und langsam. Dazu schluckt sie mehr als ein Säufer am Monatsersten. Und langsam haben auch die Fans von AMD keine Lust mehr auf solche Karten.

Hinzu kommen noch so Experimente ala, wir machen eine Karte für Alle (obwohl sie eigentlich nur ein Standbein bei den Spielern haben) und wir brauchen unbedingt HBM.

Klar, vielleicht zahlt sich das aus, aber jetzt hat man erstmal einen schlechten Ruf.
 
Ubuntu 18.04 ist Wayland am Start und nicht mehr Xorg. Ob die Derivate nachziehen? Also 17.10 setzt auch schon auf Wayland der freie Treiber ist aber noch nicht zu gebrauchen, 3D geht aber.
Wenn man ne Vega hat braucht man unbedingt eine neuere CPU. AMD Ryzen oder Intel 4xxx sonst geht da nichts außer framebuffer.*buck* Selbst getestet.

Bin gespannt ob dann alles mit dem freien Treiber läuft. OpenGL und OpenCL mehr braucht sich eigentlich nicht. Wattman für Linux ist in Aussicht gestellt, halt in Verbindung mit dem Pro-Treiber denke ich.
 
Na dann Prost!!!;D
 
Zurück
Oben Unten