AMD Radeon VII (Pro): Tests/Meinungen im Netz. Links in Post 1

AMD Releases BIOS for Radeon VII with UEFI GOP (HardOCP)

AMD has released a BIOS for the Radeon VII with UEFI GOP included for our AIB partners. We will also make a one click installable BIOS available to end users via AMD.com. We do not expect gaming performance differences between the non UEFI BIOS and the UEFI GOP included BIOS, although the non UEFI BIOS may experience slower boot times from cold boot.

Kommt mir bekannt vor, war bei der Fury X auch so. Ich frage mich warum man das wiederholt hat.

--- Update ---

Zu oben:

Die Ergebnisse zeigen keinerlei Verbesserungen durch den Einsatz der Wärmeleitpaste. Deutlich schlechter wird die Kühlung durch die Verwendung des Graphitpads. Der Einsatz eines solchen Pads ist also nicht zu empfehlen. Wir werden die Radeon VII nun mit Wärmeleitpaste weiterverwenden – zumindest so lange, bis wir ein Wärmeleitpad auf Kohlenstoffbasis finden, wie es von AMD verwendet wird.
 
Es wird wohl kein Crossfire-Support mehr für Spiele mit <dx12 geben. Nur noch mGPU mit DX12 und Vulkan.
Damit fällt die Generation für mich aus. Der Kauf einer Karte würde mir zwar in Spielen ohne Crossfire/mGPU-Support 25 % mehr bringen, aber wenn es unterstützt wird zuviel FPS kosten.

ab 5:47h baut er ne 2. Vega ein Crossfire funktioniert ;D

https://www.twitch.tv/videos/377921667
 
Danke, Link war auch schon in Post1 gepinnt.
 
*clap* mal eben fast 3x so schnell wie eine 1080.
 
Das Bild zur Radeon-VII ergibt sich für mich momentan wie folgt:

Man hat wohl die Compute-Unit Scalar Register von MI-50 mit 3.2kb auf GCN Standard 4kb erhöht und dadurch auf durchgängiges ECC verzichtet. Anandtech hat geschrieben, dass dieses entfallen ist, ist den Grund aber schuldig geblieben.

Die Einschränkungen gegenüber der MI-50 betreffen wohl hauptsächlich die Scheduler Fähigkeiten FP64 oder bestimmte MI Funktionen im Instruction Set nur eingeschränkt oder gar nicht abzurufen. Das werden die wohl im Microcode programmierbaren Hardwarescheduler machen.

Bleiben die Verbesserungen in den Compute-Units für die Cache-Latency, welche beim Launch von MI60 beworben wurde "Caches can run faster, this is outside of the 7nm process node, but also tweaked latency for Caches as well..."

Die Bedeutung von Infinity Fabric bleibt auch eher offen. Die zwei externen Schnittstellen könnten vielleicht gegenüber MI-Varianten stromlos gemacht werden. Der IF liegt gemäss Schaubild zwischen den eigentlichen GPU-Einheiten mit L2 Cache auf der einen Seite und dem HBCC und HBM-SI sowie den "uncore" PCIe Links, IF Links, Multimedia UVD/VCE und Display Engine auf der anderen Seite. Hier könnte also ein HBM Overclocking für schnellere Anbindung des L2 Caches zum HBCC und dem SI mehr Auswirkung haben als der externe Takt zum HBM selbst. Den DSBR gibt es im Schaubild auch immer noch.

Eigentlich sollte bei Game-Code nicht viel individuell optimiert werden, ggf. kann die Lastverteilung auf die Computeunits optimiert werden wenn diese durch verbesserte Caches bestimmten Code schneller als Vega-10 abarbeiten.

--- Update ---

Jim von AdoredTV hat seinen Review veröffentlicht.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Nettes Video, interessante Ergebnisse.

Fazit: Die Behauptung dass 8GiB VRAM mehr als ausreichend ist, ist totaler Käse. Die 2080 kackt ab, eben weil nur 8GiB VRAM.
 
Ob nun eine RTX2080 mit 8GB nicht mehr ausreichend ist muss jeder selbst entscheiden. Die Settings um mehr als 8GB VideoRam zu verbrauchen waren auch oft genug zweifelhaft. In WQHD mit diversen RT Effekten kann eine RTX2080 wieder Sinn manchen, wenn das bevorzugt wird.

Wenn man also nur Gaming betrachtet ist Jims Fazit in meinen Augen sehr gut gelungen.

Wo er richtig liegt ist, dass eine standard Radeon VII zunächst nicht genug leiset um den Aufpreis gegenüber einer Wasser gekühlten und hoch getakteten Vega-64 zu rechtfertigen und sie erreicht damit im 7nm Shrink zu wenig. Die kommenden Fixes in den Treibern und mögliche Wasserkühlungen für die neue Karte scheinen die Leistungsfähigkeit mit stabilem Takt noch einmal ausbauen. Berücksichtigt man dann den zusätzliche Verbrauch des doppelten HBM2 passt es dann sicherlich.

Da AMD als Nachfolger für die MI-60 voraussichtlich den Sommer in 2020 anpeilt könnte auch für Gamer bis dahin diese Vega-20 die schnellste AMD-Alternative bleiben.

Es ist denkbar, dass bei unerwartet hoher Nachfrage mit einem neuen Stepping oder Binning noch eine schneller spezifizierte Radeon VII nachgelegt wird. Falls die guten Chips nicht mehr alle für MI-60 oder eine bislang fehlende 7nm Pro Variante benötigt werden. Ich würde das für den Herbst erwarten. Besonders wenn Nvidia mit 7nm noch ein längeres Zeitfenster offen lässt könnte eine 2GHz 64CU Variante mit Wasserkühler nachgelegt werden, die könnte trotz höherem Stromverbrauch gegen eine RTX2080Ti positioniert werden, sofern DXR kaum an Bedeutung gewinnt.

Leider erhält diese Radeon VII nicht den Pro Support wie eine Vega FE. Da das Platinenlayout aber steht wird wohl nur noch an einem blauen Blower Kühler gearbeitet, mit dem dann die besten Chips mit niedrigem Verbrauch dort eingesetzt werden. Am 6. April wäre die NAB in Vegas ein guter Launchtermin.
 
Im HardOCP Review können sie da keine grossen Nachteile bei Spielen mit 8 GB VRAM erkennen, als Sweetspoot sehen sie aber schon 10 bis 12 GB an.

Das ist aber nur auf Spiele bezogen, auch mit der Bandbreite. Die VII richtet sich aber auch an andere Bereiche und da sieht es anderes aus.

There was one game that was able to fill the VRAM capacity, but the gameplay experience was still the same even on the 8GB RTX 2080 video cards. We felt and experienced no difference having 16GB of VRAM. Until we checked the capacity, we had no idea it was even being filled up, there was no indication to the gameplay experience that it was utilizing more VRAM. The gameplay smoothness was the same.

It seems the sweet spot for VRAM is around 10GB-12GB right now. If you want to "future proof," then a video card like the GeForce RTX 2080 Ti with 11GB of VRAM seems to be a good choice, but however at a huge price. When the day comes however, that the 16GB of VRAM will be needed for gaming, the Radeon VII will very likely already be replaced. We do want to emphasize our statement here apply to gaming, we understand 16GB is advantageous for content creators and professional OpenCL applications.
 
Im HardOCP Review können sie da keine grossen Nachteile bei Spielen mit 8 GB VRAM erkennen, als Sweetspoot sehen sie aber schon 10 bis 12 GB
Irgendwo in dem Wust von Reviews habe ich Framerateverläufe im Vergleich zur Vega-64 gesehen. Dort hat der HBCC ganz gut den Mehrbedarf an VRAM kompensiert. Es ist schon in etwa so wie Koduri das einmal erklärt hat, dass die meisten Assets im VRAM gar nicht benötigt werden und ein Caching mit weniger VRAM genauso gut möglich ist. Bei explizitem Speichermanagement und Streaming aus dem System-RAM wird das ohne Entwicklersupport auch mal schief gehen. Beim Sprung auf PCIe4 wird Caching/Streaming auch wieder attraktiver. Allein das Marketing könnte weitere VRAM Steigerungen forcieren.

Da die Bandbreite im VRAM bei der Radeon VII für Gamer relativ wenig bringt könnte ein verbessertes HBCC-Design mit 8GB und geringerem Preis die weit bessere Wahl sein. Ich vermute man ist beim Gaming nur im IF-Link vom VRAM Takt abhängig. Für Navi+ kann es dann wieder ein 2048 breites Interface geben.

Letzten Dezember wurde in den JEDEC Specs mehr Variabilität für HBM eingeführt mit 1-24GB pro Stack bei Stackhöhen von 2, 4, 8, 12 Layer. Es sollten also DRAM Layer von 512MB/1024MB/2048MB in Produktion gegangen sein. Mit dem 4096 breiten Interface des Vega-20 wären auch in Kombi mit 2GB Stacks (4x512MB oder 2x1024MB) günstigere 8GB Karten möglich.
Es klemmt bislang immer noch an den entscheidenden Kostenreduktionen beim Interposer Packaging oder preisoptimierten HBM-Stacks. Mit den neuen Standardgrössen ergibt sich eine Chance bessere Preispunkte zu finden, je nachdem wo gerade die besten Kostenvorteile erreicht werden können. Wenn der Yield beim Stacking höher ist als in der Fertigung machen 512er Layer Sinn, oder eben umgekehrt. Beim Interposer und Chip mit 2 oder 4 Stacks und SI ist es ähnlich.

Es gibt also durchaus Optionen für 7nm Vega in diversen Varianten. Bei Navi war nach meiner Erinnerung bereits GDDR bestätigt. Es wäre schade wenn HBM es spätestens danach noch immer nicht in den Mainstream schafft.

--- Update ---

???
Das hat Pipin doch in der News zum Radeon PRO Treiber geschrieben, dass das bald unterstützt wird.

Hier ist die Diskussion dazu....

--- Update ---

kaum verkaufbar wäre wohl eine Radeon VII zu 450$ mit nur 4GB HBM. Aber allein die Performance mit HBCC im Vergleich zur Fury würde mich brennend interessieren, auch im Einsteigersegment werden 4GB wohl noch lange relevant bleiben.
Produktname wäre dann Rage->Fury->Rabid ;)
 
Zuletzt bearbeitet:
Zur Taktung und 300 Watt verbrauch.

Unter Linux ist Wattman gtk fast fertig, aber der default noch nicht freigeschalten. https://github.com/BoukeHaarsma23/WattmanGTK

Unter Ubuntu und dem amdgpu-pro treiber sind die Dateien schon verhanden und man kann sie editieren.

Code:
#!/bin/sh

## Card 0
#if [ -f "/sys/class/drm/card0/device/pp_od_clk_voltage" ] ; then
 #   echo "Overclocking card 0"
    # Set GPU Core clock table
    echo "s 0 852 800" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 1 991 840" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 2 1245 850" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 3 1263 852" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 4 1281 854" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 5 1300 856" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 6 1318 858" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "s 7 1336 860" > /sys/class/drm/card0/device/pp_od_clk_voltage

    # Set Memory Clock table
    echo "m 0 167 800" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "m 1 500 800" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "m 2 700 900" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "m 3 920 950" > /sys/class/drm/card0/device/pp_od_clk_voltage


    # Set Powerstate
    echo "115000000" > /sys/class/drm/card0/device/hwmon/hwmon0/power1_cap

    # Commit (apply) clock table
    echo "c" > /sys/class/drm/card0/device/pp_od_clk_voltage
    echo "Applied OC Clocks"

Mit dem Setup bekomme ich die Vega56 auf 150 Watt Verbrauch und bin bei den Rechenzeiten ein bischen besser als auf Default.

Für die VegaII müsste im Trieber auch schon alles verhanden sein. Ich denke mal das man ein Setup von unter 250 Watt zustande bringt ohne wirklich Rechenleistung zu verlieren.

Dagegen kommen die Nvidias nur bei Berechnungen die ihnen liegen an. Bei der Mehrzahl haben die einfach keine Chance mehr.
 
Zuletzt bearbeitet:
Hatte aktuell nicht viel Zeit/Lust die Radeon VII ausgiebig zu testen, aber soweit macht sie einen guten Eindruck. Idle-Lautstärke ist auf jeden Fall deutlich besser als bei der Vega 64 Liquid, die Lautstärke unter Last leider etwas höher, wobei ich da bisher kaum etwas getuned habe, außer Auto-Undervolt. In APEX Legends macht sie definitiv eine gute Figur.
 
...
Mit dem Setup bekomme ich die Vega56 auf 150 Watt Verbrauch und bin bei den Rechenzeiten ein bischen besser als auf Default.

Für die VegaII müsste im Trieber auch schon alles verhanden sein. Ich denke mal das man ein Setup von unter 250 Watt zustande bringt ohne wirklich Rechenleistung zu verlieren.

Dagegen kommen die Nvidias nur bei Berechnungen die ihnen liegen an. Bei der Mehrzahl haben die einfach keine Chance mehr.
Cool!
Ich hätte ehrlich gesagt kein Problem damit, 25% Rechenleistung einzubüßen für 50% Stromersparnis. Sprich: Betrieb am Punkt der höchsten Effizienz und nicht bei der höchsten Rechenleistung.
 
Guten Abend, kann einer der Vega 7 Besitzer mal kurz nachschauen ob er auch 12Bit Farbtiefe zur verfügung hat?
Bei mir geht das nun, vorher gingen nur 8Bit: https://abload.de/img/radeon_settings_19.2.v8jb6.jpg

Hängt vom Schirm ab.
Das hab ich schon bei meiner VEGA im 2400G bei meinem DELL Schirm...

Also das ist eher eine Frage des Schirms. Sehe hier keinen Grund, warum das bei der VEGA 2 nicht geben sollte, wenn das sogar 'ne APU packt.
 
Hängt vom Schirm ab.
Das hab ich schon bei meiner VEGA im 2400G bei meinem DELL Schirm...

Also das ist eher eine Frage des Schirms. Sehe hier keinen Grund, warum das bei der VEGA 2 nicht geben sollte, wenn das sogar 'ne APU packt.
Hi, du hast recht.
Mein Samsung TV kann 12Bit wusste ich vorher noch nicht, aber die DVI-D auf HDMI Leitung hatte vorher 15 Meter länge.
Hab jetzt eine 4K@60Hz zertifizierte HDMI zu HDMI Leitung, die scheint "breit" und "kurz" genug zu sein. ;)
 
Zurück
Oben Unten