AMD Radeon RX Vega 64/56/56 Nano: Tests/Meinungen im Netz. Links in Post 1

Ich bin zwar auch erstaunt, was mit manuellen Eingriffen machbar ist, sehe das aber eher aus einem anderen Blickwinkel.

Zuerst einmal ist das der Wert einer einzigen Grafikkarte - ob alle Karten diesen riesigen Eingriff mitmachen, darf bezweifelt werden. Dann wäre da noch der Umstand, dass AMD den Betrieb quasi in allen Lebenslagen garantieren können muss - und speziell hier hege ich Zweifel, dass die Karte von Hardwareluxx in allen Lebenslagen nach dem manuellen Eingriff stabil läuft. Wahrscheinlich genügt schon eine um 10 Grad höhere Umgebungstemperatur, um die Karte in Schwierigkeiten zu bringen. Das ist nunmal das Problem im Grenzbereich.

Diesen Grenzbereich wird AMD vielleicht theoretisch austesen können, jedoch nicht für jeden Chip in diesem Umfang. Und selbst wenn, dann könnte es eine Frage der knappen (finanziellen) Ressourcen sein, warum darauf verzichtet wird.

Alles in allem: Beeindruckend ja, pauschal auf alle Vega 56 übertragbar nein.

Ändert nichts daran, dass man einmal mehr scheinbar einiges an Potenzial verschenkt hat.
 
vielleicht bieten zukünftige custom-modelle die möglichkeit, das potential von vega zu heben.
Nicht nur die Custom Modelle auch die Treiber.
Ich fand den Start bis auf Toms Hardware mit Frame Time Analysen, auch durchwachsen.
So überzeugt man jedenfalls keine Multi-GPU user der alten Garde. :)
 
So überzeugt man jedenfalls keine Multi-GPU user der alten Garde.

Multi-GPU im Spielebreich also CF und SLI ist so gut wie tot, ob da DX12 noch mal was dran ändert ist fraglich.

@MusicIsMyLife

Wenn es dann wirklich 3 unterschiedliche Packages gibt und auch unterschiedlichen HBM2 Speicher wird man da nicht von gleichem Verhalten ausgehen können.

Sonst sehe ich das genauso wie du es ausgeführt hast.
 
Multi-GPU im Spielebreich also CF und SLI ist so gut wie tot, ob da DX12 noch mal was dran ändert ist fraglich.
??? Als wäre Multi-GPU nur für Spiele gut...
Was ist mit openCL oder Boinc, oder einfach weil der Unterhalt nicht mehr kostet, bei nicht nutzen?
 
Open CL/Boinc ist nicht das Problem - ob die Karten in 1 oder 2 Rechner... stecken da regelt es der normale Treiber.
 
Multi GPU im Spiele Bereich ist ein Thema für sich denn es gibt kein DX12 Spiel mit Crossfire oder SLI Support aber sehr wohl Spiele mit multi GPU Support.
Crossfire und SLI sind Treiber Lösungen die bei den neuen APIs nichts mehr zu melden haben. Das müssen die Spiele selbst beherrschen.
 
Open CL/Boinc ist nicht das Problem - ob die Karten in 1 oder 2 Rechner... stecken da regelt es der normale Treiber.
Hm, FurMark läuft mit openGL und dort können auch beide GPUs genutzt werden.

Multi GPU im Spiele Bereich ist ein Thema für sich denn es gibt kein DX12 Spiel mit Crossfire oder SLI Support aber sehr wohl Spiele mit multi GPU Support.
Crossfire und SLI sind Treiber Lösungen die bei den neuen APIs nichts mehr zu melden haben. Das müssen die Spiele selbst beherrschen.
*buck*
Schlaflos?
 
interessiert mich sonst eigentlich nicht, aber ich hab durch zufall gestern die letzte wan-show von linus tech tips gesehen. wusste gar nicht, dass das thema preis und angebliche launch-rabatte dort und auch auf anderen youtube-tech-kanälen ein so großer aufreger ist.

liegt das an hbm2 bzw. deren ausbeute bei der herstellung?

und ich befürchte, dass solch aufwendige custom-karten wie die neue asus strix preislich die referenzkarten nochmal ordentlich übertreffen werden.
 
Zuletzt bearbeitet:
Weil sie was zum aufregen suchen, klicks müssen generiert werden. Und weil im Moment nur Packs verfügbar sind.
als kunde kann einem das vermutlich egal sein, da regelt der preis ganz einfach die nachfrage. und da wird sich zeigen, ob die kundschaft bereit ist, die karten zu den aktuellen preisen abzunehmen. vor allem dann, wenn die interessanteren custom-karten mutmaßlich noch teurer als die referenzkarten werden.

dass die reviewer, die fast alle in ihren launch-artikeln entsprechende preis/leistungsempfehlungen zumindest für die 56 ausgesprochen haben, das nicht so schön finden, kann ich nachvollziehen. dass da im moment auch clickbait betrieben wird, merkt man an einigen stellen natürlich auch.

was bei linus auch angesprochen und so auch bei thg zu lesen war ...

http://www.tomshardware.de/vega-ben...ahme-temperaturen,testberichte-242382-18.html

Wir hätten eigentlich viel lieber die Vega56 getestet, die günstiger und sicher auch kaum langsamer ist. Leider hat sich AMD dazu entschlossen uns in Europa keine dieser Karten zu sampeln, auch wenn man deren Launch in letzter Minute hektisch vorgezogen hat. Da hilft auch die Anfrage von AMD nicht weiter, ob wir die Vega56 schnell noch auf den letzten Drücker gegenüber der Vega64 priorisieren könnten, falls uns das Wochenende nicht für beide Tests reicht. Geliefert wurde dann: exakt nichts.

Man kann aber mal nur das testen, was man auch physisch in den Händen hält. Da nützt es auch nichts, wenn man zwei Tage vor dem Launch noch Karten an Redaktionen verschickt (oder auch doch nicht), wir hatten hier in Deutschland jedenfalls keine. Eine derartige Konfusion vor einem Launch ist zudem auch nicht wirklich die beste Voraussetzung für ausführliche und objektive Reviews. Eine Absicht wollen wir da gar nicht unterstellen, nur hinterlässt es bei uns letztendlich schon eine gewisse Ratlosigkeit. Deshalb können wir uns an dieser Stelle nur entschuldigen, aber es lag und liegt nicht in unserer Macht.
einige scheinen ja doch noch vega 56 am wochenende vor dem launch erhalten zu haben, eben mit der bitte um priorisierung. auch da kann ich den unmut verstehen, wenn sich sowas in der jüngeren vergangenheit immer wiederholt. nämlich dass die tester sehr kurzfristig vor dem fall des nda mit samples versorgt werden. oder dass es anscheinend selbst für simple unboxing-berichte mittlerweile nda's und allerlei auflagen gibt. :]
 
Nun ja, was will man erwarten? Sind halt Marktführer, da kann man sich so etwas erlauben.
 
Für die Vega56 habe ich mal von GamersNexus einige interessante Werte zusammengefasst:
https://www.youtube.com/watch?v=68vSu81zSWc&t=1650s

GPU CLK Ampere Watt P6/P7 Tflops Mflops/W
1515Mhz 22,3 = 274,29 1100mV? 10,86 39,60
1494Mhz 20,5 = 252,15 1040mV 10,71 42,47
1485Mhz 19,7 = 242,31 1030mV 10,64 43,93
1478Mhz 19,1 = 234,93 1015mV 10,59 45,10
1465Mhz 18,3 = 225,09 1005mV 10,50 46,67
1452Mhz 17,8 = 218,94 990mV 10,41 47,54
1433Mhz 17,2 = 211,56 975mV 10,27 48,55
1414Mhz 16,3 = 200,49 955mV 10,14 50,55

Von 1414Mhz bis 1478Mhz braucht lediglich +34W +64Mhz
Von 1478Mhz bis 1515Mhz sind es schon +39W +37Mhz

*Sweetspot* liegt daher bei <=1478Mhz für diese Vega56. AMD hat da schon mit 1471Mhz "boost" schon ziemlich gut getroffen, nur ist die angesetzte Spannung mit 1200mV zu hoch. Karte rennt schnell ins Limit und drosselt in den reviews.
Die Frage bleibt offen, ob eine bessere Kühlung die Spannung (~Verbrauch) noch weiter senken kann ohne den Takt zu reduzieren.
 
der counter steht 3std später immer noch bei 100.

Das war auch schon, als die für 609 zu haben war; da wurde die "Deadline" immer weiter verlängert ... Aber es war immer nur die XFX reduziert, offenbar hat MF die zu guten Konditionen bekommen (oder dafür auch eine Menge abnehmen müssen ...)

Aber der Run auf die Referenz-Designs scheint tatsächlich nicht sooo ausgeprägt zu sein und war eher angebotsseitig limitiert. Zumindest beim Mindstar hat man so den Eindruck.
 
Nicht nur bei der Vega ist das der Fall. Ich habe jetzt mal abgewartet bis der Countdown in der Übersicht abgelaufen war und *zack* wurde bei allen nochmal 5 Minuten drauf gelegt.
Das tickt vermutlich so lange vor sich hin bis der Bestand weit genug abverkauft wurde.
 
Also die Counter zählen nie runter bei MF ... keine Ahnung warum, selber schon mal was gekauft dort und es ist nicht weniger geworden ;)
 
Zurück
Oben Unten