R9 290x vs. GTX970 im CPU Last Vergleich

Nun zu den Verlaufsdiagrammen der Spiele.

Tomb Raider
R9 290x: TR Verlaufsdiagramme 290x.PNG GTX970: TR Verlaufsdiagramme GTX970.PNG

Rise of the Tomb Raider
R9 290x: RotTR Verlaufsdiagramme 290x.PNG GTX970: RotTR Verlaufsdiagramme GTX970.PNG

Hitman Absolution
R9 290x: HA Verlaufsdiagramme 290x.PNG GTX970: HA Verlaufsdiagramme GTX970.PNG


Etwas ausser Konkurrenz da der Ablauf nie gleich und damit nicht reproduzierbar ist.....

Star Swarm Stress Test
R9 290x Mantle: SSST Verlauf Mantle.PNG R9 290x DirectX: SSST Verlauf DirectX.PNG GTX970 DirectX: SSST Verlauf GTX970 DirectX.PNG

Ich hoffe das dies bei der einen oder anderen Frage weiter geholfen hat.

--- Update ---

Und noch einen kleinen Zusatz.....der jeweils abgelesene Strombedarf.

290x
Idle: ca. 120W
Idle 2 Monitore: ca. 140W

Star Swarm Stress Test
Mantle: 330 - 360W
DirectX: 240 - 390W

Tomb Raider
370 - 385W

Rise of the Tomb Raider
350 - 400W

Hitman Absolution
330 - 360W


GTX970
Idle 2 Monitore: ca. 120W

Star Swarm Stress Test
DirectX: 275 - 335W

Tomb Raider
330 - 350W

Rise of the Tomb Raider

350 - 380W

Hitman Absolution
330 - 365W
 
Zuletzt bearbeitet:
@sompe
Wow, doch ne Menge Daten zusammen gekommen!
Die CPU Auslastung bei Tomb Raider 2013 habe ich mir auch mal kurz angeschaut: http://abload.de/img/tombraiderbench_loadu8sa6.jpg
Auffällig ist bei mir die gleichmäßige Verteilung der Last (Ausbalanciert mit Turbo) allerdings ist das eben HD 7970 CrossfireX. ;)

MfG
 
Wäre die nVidia Karte nur wegen der CPU schneller müsste die Karte irgendwann langsamer als die AMD werden wenn die CPU langsamer läuft, das wird aber nicht passieren. Ebenso müsste die nVidia auch deutlich besser als die AMD mit immer schnelleren CPU skalieren, auch das wird nicht passieren.
na, dann schaue dir doch mal einige PCGH Benchmarks mit 2kern CPUs an, bevor du solche Behauptungen aufstellst.

Denn nVidia hat(te?) sehr wohl das verhalten, was du hier für unmöglich hälst. Nämlich, dass die Performance der nVidia Karten auf 2 Kern/Thread CPUs einfach mal richtig grotten schlecht war.

Musst halt mal selbst schauen, PCGH hat es getestet und die Tests sind auch online verfügbar...


@sompe
Wow, Leistungsaufnahme von GTX 970 und R9-290X fast gleichauf.
Krass.
 
Zuletzt bearbeitet:
[3DC]Payne;5079591 schrieb:
@sompe
Wow, Leistungsaufnahme von GTX 970 und R9-290X fast gleichauf.
Krass.
Ich will ja nicht kleinlich sein, aber bitte nicht vergessen, dass hier nur Min- und Max-Werte notiert wurden. Hat also für die tatsächliche, durchschnittliche Leistungsaufnahme nur eine begrenzte Aussagekraft.
 
[QUOTE='[3DC]Payne;5079591'
@sompe
Wow, Leistungsaufnahme von GTX 970 und R9-290X fast gleichauf.
Krass.[/QUOTE]

Was in Zusammenhang mit einer höheren CPU Auslastung wieder zeigt, dass die Nvidia
GPU sparsamer arbeitet.
 
Zuletzt bearbeitet von einem Moderator:
Ich will ja nicht kleinlich sein, aber bitte nicht vergessen, dass hier nur Min- und Max-Werte notiert wurden. Hat also für die tatsächliche, durchschnittliche Leistungsaufnahme nur eine begrenzte Aussagekraft.
Für die Netzteil Wahl sind Min-Max Werte vernünftiger, Durchschnittliche Werte sind eher Stromkosten relevant. ;)

Ohne CrossfireX im Spiel Profil bei den Radeon Einstellungen wird die CPU auch weniger ausgelastet: http://abload.de/img/tombraiderbench_load.f8s5k.jpg
Daher die gute CrossfireX Skalierung, bei den minimum FPS ~ 98% mehr FPS und kleinere Frametimes ohne Peaks oder Aussetzer. :)
 
Ich will ja nicht kleinlich sein, aber bitte nicht vergessen, dass hier nur Min- und Max-Werte notiert wurden. Hat also für die tatsächliche, durchschnittliche Leistungsaufnahme nur eine begrenzte Aussagekraft.

Ja,besser ist da ein Test mit geringem Takt von z.b. 2,5 oder max 3GHz.
Oder nur mit 4 Kernen bei max 4GHz.
So fällt der CPU Verbrauch nicht so ins Gewicht UND man würde vermutlich recht gut sehen warum die nVidia Karte so viel "mehr" FPS liefert bei der höheren CPU Last.
Ich würde ja mal behaupten,das nVidia immer noch recht viel auf die CPU Auslagert was man in dem Test recht gut sehen kann,besonders bei Spielen die im GPU Limit laufen wie z.b. Tomb Raider.
AMD hat mit den Jahren ja immer mehr von der CPU auf die GPU verlagert um die CPU zu entlasten.Da ist es natürlich nur Logisch das die AMD Karten scheller an ihre Grenzen kommen weil sie mehr berechnen müssen.
Würde mich nicht wundern wenn bei geringem Takt und Kernzahl die nVidia schlechter abschneidet.

Ein Bilder Vergleich wäre natürlich auch nicht verkehrt um zu sehen ob es irgend wo Abweichungen gibt.

Ansonsten haben die Neuen Ergebnisse doch gar keine Aussagekraft wenn man die Hintergründe nicht kennt.

--- Update ---

Was in Zusammenhang mit einer höheren CPU Auslastung wieder zeigt, dass die Nvidia
GPU sparsamer arbeitet.

Oder einfach nur wie Sparsam eine AMD CPU im Gegensatz zu ner GPU ist.:P
Da wäre der Furmark Benchmark recht hilfreich.
Es wird nur 1 Kern belastet (somit fällt der CPU Verbrauch weg) und man bekommt noch ein Ergebnis zum Auswerten dazu.
 
Zuletzt bearbeitet:
Die Frage wäre wirklich, was passiert bei aktivierten V Sync, Also ich verwende ja nur eine etwas angestaubte GTX 660TI und ein sehr schwachen Opteron 3280.
Schalte ich V Sync zu, halbiert sich die CPU Last gegenüber der Einstellung ohne V Sync

Einfaches Beispiel in Form von zwei Bildern, das Spiel Torchlight wurde nur geladen, ein kurzen Augenblick gewartet und ein Bildchen gemacht mit und ohne V Sync.

tl-vsyncauswuzzz.jpg


tl-vsynce3ley.jpg


Also ich fand das jetzt schon sehr interessant zu sehen, wie intelligent dieser Kombination zusammenarbeitet bei nur ein genutzten Kern.
 
[3DC]Payne;5079591 schrieb:
@sompe
Wow, Leistungsaufnahme von GTX 970 und R9-290X fast gleichauf.
Krass.

Dabei solltest du aber ein paar Punkte beachten.
- es ist der Strombedarf vom gesammten System, also inkl. CPU
- durch das offene System schoss die GTX970 über den angegebenen Turbo Takt hinaus und zog die Tests mit 1366 MHz durch, was höchst warscheinlich zu lasten der Effizienz geht.
- die R9 290x in meinem System ist wassergekühlt und wird so keine 50 °C warm (Kühlung ist auf eine geringe Lautstärke ausgerichtet), was wiederum positiv für deren Effizienz ist.

Was in Zusammenhang mit einer höheren CPU Auslastung wieder zeigt, dass die Nvidia
GPU sparsamer arbeitet.
Vom reinen Strombedarf der Karten ist das aber auch kein Hexenwerk denn die GPU ist deutlich älter und solange das Teil die Temperatur Grenze nicht erreicht läuft die stur auf max. Takt. OK, in meinem Fall tat das die GTX auch. *g*
Beim Vergleich bei gleicher Framerate zeigte sich allerdings das die GTX die CPU bei Tomb Raider stärker belastet denn die CPU Auslastung praktisch durchgehend höher aus.


Was mich bei den Ergebnissen aber mit Abstand am meisten verwunderte war der CPU Last Vergleich beim "Rise of the Tomb Raider" Benchmark.
Wo sich bei der Geforce die CPU Last von Test zu Test steigerte fiel sie bei der Radeon völlig aus diesem Schema. Beim ersten test war sie streckenweise erstaunlich gering, bei zweiten ging sie durch die Decke und beim dritten Test fiel sie geringer als im zweiten Test aus. Eine so massive Abweichung konnte ich in keinem anderen Test erkennen.
Da scheint also noch deutlicher Optimierungs Bedarf seitens der Spieleschmiede zu bestehen.

--- Update ---

@sompe
Wow, doch ne Menge Daten zusammen gekommen!
Die CPU Auslastung bei Tomb Raider 2013 habe ich mir auch mal kurz angeschaut: http://abload.de/img/tombraiderbench_loadu8sa6.jpg
Auffällig ist bei mir die gleichmäßige Verteilung der Last (Ausbalanciert mit Turbo) allerdings ist das eben HD 7970 CrossfireX. ;)

MfG

Ne HD7970 mit Wasserkühler hab ich auch noch rumliegen.....mit GHz Edition Firmware als Zweitfirmware. ;D

--- Update ---

Die Frage wäre wirklich, was passiert bei aktivierten V Sync, Also ich verwende ja nur eine etwas angestaubte GTX 660TI und ein sehr schwachen Opteron 3280.
Schalte ich V Sync zu, halbiert sich die CPU Last gegenüber der Einstellung ohne V Sync
Einfaches Beispiel in Form von zwei Bildern, das Spiel Torchlight wurde nur geladen, ein kurzen Augenblick gewartet und ein Bildchen gemacht mit und ohne V Sync.
Also ich fand das jetzt schon sehr interessant zu sehen, wie intelligent dieser Kombination zusammenarbeitet bei nur ein genutzten Kern.

Was aber auch nicht wirklich verwunderlich ist da sich die Framerate ebenfalls halbiert hat. ;)
Ich würde sagen das Bild wird einfach nur berechnet und wenn es fertig ist auf das Sync Signal gewartet bis es ausgegeben werden kann. Danach ist das nächste Bild dran usw.
In der Wartezeit wird ganz einfach nichts berechnet udn diese Pausen gehen bei der Ausgabe der Durchschnittswerte ganz einfach unter.
 
Nachdem ich bei meinen gestrigen Basteleien festgestellt hatte das die SSD mit Windows 10 in meinem Wohnzimmer Rechner läuft habe ich beschlossen zu einem späteren Zeitpunkt mal einen kleinen Sondertest mit dessen A10 und der Nano zu machen. Wie wirkt sich der API Wechseln von DX11 auf DX12 auf die Performance dieser Config aus?
Da bei bisherigen Tests eher nach- als Vorteile gab wäre es mal interessant zu schauen wie sich der Wechsel auf die CPU Last und die Leistung dieser Kombination auswirkt.
 
@sompe
:) Just do it.

Monster hunter (online)

mho_benchmark_2016_039hudu.jpg

FX-8350 @ FX-9590 & 1x HD 7970 @ 1125/1575MHz. ;D
 
So, ich habe den Kurztest mal durchlaufen lassen und kam mir von dem Ergebnis ehrlich gesagt ziemlich veräppelt vor.
Für den einfachen Vergleich sind beide Tests in einer Grafik, links der Verlauf bei DX11, rechts der Verlauf bei DX12.
DX11 vs DX12.png

Mal ehrlich, den einzigen Unterschied den ich da sehe ist die höhere CPU Auslastung im dritten Test unter DX12, was sich in sehr deutlichen Nachladeeffekten bemerkbar macht. Dazu noch die stärkere GPU Auslastung mit einer stellenweise geringeren Framerate. Von der erhofften CPU Entlastung kann ich da absolut nichts erkennen. Vor allem beim dritten Test ist genau das Gegenteil der Fall.
Die 4 GB reichen für meine Einstellung bei FullHD offensichtlich dicke. (alle Unschärfeeffekte und Filmkörnung aus, Texturen auf vorletzter Stufe)
 
Zuletzt bearbeitet:
@sompe
Still under construction...
Schon mal die nvidia Vulkan Demos probiert? Die laufen bei mir leider nicht.
Ist aber nicht weiter tragisch, es gibt genug Beispiele auch für ARM. ;)

http://abload.de/img/vulkan_examplenru4z.jpg

€dit: Hitman (5) ist dazu gekommen, sneak preview:

http://abload.de/image.php?img=hma_2016_04_10_20_02_nwsnz.jpg
http://abload.de/image.php?img=hma_2016_04_10_20_00_zks87.jpg
http://abload.de/image.php?img=hma_2016_04_10_19_59_5lsr6.jpg
http://abload.de/image.php?img=hma_2016_04_10_19_59_vlsw1.jpg
 
Zuletzt bearbeitet:
Aber mit ner low(er) Level API eine höhere CPU Last zu bringen und das dann auch noch freizugeben ist aber auch schon ein Kunststück.
Die Vulcan Demos habe ich noch nicht getestet da mir dafür einfach die Zeit fehlte und ich habe die Geforce nur noch bis zum Wochenende.
 
Aber mit ner low(er) Level API eine höhere CPU Last zu bringen und das dann auch noch freizugeben ist aber auch schon ein Kunststück.
Die Vulcan Demos habe ich noch nicht getestet da mir dafür einfach die Zeit fehlte und ich habe die Geforce nur noch bis zum Wochenende.
Womöglich lassen sie PhysX nun auch auf die CPU los, da die Grundlast nun geringer ist. *buck*

Hitman Absolution macht richtig Laune, war wohl einer meiner besten schnapper dieses Jahr und das mit DX11(_1) API. ;D

1080p@1440p (VSR) ohne inGame MSAA:
http://abload.de/image.php?img=hma_2016_04_11_00_05_18erb.jpg
http://abload.de/image.php?img=hma_2016_04_11_00_04_tecbe.jpg
http://abload.de/image.php?img=hma_2016_04_11_00_04_5ret3.jpg

96°C GPU Core Temperatur und keine Ruckler oder Anzeichen von Rauch, Respekt! :o

€dit: um 32FPS Minimum zu erreichen, sind schon 1080p@1440p + 8x MSAA notwendig: http://abload.de/img/hma_2016_04_10_23_44_4pcsu.jpg *buck*
 
Zuletzt bearbeitet:
Seit wann läuft physx bei der Radeon auf der GPU? ;)
Zur Erinnerung, es war das Nano System mit dem A10.
Das sieht mir eher nach nicht vorhandener Optimierung aus denn je komplexer die Szene desto größer der Effekt.
Beim ersten Test in den verschneiten Bergen fiel die CPU Last noch etwas geringer aus, beim zweiten Test in der Grabkammer war sie vergleichbar und beim dritten Test in dem Tal mit der vielen Vegetation fiel sie deutlich höher aus.

Die CPU Last ist offenbar auch der Grund für den massiven Nachladeeffekt im dritten Test zu sein denn bei DX12 lief der A10 hier ständig auf Anschlag. Hier war er im Gegensazu zum DX11 Test ständig präsent.
 
Zum Wochenende hin geht die GTX970 weg.
Wenn ich mit der noch was testen soll geht das also nur noch bis Freitag.
 
Ein paar Messwerte zur Skalierung vom Referenztakt gemäß Nvidia zum höchsten stabilen Takt wären interessant, da neuerdings manche behaupten, dass bei Maxwell jedes MHz gute/ernstzunehmende Extraleistung bringt und den Strombedarf nicht bis kaum negativ beeinflusst.
Vor einem Jahr konnte man noch lesen, dass Maxwell kaum mit Übertaktung skaliert und dafür der Strombedarf unverhältnismäßig nach oben verschoben wird, also das genaue Gegenteil.
Es wirkt auf mich wie ein weiterer Auswuchs des Revisionismus in der Technikentwicklung.
 
Nun ja, bei den kurzen Test hatte das Teil immer die 1366 MHz gehalten, übertraf dabei den angegebenen Basistakt von 1152 MHz deutlcih und sprengte dabei sogar den Turbo Takt von 1304 MHz.
Eine Übertaktung müßte also deutlich darüber hinaus gehen um überhaupt einen Effekt zu haben.
Eine Übertaktung auf 1,4 GHz ist von diesem Ausgangspunkt lediglich eine Steigerung um nicht einmal 4%, mit 1,5 GHz läge man wiederum bei lediglich ca. 10% mehr.
Da ist dann auch klar warum eine solche Karte kaum von einer Übertaktung profitiert denn die reale Taktfrequenz ist einfach deutlich höher als die angegebene Taktfrequenz und man rechnet ganz einfach mit den falschen Ausgangswerten.

Zum Thema Strombedarf spricht ja schon mein Posting #26 Bände. In dem System geben sich beide nicht viel. Vermutlich ist das Power Limit einfach so hoch angesetzt das die Karte deshalb die Taktfrequenz halten kann und dementsprechend Strom frißt. Da das jeder Hersteller anders handhabt kann es von Modell zu Modell zu sehr unterschiedlichen Messergebnissen kommen.
 
Ich meinte die Referenztaktung: 1050 MHz Basis und 1178 Turbo. Wenn du 1400 MHz als Grenze annimmst, kannst du z.B. sieben Punkte in 50-MHz-Schritten anlegen. Das wäre vermutlich ein etwas hoher Aufwand, also könnte man 80-MHz-Schritte verwenden. Dann müsste man je einen Graphen anlegen für minimale und/oder durchschnittliche FPS und für den Strombedarf. An den beiden Graphen könnte man erkennen, welche der beiden Behauptungen näher an der Wahrheit liegt.
 
Ist der Turbo nicht so ausgelegt das er die Grenzen halbwegs ausreizt, weshalb sie auch über den angegebenen Turbo Takt hinaus takten kann?
In dem Fall wäre es ziemlich egal was eingestellt wird solange das Power Limit bleibt und das Kühlsystem die Temperatur gering genug hält. Das Power Limit dürfte beim Strom Bedarf ohnehin der Knackpunkt sein aber ich kann morgen mal schauen ob ich genug Zeit für einen solchen Test habe.
 
Welches Tool kann ich am besten zum Festlegen des GPU Taktes nutzen? Der Afterburner erlaubt nur einen Offset festzulegen.
 
Ich vermute, auch dazu lässt sich Nvidia Inspector nutzen. Im schlimmsten Fall müsstest du mehrere BIOS-Flashs durchführen.
 
Ich mache es m ir jetzt mal einfach und nutze die Offset Funktion um die Daten bei einzelnen Stufen zu ermitteln und lese dabei mit dem Programm HWinfo64 noch ein paar Sensoren der Karte aus. Als Bench nehme ich mal die Gesammtpunkte beim Rise of the Tomb Raider Benchmark.


-316 MHz Offset

GPU Clock: 1063 MHz
GPU Core Voltage: 1,187 V
GPU Power: 156 W
Systemverbrauch: max. 350 - 360W

Bench: 49,16 FPS



-188 MHz Offset

GPU Clock: 1178 MHz
GPU Core Voltage: 1,187 V
GPU Power: 167 W
Systemverbrauch: max. 355 - 365 W

Bench: 53,20 FPS


0 MHz Offset

GPU Clock: 1366 MHz
GPU Core Voltage: 1,187 V
GPU Power: 182 W
Systemverbrauch: max. 370 - 380 W

Bench: 59,03 FPS


34 MHz Offset

GPU Clock: 1400 MHz
GPU Core Voltage: 1,187 V
GPU Power: 182 W
Systemverbrauch: max. 375 - 385 W

Bench: 60,16 FPS


+134 MHz Offset

GPU Clock: 1500 MHz
GPU Core Voltage: 1,162 - 1,212 V
GPU Power: 182 W
Systemverbrauch: max. 380 - 385 W

Bench: 61,90 FPS


+134 MHz Offset und Power Limit bei 111% (Lüfter voll aufgedreht da @ Automatik Absturz)

GPU Clock: 1513 MHz
GPU Core Voltage: 1,212 V
GPU Power: 195 W
Systemverbrauch: max. 395 - 405 w

Bench: 62,90 FPS


Was mir dabei auch auffiel war das der FX vor allem beim Anfang vom dritten Test überfordert war denn die GPU Auslastung lag da bei deutlich unter 90%.
Zudem fällt auf das die Karte ab der Standard Einstellung bereits ins Power Limit rennt.
 
Zurück
Oben Unten