R9 290x vs. GTX970 im CPU Last Vergleich

sompe

Grand Admiral Special
Mitglied seit
09.02.2009
Beiträge
14.387
Renomée
1.983
  • BOINC Pentathlon 2023
Nachdem ich schon des öfteren den Verdacht geäußert hatte das Leistungsvorteile der Geforce nicht zuletzt auf einer stärkeren CPU Auslastung basieren aber keine entsprechenden Tests fand habe ich meine eigene kleine Testreihe mit meinem FX-8350 aufgemacht.
Als Testsystem diente mein Spiele System das unter "Mein System" aufgeführt ist, bei der GTX 970 handelt es sich um eine Gainward GeForce GTX 970 Phoenix die jeden Test mit einem Turbo Takt von ca. 1360 MHz durchlief. Die Radeon durchlief sie mit einem GPU Takt von 1040 MHz.
Als Treiber kamen bei der Radeon der Crimson 16.3 und bei der Geforce der 364.51er zum Einsatz.

Hier das bisherige Ergebnis:

Hitman Absolution
R9 290x: Hitman Absolution R9 290x.jpg
GTX970: Hitman Absolution GTX970.jpg

Tomb Raider
R9 290x: Tomb Raider R9 290x.jpg
GTX970: Tomb Raider GTX970.jpg

Rise of the Tomb Raider
R9 290x: Rise of the Tomb Raider R9 290x.jpg
GTX970: Rise of the Tomb Raider GTX970.jpg

Wie man durchaus erkennen kann fällt die CPU Last in den Beispielen bei einer deutlich höheren Framerate nur allso gern auch deutlich höher aus.
Wo der Unterschied bei Hitman noch recht moderat ausfällt ist der Unterschied bei den beiden Tomb Raider Teilen doch recht erheblich.
Besonders extrem war der Unterschied beim Ersten Test von Rise of the Tomb Raider wo die GTX970 zwar stellenweise nahezu die doppelte Framerate brachte aber auch die CPU fast doppelt so hoch belastete als mit der 290x.

Ich hoffe das der kleine Vergleich für den einen oder anderen interessant war.
 
Zuletzt bearbeitet:
Sehr interessante Benches, scheinbar hat die CPU bei der R9 nicht wirklich viel zu tun....ich nehme jetzt mal nicht den Begriff "Treiber" in den Mund, da wird man ja leider in diesem Forum mittlerweile zerfetzt.

Was mich jetzt in diesem Zusammenhang viel mehr interessieren würde:

Wie wirkt sich das auf den Stromverbrauch aus?
In den Tests der verschiedenen Magazine wird der GTX970 ja gut und gerne mal ein Minderverbrauch von 100-140 Watt attestiert und das OBWOHL die CPU mehr mit ausgelastet wird?

Womit hast du gebencht? Würde das ganze bei TombRaider gerne nachstellen, nicht weil ich dir nicht glaube, sondern weil ich ausschließen möchte, dass dies eine Eigenheit deines Systems ist.
 
Bei TombRaider wäre es nicht schlecht mit genaueren Daten.
Z.b. Den Benchmark mit genauen Einstellungen,Ergebnisscreen,Verbrauchsspitze,Auslastung der CPU UND GPU.....
 
Unterm Strich bestätigten die Ergebnisse meine Vermutungen.
Die vergleichbaren Geforce Karten sind bei diversen Tests vor allem deshalb schneller weil sie mehr von der vorhandenen Rechenleistung (Kerne) der CPU nutzen können und hier spielt natürlich der Treiber eine entscheidene Rolle. Für solche Tests bieten sich die FX Prozessoren durch die deutlich geringere Einzelkern Leistung aber gleicher Thread Zahl wie bei den kleinen i7 ja förmlich an. Mit zunehmender Einzelkern Leistung relativiert sich das Ganze natürlich wieder, weshalb die Radeons bei den Intel Prozessoren do deutlich zulegen können.

Den Strombedarf hatte ich dabei nicht gemessen aber das kann ich bei Zeiten nachholen. Die GTX habe ich ja noch einen guten Monat.
Wenn ich die Zeit habe kann ich ein paar Ergebnisse noch nachliefern.

Ich habe auch noch ein paar sehr aufschlussreiche Werte für den Star Swarm Stress Test.
 
erscheint mir grad nicht ungewöhnlich, dass die CPU-last ausserhalb des CPU-limits ansteigt, wenn die grafikkarte leistungsfähiger ist. es wird ja auch sehr viel mehr gerechnet.



(..)

mfg
tobi
 
Nur beißt sich deine Aussage mit anderen Tests wo eine voll taktende 290x (Uber Modus) bei ersten Tomb Raider etwas schneller als die GTX970 war.
Du kannst aber gern eigene Tests fahren, meine Einstellungen kann ich aber erst morgen rein setzen.
 
ich habe im moment nichts interessantes, das sich zu testen lohnt.

du kannst ja mal einstellungen wählen in welchen beide karten einen beliebigen vsync schaffen und dann deine auslastung mit und ohne sync vergleichen. synchronisiert sollte sich das lastdelta (zumindest teilweise) relativieren.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich bin mir ehrlich gesagt nicht sicher was es bei der Frage der Leistungsunterschiede aufgrund unterschiedlicher Kernnutzung bringen soll denn das wird dabei überhaupt nicht getestet. ???

Das nvidia hier was gefingert haben muss sieht man beim Star Swarm Stress Test recht deutlich.

Zuerst einmal den CPU Verlauf sammt Test Settings vom Mantle Test der 290x:
CPU 290x Mantle.PNG

Einstellungen:
== Hardware Configuration =================================
GPU: AMD Radeon R9 200 Series
CPU: AuthenticAMD
AMD FX(tm)-8350 Eight-Core Processor
Physical Cores: 4
Logical Cores: 8
Physical Memory: 25722417152
Allocatable Memory: 8796092891136
===========================================================


== Configuration ==========================================
API: Mantle
Scenario: ScenarioFollow.csv
User Input: Disabled
Resolution: 1920x1080
Fullscreen: True
GameCore Update: 16.6 ms
Bloom Quality: High
PointLight Quality: High
ToneCurve Quality: High
Glare Overdraw: 16
Shading Samples: 64
Shade Quality: Mid
Deferred Contexts (D3D11): Disabled
Small Batch Optimized (Mantle): Enabled
Temporal AA Duration: 16
Temporal AA Time Slice: 2
Detailed Frame Info: Off
===========================================================

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 24496

Average FPS: 68.04
Average Unit Count: 4478
Maximum Unit Count: 5735
Average Batches/MS: 1237.14
Maximum Batches/MS: 6017.47
Average Batch Count: 18948
Maximum Batch Count: 102500
===========================================================

Wie man sieht eine recht gute Nutzung aller Kerne.

Beim DirectX Test sah das bei weitem nicht so gut aus und schlug sich natürlich auch recht deutlich auf das Ergebnis nieder:
CPU 290x DirectX.PNG

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 10642

Average FPS: 29.56
Average Unit Count: 4125
Maximum Unit Count: 5394
Average Batches/MS: 466.63
Maximum Batches/MS: 1023.58
Average Batch Count: 18470
Maximum Batch Count: 150809
===========================================================
Von einer GPU Limitierung kann man hier wohl kaum reden und 3 der 8 Kerne werden nahezu garnicht genutzt.


Ganz anders sah es bei der GTX970 aus:
CPU GTX970 DirectX.PNG

== Results ================================================
Test Duration: 360 Seconds
Total Frames: 21304

Average FPS: 59.18
Average Unit Count: 4323
Maximum Unit Count: 5604
Average Batches/MS: 1038.18
Maximum Batches/MS: 2654.77
Average Batch Count: 19532
Maximum Batch Count: 127717
===========================================================
Wie man unschwer erkennen kann ist die Framerate deutlich höher als bei der Radeon unter DirectX und der CPU Last Verlauf erinnert mehr an den Last Verlauf vom Mantle Ergebnis und fällt dabei erheblich höher aus als das DirectX Ergebnis der 290x. Der deutlichste Unterschied dürfte dabei die Kern Nutzung sein.

--- Update ---

Noch eien Anfrage in eigener Sache.
Welches Tool würde sich am besten für das Loggen des GPU und CPU Lastverlaufs inkl. der gesammt CPU und Einzelkern Last eignen?
Als Strom Messgerät kann ich nur mit einem Voltcraft Energy Check 3000 dienen.
 
Zuletzt bearbeitet:
erscheint mir grad nicht ungewöhnlich, dass die CPU-last ausserhalb des CPU-limits ansteigt, wenn die grafikkarte leistungsfähiger ist. es wird ja auch sehr viel mehr gerechnet.



(..)

mfg
tobi
Das mag bei nvidia Zutreffen, bei AMD eher weniger, da sie ja "fütter" Kerne auf der GPU verbaut haben.
Vom AsyncShader kann es nicht sein da es DX11 API ist erst DX12 unterstützt AsyncShader.
Da wird bei nvidia auf die CPU ausgewichen da die GPU das nicht komplett allein machen kann wie die AMD GCN Arch. ;)



Noch eien Anfrage in eigener Sache.
Welches Tool würde sich am besten für das Loggen des GPU und CPU Lastverlaufs inkl. der gesammt CPU und Einzelkern Last eignen?
Als Strom Messgerät kann ich nur mit einem Voltcraft Energy Check 3000 dienen.
Mit dem MSI Afterburner, Vorteil er loggt auch gleich FPS und Framtimes in einer Zeile mit Last für CPU Kerne und GPU Auslastung.
Bei den Überwachungs Einstellungen den Haken setzen bei "schreibe Werte in Datei:"

*great*

MfG
 
Verstehe das "Problem" des Threads nicht wirklich. Je mehr Leistung die Grafikkarte hat, also je mehr Daten sie schaufeln kann, desto mehr bekommt auch die CPU zu tun. Zwei Karten mit unterschiedlichen Framerates zu vergleichen, macht wenig Sinn.

Vereinfacht gesagt limitiert bei einem Spiel ja in den meisten Fällen entweder die Grafikkarte oder die CPU. Eins von beiden schaufelt am Anschlag und begrenzt die Framerate (vorausgesetzt, man hat nicht per Vsync oder Power Limit oder sonstwas limitiert).

Um nun einen halbwegs sinnvollen Vergleich zweier Grafikkarten zu haben, müsste man die Datenmenge, die beide schaufeln (bzw. die Framerate, die beide liefern), also auf jeden Fall schonmal gleichsetzen. Also wie Tobi schon sagte Vsync setzen. Und zur Not Grafiksettings reduzieren, falls eine Karte den VSync nicht dauerhaft schafft - identische Settings für beide Karten, versteht sich.

Dann kann man vergleichen, welche Karte (bzw. welcher Treiber) bei gleicher Grafikleistung mehr CPU-Last verursacht.
 
Zuletzt bearbeitet:
Du verstehst das Thema des Threads nicht, das ist alles.
Hier geht es nicht um irgendwelche Overhead oder sonstwas für Geschichten sondern um das Thema "Leistungsunterschiede aufgrund unterschiedlicher Nutzung vorhandener CPU Ressourcen".
 
Ja genau, und deswegen musst du die Grafikleistung beider Karten gleich setzen. Dann kannst du sehen, welche Grafikkarte diesese Grafikleistung mit weniger CPU-Last erreicht, also im Umkehrschluss die vorhandene CPU-Ressourcen effizienter nutzt. Daraus kannst du dann ableiten, welche Karte bei gleicher CPU-Last mehr leistet.

So wie hier getestet wurde, bringt das jedenfalls genau garnichts. Da müsste man erstmal mit jeder Grafikkarte für sich eine ganze Messreihe machen, um zu sehen, wie sich die CPU-Last in Relation zur GPU-Auslastung verhält. Das verhält sich ja nicht linear.
Oder anders ausgedrückt: Wenn Karte A 30fps liefert und Karte B 60fps (nur als Beispiel), und Karte B dabei 50% mehr CPU-Last verursacht, sagt das erstmal garnichts aus. Könnte sein, dass Karte A bei dieser Grafikleistung genauso viel CPU-Last verursachen würde. Vielleicht mehr, vielleicht weniger. Du weißt es nicht und kannst es auch nicht testen, da die Karte soviel garnicht leisten kann. Die einzige Möglichkeit, das sinnvoll zu testen ist also, die Grafikleistung gleich zu setzen.
 
Zuletzt bearbeitet:
Mehr FPS = mehr Rechenaufwand für die CPU. Das ist völlig normal! Für jedes von der GPU generierte Bild muss auch die CPU einen Satz berechneter Daten liefern. Die GPU kann nicht zwei, drei Bilder mit dem selben Datensatz erstellen, denn das wären in dem Fall dann auch zwei, drei identische Bilder und es wäre eine FPS schummellei. Die Übrigens so auch schon vorgekommen ist... *ATI* hust.

Der Rückschluss das die nVidia nur schneller war wegen der CPU ist falsch. Ist so ein typisches Phänomen, man testet um ein bestimmtes Ergebnis zu haben. Ist das erreicht ist man zufrieden. Das hier aber größere Logik und somit Argumentationslücken herschen wird ausgeblendet.

Wäre die nVidia Karte nur wegen der CPU schneller müsste die Karte irgendwann langsamer als die AMD werden wenn die CPU langsamer läuft, das wird aber nicht passieren. Ebenso müsste die nVidia auch deutlich besser als die AMD mit immer schnelleren CPU skalieren, auch das wird nicht passieren.
 
Zuletzt bearbeitet:
Du hast dir die Postings aber auch mal durchgelesen, oder?
Beide Karten haben durchaus eine vergleichbare Leistung, beide Karten wurden im gleichen System und mit den gleichen Einstellungen getestet, der FX ist aufgrund seiner Einzelkern Leistung nicht gerade eine Rakete und strotzt aufgrund der 8 Kerne nur so an brach liegender Rechenleistung.
Ein extrem Beispiel ist mit dem Star Swarm Stress Test ebenfalls dabei. Noch eindeutiger kann eine Limitierung wohl kaum ausfallen.

Das Einzige was bisher noch fehlt ist die GPU Auslastung in Relation zur CPU/Kern Auslastung.

Falls hier wieder jemand anfängt mit einer Grundsatzdiskussion die nichts mit dem Thema zu tuen hat das Topic zuzumüllen bitte ich um dessen Entfernung.

--- Update ---

@Saulus
Das ist keine Einbahnstraße.
Ist weniger CPU Leistung nutzbar kannst du noch so viel GPU Leistung haben. die dreht nur länger Däumchen und genau darum geht es.
Dein "irgendwann" siehst du übrigens in #8.
 
Ah ok, eine Diskussion über die Sinnhaftigkeit der Testmethoden ist bei dir also eine Grundsatzdiskussion, die nichts mit dem Thema zu tun hat und den Thread zumüllt? Ok, verstehe. Irgendwas testen, Messergebnisse hinklatschen, Interpretation ausdenken, Diskussion darüber unerwünscht. Saulus hatte Recht mit dem, was er schrieb.

Naja, dann mach du mal. Ich bin gespannt auf die Ableitungen und Interpretation der Ergebnisse. Warum machst du dann eigentlich einen Thread dafür, wenn eine Diskussion über die Messungen/ Ergebnisse sowieso unerwünscht ist?
 
Zuletzt bearbeitet:
Und schon ist die Grundsatzdiskussion zum Zerreden da...
Da du dich nicht offensichtlich weder für das Thema, noch für das Ergebnis interessierst und es dir frei steht zu gehen fordere ich dich hiermit auf dies auch zu tuen.
 
Langsam Leute, wir driften hier gerade in die (mittlerweile) übliche "Henne-Ei-Diskussion" ab.

sompe hat einen sehr interessanten Ansatz mit seinen Benches geliefert, den es vielleicht weiter zu verfolgen gilt.
Grundsätzlich liefert hier eine GraKa die bei Benches auf Intel Systemen durchaus "ein paar PS mehr hat" , signifikant schlechtere Ergebnisse und scheint dabei die CPU weniger Auszulasten als die "schwächere".

Dass man, wie von Thunderbird oder Tobi vorgeschlagen, durch eine FPS Limitierung in Form von Framelock oder Vsync die Ergebnisse auf ein besser vergleichbares Level bringen sollte, wäre jetzt der nächste logische Schritt, um den ich hiermit den TE ganz offiziell ersuche.
 
Doch, ganz offensichtlich interessiere ich mich für das Thema und das Ergebnis. Du bist nur scheinbar an keiner Diskussion über Messmethode und Ergebnis interessiert. Warum erschließt sich mir nicht *noahnung*
Ich bin jedenfalls auf weitere Werte/ Ergebnisse gespannt.

Volle Zustimmung @BlackOak
 
@BlackOak
Leider nein denn eine Festlegung der Framerate ginge vollständig am Thema vorbei da es für die CPU Auslastung vollkommen wuppe ist wie sich die Last auf die Kerne verteilt.
Ob dabei nun bei einem 8 Kerner z.B. 2, 3 oder 4 Kerne genutzt werden ist für Gesammtauslastung bei gleicher Belastung ziemlich egal. Irgendwelche Vorteile aufgrund zusätzlicher Last bei sonst ungenutzten Kernen ginge dabei völlig unter.
Die bei AMD Prozessoren typische schnell durch die Kerne durchlaufenden Threads in Kombination mit den angezeigten Mittelwerten machen zudem Beurteilungen aufgrund der angezeigten Kern Auslastung zu nichte.

Ihr wollt einen Beleg für die letzte Aussage? Kein Problem denn das Szenario konnte ich schon bei meinen Tests in meinem R9 Nano Topic beim Hitman Test beobachten. Ins besondere den Zusammenhang der Tests bei Beitrag #53 und Beitrag #57.

http://www.planet3dnow.de/vbulletin...r-die-Frage!?p=5049264&viewfull=1#post5049264
Hitman FX-8.PNGFX-8 4 core.PNG

Man beachte die angezeigte Auslastung der Kerne, die nahezu identischen Werte im 8 Core vs. 1 Core pro Modul Szenario und die so deutliche CPU Limitierung das sich sogar die CMT Skalierung beim 2 Modul vs. 1 Core pro Modul 4 Kern Last Szenario.
 
Deine Messungen aus dem ersten Beitrag zeigen auf jeden Fall, dass mit der GTX970 mehr CPU-Ressourcen verwendet werden, das ist richtig. Allerdings, wie schon gesagt wurde, auch bei mehr geleisteten Frames/s. Zwischen 60 und 48fps (Raise of the Tomb Raider) liegen ja mal eben 25%. Die zusätzlich verwendete CPU-Kapazität liegt jedoch deutlich über 25%. Soweit sind wir uns einig.

Also generell stimme ich deiner Interpretation ja zu, dass die GTX970 die CPU überproportional mehr auslastet. Die Tendenz ist in den Messungen erkennbar. Nur wäre es für einen aussagekräftigeren Test eben doch wichtig, dass man die Grafikleistung (also Framerate) gleichsetzt. Ganz einfach deshalb, weil du nicht weißt, welche CPU-Auslastung du mit der R9 290X hättest, wenn sie bei Tomb Raider ebenfalls 60fps schaufeln würde. Es könnte sein, dass die CPU-Last exponentiell ansteigt mit höherer Framerate (auf jeden Fall nicht linear), und der Unterschied dann nur noch gering ist. Wenn du die Framerate bei beiden Karten gleich setzt, kannst du genau sagen, dass bei gleicher Grafikleistung (also prinzipiell der gleichen Arbeit, die die CPU dafür leisten muss) mit einer GTX970 x% mehr CPU-Last verursacht wird. Das wäre dann deutlich aussagekräftiger.

So kann man aus den aktuellen Messergebnissen nur ableiten: Die GTX970 liefert eine höhere Framerate als die R9 290X und benötigt dafür überproportional mehr CPU-Ressourcen. Wie hoch die zusätzliche CPU-Auslastung unter gleichen Bedingungen ungefähr ist, kann man allerdings nicht sagen, weil die Umgebungsvariablen (zu berechnende Bilder) im Test garnicht gleich waren.

Wenn dir das als Aussage für diesen Thread ausreicht, ok.

Und wie bewerten wir das jetzt? Ist das gut, ist das schlecht? Prinzipiell wäre es ja vorteilhaft, wenn die CPU höher ausgelastet wird zu Gunsten einer höheren Framerate. Schließlich ist in Spielen meistens die Grafikkarte der limitierende Faktor, während die CPU noch massig Reserven hat (sollte zumindest so sein, sonst hat man zu niedrige Grafiksettings gewählt ;D).

Und ja, wie schon gesagt wurde: Die Leistungsaufnahme des Gesamtsystems dabei ist natürlich auch noch eine interessante Sache. Denn ob ein System z. B. 100W mehr oder weniger Leistung zieht, ist natürlich auch nicht unerheblich.

--- Update ---

Achja, eine wichtige Frage fällt mir gerade noch ein: Die R9 290X Tri-X OC, die du verwendet hast, hat doch 4GB, richtig? Frage nur, weil's die ja auch mit 8GB gibt.
 
Zuletzt bearbeitet:
Zum einen, ja es ist das 4 GB Modell, ist für den Sachverhalt an sich aber ziemlich egal.
Zum anderen, es ist vollkommen egal wo die 290x womöglich, unter umständen, vielleicht sein könnte wenn sie vielleiiiiicht so viel CPU Last erzeugen köönnte weil es eben nicht so ist und am ist Zustand nichts ändert. Da wäre es noch sinnvoller die CPU so zu beschneiden das bei dem jeweiligen Spiel beide Karten massiv im Limit säßen udn sich langweilen.

Die Frage nach dem wieviel mehr CPU Last steht auch nicht zur Debatte sondern es geht ausschließlich um die Untersuchung woher die Abstände bei 2 Grafikkarten mit sonst vergleichbarer Leistung kommen. Stichwort der Mythos des ach so effizienten Treibers der vor allem seit dem Star Swarm Stress Test immer wieder aufgekocht wird.
Wenn du das "wieviel" untersuchen wills kannst du gern ein eigenes Topic auf machen. Viel Spass dabei!

An der Stelle verweise ich dich erneut an #14 denn das was du schreibst ist für den ist Zustand vollkommen irrelevant, womit wir wieder bei der Grundsatzdiskussion und dem Zerreden wären.

Wenn das nicht fruchtet wäre ich für eine Entfernung dieser sinnlosen Nebendiskussion dankbar.
 
Keine Ahnung, warum du dich hier so quer stellst. Alles, was ich hier schrieb, ist absolut On-Topic :]

Zum einen, ja es ist das 4 GB Modell, ist für den Sachverhalt an sich aber ziemlich egal.
Nein, ist für den Sachverhalt nicht egal. Wäre es das 8GB Modell gewesen hatte man spekulieren können, ob durch den geringeren Grafikspeicher höhere CPU-Last verursacht wird. Aber danke für die Klärung.

Zum anderen, es ist vollkommen egal wo die 290x womöglich, unter umständen, vielleicht sein könnte wenn sie vielleiiiiicht so viel CPU Last erzeugen köönnte weil es eben nicht so ist und am ist Zustand nichts ändert.
Nein, es ist nicht völlig egal. Das sind absolute Grundlagen der Messtechnik. Wenn du die Umgebungsvariablen bei einem Vergleich nicht auch möglichst gleich setzt, hat das Ergebnis eben auch nur eine sehr schwammige/ begrenzte Aussagekraft. So wie hier. Aber gut, dir reicht eine ungefähre Tendenz als Aussage, das haben wir ja jetzt geklärt.

Die Frage nach dem wieviel mehr CPU Last steht auch nicht zur Debatte sondern es geht ausschließlich um die Untersuchung woher die Abstände bei 2 Grafikkarten mit sonst vergleichbarer Leistung kommen. Stichwort der Mythos des ach so effizienten Treibers der vor allem seit dem Star Swarm Stress Test immer wieder aufgekocht wird.
Ok, also du möchtest untersuchen, woher die Abstände der CPU-Last beider Grafikkarten kommen. Aber wie groß die Abstände überhaupt ungefähr sind, möchtest du nicht wissen, obwohl es recht einfach zu testen wäre. Kein Thema, ist geklärt.

Und wie genau möchtest du das nun untersuchen, woher diese (unbekannt großen) Abstände der CPU-Last kommen?

Das können wir auch abkürzen:
Die GTX970 ist einfach scheiße auf Grund ihres kastrierten Speichers, der zweifelsohne einen erhöhten Verwaltungsaufwand verursacht, was vermutlich die höhere CPU-Auslastung erklärt (gut, dafür hat sie auf der anderen Seite aber auch eine deutlich geringere Leistungsaufnahme). Um das zu belegen/ widerlegen, müsste man nun vergleichbare Tests mit (wiederum möglichst gleich schnellen) Karten machen wobei die nVidia Karte keinen kastrierten Ram hat. Also z. B. GTX980 vs. R9 Fury.

Dem nVidia Treiber generell eine schlechtere Effizienz nachzuweisen, ist mit den vorliegenden Fakten unmöglich. Dazu sind die Karten, schon alleine wegen des kastrierten Speichers der GTX970, viel zu unterschiedlich, um irgendwas ableiten zu können.
 
Zuletzt bearbeitet:
Zwei Posts entfernt. Bitte sachlich bleiben, danke.

@Topic: Ich finde das Thema interessant, die Umgebungsvariablen sind aber durchaus wichtig, da hat Thunderbird 1400 schon nicht unrecht.

Mich würde zB. interessieren wie beide Karten bei max 30fps und gleichem CPU Takt sich verhalten und einen entsprechenden Vergleichswert, von mir aus bei max 45 fps Begrenzung im Treiber?
 
Für extrem genaue Werte braucht es dann aber auch hier gleiche PCs die separat von Treibern des anderen Herstellers getrennt getestet werden. Also gleich 4 Stück (2 Intel/2 AMD) und dazu auch noch eine GTX 960/970/980(ti), sowie eine 2(3)90x/R9Fury(x). Ach halt, man muss ja auch noch die API mit einbeziehen. Also gleich 8 Computer mit unterschiedlichen OS, weil muss man ja auch betrachten. Und Vsync macht ja nicht wirklich Sinn, weil der Monitor ja vielleicht adaptive Sync kann. Also eher Framelocker oder so. Und dann darf es ja auch kein Spiel mit Physx sein, weil muss ja unabhängig vom Konkurrent getestet werden!

Freiwillige vor? :)
 
Sooo....nach Stunden der Testerei habe ich ein paar Ergebnisse.

Zunächst einmal die Einstellungen in den Spielen:

Tomb Raider

TR Einstellungen 1.PNG TR Einstellungen 2.PNG

Rise of the Tomb Raider
Einstellungen 1.PNG RotTR Einstellungen 2.PNG

Hitman Absolution
HA Einstellungen 1.PNG HA Einstellungen 2.PNG

Als nächstes der Vergleich zwischen der 290x und der GTX970 bei Tomb Raider mit vsync @ 60 Hz.
290x: 290x vsync.PNG GTX970: GTX970 vsync.PNG


Fortsetzung folgt....
 

Anhänge

  • TR Verlaufsdiagramme 290x.PNG
    TR Verlaufsdiagramme 290x.PNG
    24,7 KB · Aufrufe: 66
  • TR Verlaufsdiagramme GTX970.PNG
    TR Verlaufsdiagramme GTX970.PNG
    42,2 KB · Aufrufe: 63
Zuletzt bearbeitet:
Zurück
Oben Unten