Ex-Post Analyse CPU Leistung in Spielen?

Tu334

Cadet
Mitglied seit
13.03.2014
Beiträge
39
Renomée
2
Liebes Forum!

Ich möchte gleich mit der Tür ins Haus fallen:

Folgende Überlegung:
CPUs werden meist zu deren Erscheinen (berechtigterweise) auch auf deren Spieletauglichkeit geprüft. Oftmals kommt es dabei zu GPU limitierten Szenarien, in welchen die Unterschiede zwischen verschiedenen CPUs minimal ausfallen. Man ging dann bekanntlich dazu über die Lastverteilung zwischen CPU und GPU künstlich zu verschieben. Dies wird meist durch Reduktion der Auflösung und/oder Detailstufen gemacht. Die Annahme hierbei: man macht eine Ex Ante Analyse der CPU und möchte somit zukünftige, die CPU in Spielen stärker belastende Szenarien simulieren.

Jetzt meine zentrale(n) Frage(n):
  • Sind schon jemals auch bewusst EX Post Analysen gemacht worden? Kennt jemand solche?
  • Hat eventuell jemand aus dem P3D Umfeld Interesse eine Solche zu erstellen? ;D

Wie könnte soetwas aussehen?
Man nehme etwa einen Test eines Bulldozers vs Sandy Bridge von vor fünf Jahren her, übernehme die Hardwarekonfiguration von damals mit aktueller Software (Win10, aktuelle Spiele...) und vergleicht die Vorhersagen, mit den tatsächlich eingetroffenen Werten. Das würde letztlich dabei helfen die Plausibilität der Testmethode einzuschätzen.

Also etwa:
CPU A war 2012 5% schneller in FullHD und 17% schneller in HD, als CPU B
Im Jahre 2017 war CPU A 8% schneller als CPU B in FullHD
Würde etwa bedeuten, dass die Richtung der Vorhersage zwar nicht falsch war, aber das Ausmaß überschätzt wurde.


Hoffentlich ist der Bereich "Tech-Talk" dafür passend, wo doch auch hier auf zumindest aktuelle, wenn nicht gar zukünftige Entwicklungen verwiesen wird...
Würde mich sehr über eure Meinungen freuen.
 
Es kommt immer auf die Spiele an.
Beispiele die Ich nennen kann sind LOL ,WOT und WoWs.
Bei allen 3 Spielen musste über die Jahre die GPU Leistung Deutlich gesteigert werden,wärend die CPU Leistung recht gleich bleiben kann.
 
Mir ging es genau um den Unterschied zwischen verschiedenen CPUs.
Als Beispiel:
Der Bulldozer Test auf Computerbase: Spieletests in 1680*1050
Der beliebten i5-2500k ist hier 23% schneller als der FX 8150 in 1680*1050.
Abgerundet wird der Test um Spielebenchmarks in 640*480, wobei erwähnt wird: "wichtig sind genau diese Werte, da sie beim Prozessorkauf besser für die Zukunft planen lassen."
In diesem Test ist der i5 der Sandy Bridge Generation bereits 39% schneller als der Bulldozer.

Als ExPost Analyse wäre jetzt interessant, aktuelle Spiele in aktueller Auflösung mit aktueller Grafikkarte zu testen, und den i5 gegen den Fx abermals antreten zu lassen. Kann die damals vorrausgesagte Tendenz bestätigt werden oder nicht?
 
Kann die damals vorrausgesagte Tendenz bestätigt werden oder nicht?

Wie ich geschrieben hatte,kommt es auf die Spiel an.
Desweiteren kommt es auch drauf an wer den Test macht.
Nimmst die meisten Testseiten ist das Ergebnis Eindeutig,Intel ist 500% schneller,AMD 500% langsamer als vor 5 Jahren.
Liegt halt an den Vorgaben die die Tester von Intel bekommen.
Willst was "Reales"auf die Beine stellen,musst nicht so bekannte Spiele von früher und Heute verwenden die nicht von Intel finanziert werden und demnach auch nicht nur auf Intel Optimiert sind.......Beispiel BF4 der FX 4xxx war anfangs sogar schneller als die i5,der FX 6xxx lief noch nicht richtig und der 8xxx machte die i7 platt.
Der Aufschrei war groß und schneller als du kucken konntest liefen die FX schlechter und die Intel immer besser bis zum gewohnten Bild,FX4xxx max i3 , FX6xxx i3 bis i5 , FX8xxx i5.

Was du aber bei AMD CPUs UND GPUs über die Jahre sehen kannst in manchen Spielen wo AMD soooo schlecht war ist,die AMD werden mit der Zeit besser,Intel/nVidia lassen aber nach.......
Ich könnt dir das z.b. anbieten von Mitte 2014:
Die FPS musst x2 nehmen.Die gingen zu der Zeit noch ordentlich runter beim Aufzeichnen.

Da dir die Tollen Testseiten ja alle bescheinigen und Einreden das sich bei AMD seit 10 Jahren nix an der CPU Leistung geändert hat,ist der Unterschied zwischen dem Athlon x4 750K @4GHz + R9 270 ja nicht wirklich groß gegenüber dem Athlon x4 845 @3,6GHz und ner Halben RX 470.
Ist natürlich ein Anders Bild , die Graka begrenzt hier , du hast die vollen FPS. Mittelprächtiger Vergleich weil die Screens für nen anderen Test waren.
http://www.abload.de/gallery.php?key=sPO2YeGe

--- Update ---

Die Letzten 7 sind mal eben auf die Schnelle gemacht mit höherem Takt der Graka............Würde ja gern mehr machen,aber halte nicht lang.......;D
 
Zuletzt bearbeitet:
Nicht nur die Treiber,auch die CPUs werden besser unterstützt.
 
Ich finde es eher Schwachsinn, die GPU-Leistung künstlich auf ein unrealistisches Minimum zu beschränken und dann die unrealistischen Unterschiede zwischen CPUs im Kaffeesatz zu lesen.
Dann nimmt man halt einfach ein CPU-lastiges Spiel und stellt trotzdem realistische Grafik ein.
Wenn dann immer noch rauskommt, dass die CPU-Leistung zwischen High-End-CPU A und B eigentlich wurscht ist, dann muss das als Fazit reichen.
Was die Zukunft bringt, wissen wir eh nicht.
 
Ich finde es eher Schwachsinn, die GPU-Leistung künstlich auf ein unrealistisches Minimum zu beschränken und dann die unrealistischen Unterschiede zwischen CPUs im Kaffeesatz zu lesen.
Dann nimmt man halt einfach ein CPU-lastiges Spiel und stellt trotzdem realistische Grafik ein.
Wenn dann immer noch rauskommt, dass die CPU-Leistung zwischen High-End-CPU A und B eigentlich wurscht ist, dann muss das als Fazit reichen.
Was die Zukunft bringt, wissen wir eh nicht.

So ist es.*great*
 
Die Aussage von damals waren eh für die Tonne denn das Hauptproblem des FX war und ist die Anzahl der vom Spiel genutzten Kerne.
Bis 4 Kerne kann der i5 natürlich aus den vollen schöpfen weil nur die Hälfte vom FX-8 genutzt wird aber mit zunehmender Anzahl der genutzten Kerne schmilzt der Vorsprung zusammen bis er je nach Modell überholt wird.
Dummer weise ignorieren die Test idR. die Kern Skalierung...
 
Es waren / sind aber nicht nur die Kerne sondern die FX wurden einfach mit der Bauweise links liegen gelassen und bekamen keine Unterstützung und Optimierung.
Man kann sich das ja schön ansehen wenn man Kerne im Modul abschaltet oder Module Abschaltet.In Spielen / Benchmarks die Öffentlich getestet werden hast nen recht großen Unterschied,bei anderen Spielen / Benchmarks wiederum hattest keinen wirklichen Unterschied gesehen.........

--- Update ---

Ich hab mal Geschaut,Test vom Mitte 2013,dort sind Trinity und Richland nahe zu gleich.
https://www.computerbase.de/2013-06/amd-richland-cpu-test/5/

Test von Anfang 2014,kaum Unterschiede in den Spielen zwischen Richland und Kaveri.
https://www.ht4u.net/reviews/2014/amd_kaveri_apus_im_test/index33.php

Test von Ende 2016,Carrizo ist da wo er hin gehört,Aktualisiert (Neu getestet) wurden die Alten CPU aber auch nicht von 2014.
https://www.ht4u.net/reviews/2016/a...cavator-kernen_im_desktop-bereich/index23.php


Mein Video von Oben ist von Mitte 2014,Der Athlonx4 750K Taktet mit 4GHz,die Einstellungen musst ich runter stellen wie im Video zu sehen sonst gingen die FPS noch weiter runter,die R9 270 hat sich ihre 100% Last gern mal mit der CPU geteilt ohne Aufzeichnung.Man konnte schon sagen zu 50% GPU und zu 50% CPU Begrenzung.

Neues Video,der Athlonx4 845 Taktet mit 3,5GHz,die RX470 musst schon mit 1200/1750MHz Takten damit sie nicht die Dauerbremse ist ohne Aufzeichnen.Einstellungen wie zu sehen alles auf MAX und FullHD.
Die FPS gehen beim Aufzeichen auch nicht mehr so weit runter und Vor Videoabschnitt 3 und 4 je zwei Bilder mit den FPS ohne Aufzeichnung und mit Aufzeichnung.
Komisch find ich nur,warum setzt sich bei "MIR" der Athlonx4 845 Gedrosselt so weit ab im Spielen gegenüber dem Athlonx4 750K @4GHz. ???*kopfkratz *noahnung**suspect*
 
Zuletzt bearbeitet:
Das Hauptproblem für solche Tests ist aber dennoch die Kern Nutzung und genau hier werden Aussagen zu Zukunftsaussichten des Prozessors aufgrund von Tests bei bisherigen Spielen bei geringer GPU Last nutzlos. Die Anzahl der genutzten Kerne nimmt zu wodurch die Modelle mit weniger aber schnelleren Kernen künftig höchst warscheinlich zurück fallen werden.

Das ist einer von vielen Punkten wo man merkt das die Test Methoden immernoch in Singlecore Zeitalter feststecken.
 
Das ist einer von vielen Punkten wo man merkt das die Test Methoden immernoch in Singlecore Zeitalter feststecken.

Aus welchem Grund........richtig,damit ein Pentium besser ist als ein FX 8xxx bei den Testseiten.
Warum........weil Intel Compiler verwendet werden die AMD nicht unterstützen,ausbremsen.....
Bei Ryzen würd ich schon fast behaupten das der Intel Compiler diesen gar nicht als AMD erkennt......*suspect*

ABER was ist z.b. bei WoT passiert das nach Jahren auf einmal solch ein großer Unterschied da ist bei Mir und bei Testseiten überhaupt nicht?!
An der Kernauslastung hat sich nicht wirklich was geändert,man kommt immer noch auf rund 2 Kerne.....
 
Zuletzt bearbeitet:
Könnte es sein, dass die Testseiten überwiegend die älteren Systeme gar nicht neu testen, sondern einfach die Ergebnisse von damals ausgraben und mit den neuen Systemen vergleichen, wo dann mitunter neuere Grafiktreiber oder Spiele-Patches eingepflegt wurden.
Theoretisch müsste eine seriöse Spieletestseite ja alle alten rechner aufheben und immer wieder neu mit testen.
 
Im Singlecore Zeitalter gab es die Multicore Probleme nicht.
Ein Prozessor der mit seinem Kern deutlich langsamer war als ein anderer war es auch beim nächsten Spiel.
Probleme wie das ein Prozessor nur deshalb schneller ist weil beim andereren nur ein Bruchteil der Kerne genutzt wird gab es ganz einfach nicht.
Ein klassisches Beispiel dafür? Man schaue sich nur die ersten Tests der FX Prozessoren an und die spöttischen Rufe das selbst der Celeron schneller wäre. Nachforschungen warum das so ist? Fehlanzeige. Heute dürften die gleichen Celerons nicht nur weit hinter dem FX liegen sondern einige Spiele dürften auf ihnen noch nicht einmal mehr starten weil sie 4 Kerne/Threads voraussetzen.
 
Könnte es sein, dass die Testseiten überwiegend die älteren Systeme gar nicht neu testen, sondern einfach die Ergebnisse von damals ausgraben und mit den neuen Systemen vergleichen, wo dann mitunter neuere Grafiktreiber oder Spiele-Patches eingepflegt wurden.
Theoretisch müsste eine seriöse Spieletestseite ja alle alten rechner aufheben und immer wieder neu mit testen.

Ich würde sogar sagen das ist so,weil viele Ergebnisse Identisch sind.....

--- Update ---

Im Singlecore Zeitalter gab es die Multicore Probleme nicht.
Ein Prozessor der mit seinem Kern deutlich langsamer war als ein anderer war es auch beim nächsten Spiel.
Probleme wie das ein Prozessor nur deshalb schneller ist weil beim andereren nur ein Bruchteil der Kerne genutzt wird gab es ganz einfach nicht.
Ein klassisches Beispiel dafür? Man schaue sich nur die ersten Tests der FX Prozessoren an und die spöttischen Rufe das selbst der Celeron schneller wäre. Nachforschungen warum das so ist? Fehlanzeige. Heute dürften die gleichen Celerons nicht nur weit hinter dem FX liegen sondern einige Spiele dürften auf ihnen noch nicht einmal mehr starten weil sie 4 Kerne/Threads voraussetzen.

Schon richtig,aber WoT ist ja das klassische Gegenteil weil es eben so wenige Kerne verwendet und deswegen kannst gut sehen was sich in der Zeit geändert hat.
Wobei ich mir aktuell jetzt nicht sicher bin wie viele es jetzt wirklich sind......Angefangen hatte es ja mit Einem und ich mein 2013/14 wurd es auf 2 gesteigert.Ob es bis Heute noch ne Änderung gab......ist halt nur ein Testspiel für mich.
 
Solche Tests mit gedrosselten Grafikeinstellungen sind für Aussagen zur Zukunft einfach nutzlos und um nichts anderes geht es bei mir.
Zum einen gelten die Rückschlüsse nur für dieses eine Spiel und zum anderen kann keiner sagen wieviele Kerne künftige Spiele nutzen werden.
Das einzige was man davon ableiten könnte ist ob bei dem Spiel eine schnellere Grafikkarte etwas bringen könnte.
 
Ja, die Radeon Treiber sind im laufe der Zeit besser geworden. ;)
Ich hab hier noch was aus dem Jahre 2012: http://abload.de/img/3dm11-x-fx-81504.5ghzb4u6d.jpg

Nicht nur die Treiber,auch die CPUs werden besser unterstützt.
Je nach dem ob auch neue Befehlssätze zum Einsatz kommen.
Beim CPU Test von 3DMark 11 hat sich jedenfalls nichts getan, nur das der FX-8350 nun mit 1.332Vcore bei 4.5GHz läuft inkl Energieoptionen.
http://abload.de/img/3dmark11_xtreme_ocedatu7c.jpg
Im Vergleich zu früher die selben Punkte aber mehr Grafik: http://www.computerbase.de/2011-10/test-amd-bulldozer/28/#abschnitt_3dmark_11
 
Solche Tests mit gedrosselten Grafikeinstellungen sind für Aussagen zur Zukunft einfach nutzlos und um nichts anderes geht es bei mir.
Hab ich auch schon immer geschrieben......
Zum einen gelten die Rückschlüsse nur für dieses eine Spiel und zum anderen kann keiner sagen wieviele Kerne künftige Spiele nutzen werden.
Das einzige was man davon ableiten könnte ist ob bei dem Spiel eine schnellere Grafikkarte etwas bringen könnte.

Nur will der TE Tu334 ja nen vergleich machen mit früheren Spielen "Intel vs AMD" und irgend einem Neuen Spiel Heute und das geht halt Über Testseiten selbst in 50Jahren nicht und so auch nicht weil man nicht sagen kann wie gut die Spiele in Zukunft die CPUs unterstützen.
Das Einzige was man machen könnte ist EIN Spiel früher und Heute Vergleichen wie ichs hier Zeige und dann am Besten eins was weinige Kerne unterstützt wie WoT z.b.

Nur komisch das man bei MIR Deutliche Unterschiede sehen kann bei AMD CPUs,ABER bei Testseiten nicht.

WoT verwendet meiner Meinung nach nur 2 Kerne wie 2014 auch.
Ich hab jetzt 2 Echte Kerne genommen und nicht nur 1 Modul weil in den Screens die Kerne 2 und 3 am meisten ausgelastet sind bei 4 Kernen.
Der Unterschied ist nicht groß da ich ja noch ein paar andere Dinge im Hintergrund laufen hab.....
4Kerne : Die ersten beiden haben zusammen 100% die beiden anderen 107% bei 61FPS
2Kerne : Beide sind bei fast durchgängigen 100% bei fast 54FPS
Die FPS bleiben im Spiel aber auch recht hoch mit nur 2 Kernen



4Kerne



2Kerne











--- Update ---

Je nach dem ob auch neue Befehlssätze zum Einsatz kommen.
Beim CPU Test von 3DMark 11 hat sich jedenfalls nichts getan, nur das der FX-8350 nun mit 1.332Vcore bei 4.5GHz läuft inkl Energieoptionen.
http://abload.de/img/3dmark11_xtreme_ocedatu7c.jpg
Im Vergleich zu früher die selben Punkte aber mehr Grafik: http://www.computerbase.de/2011-10/test-amd-bulldozer/28/#abschnitt_3dmark_11

nVidia vs AMD Graka.....Sicher das beim Physik Test nicht die nVidias mit geholfen haben.........
Bei CB kann man nix vergleichen.
 
Zuletzt bearbeitet:
nVidia vs AMD Graka.....Sicher das beim Physik Test nicht die nVidias mit geholfen haben.........
Bei CB kann man nix vergleichen.
Sieht doch gut aus, der GPU Score der zwei HD 7970 ist etwas höher auch der Kombinierte Score fällt nun höher aus.
Bei CB wurde das "Performance Preset" (720p) genutzt, ich habe jedoch mit "Xtreme Preset" (1080p) die selben Gesamtpunkte. ;)
 
Sieht doch gut aus, der GPU Score der zwei HD 7970 ist etwas höher auch der Kombinierte Score fällt nun höher aus.
Bei CB wurde das "Performance Preset" (720p) genutzt, ich habe jedoch mit "Xtreme Preset" (1080p) die selben Gesamtpunkte. ;)

Natürlich schaut es gut aus.;)
Deswegen kann man mit CB ja auch nicht Vergleichen.
 
Zurück
Oben Unten