CPU-Limits und Spiele

unl34shed

Commodore Special
Mitglied seit
16.02.2011
Beiträge
458
Renomée
6
EDIT: DAS IST NICHT DER STARTPOST
Dieser Post war nur die Antwort auf die Behauptung, man könne IPC mit Spielen messen und wurde aus dem Zen-Thread mitsamt angehängter Diskussion kopiert.


Spiele != IPC

Da spielt so viel mehr mit rein, wie die GPU, die Anbindung der GPU, die HDD/SSD, Glück dass grad die richtigen Daten im RAM/VRAM liegen oder es muss nachgeladen werden, ...
Bei neueren Spielen sogar noch eine Zufalls generierte Welt (auch Spielfiguren), die Vergleiche noch schwerer macht.
 
Zuletzt bearbeitet:
Im CPU-Limit? Nö, höchsten in einigen Fällen der DRAM. Nachladerucker gibt's in heutigen fast gar nicht mehr.
 
nee nee, das ist schon größtenteils die Schuld der CPU. Oder des Compilers, aber das kommt auf dasselbe raus, AMD muß nun mal eine CPU bauen, die mit pro-Intel-Kompilaten gut klarkommt. Bzgl. "Straffheit" ;) des Gesamtsystems steht ja AMD immer gut da, da hakt's bei Intel eher mal. Nützt ihnen aber trotzdem nichts.

naja, was sollen wir jetzt noch nachtreten, hat sich ja bald ausgebulldozert. Good riddance, wie der Lateiner sagt.
 
Schon wieder die Mär vom CPU-Limit in Spielen. Dass dies nicht existiert, solange nicht alle CPU-Kerne unter Vollast arbeiten, haben wir nun schon mehrfach ausgeführt. Da fragt man sich wirklich wer den Anspruch erhebt ein Fachmann zu sein, während falsche Bezeichnungen von technischen Zuständen unermüdlich aus den Kinder-Publikationen in Fachforen wie hier getragen wird. Ist das so schwer fehlerhafte technische Bezeichnungen abzulegen in einem Fachforum für Technik?
 
Wenn bei gleicher Software (OS, Treiber, Spiel) die CPU limitiert, dann ist's ein CPU-Limit, völlig egal wie viele Kerne genutzt werden.
 
Wenn ich einem Benziner Diesel zum schlucken gebe, bin ich nicht im Motorlimit.

Codeverträglichkeit spielt in Zeiten des (nahezu-) Fertigungsstillstands die größte Rolle.

Vielleicht sollten sich die Streithähne auf eine Einführung eines softwareseitigen und hardwareseitigen CPU-Limits einigen. Und eins war AMD in den letzten 10 Jahren bestimmt nicht (wenn nicht schon seit dem 486er) - im hardwareseitigen.
 
Wenn bei gleicher Software (OS, Treiber, Spiel) die CPU limitiert, dann ist's ein CPU-Limit, völlig egal wie viele Kerne genutzt werden.
Wenn eine Software nicht alle Kerne nutzt, ist kein CPU-Limit mit dieser zu erreichen. Dies gilt für so ziemlich jedes Spiel. Es ist KEIN CPU-Limit. Zumindest nicht für diejenigen die sich mit dem Thema technisch befassen und nicht journalistisch.

Ein Softwareseitiges CPU-Limit ist ja ein Widerspruch in sich. Es ist ein Software-/API-Limit. Es ist nun mal eine nicht auszumerzende Unart die technischen Zusammenhänge falsch zu bezeichnen, damit man es nicht so genau erklären muss. Klick-Bait-Journalismus....und alle gewöhnen sich daran.

Ich zitiere mich mal selber um mich nicht dauernd zu wiederholen:
Nur weil man ein Software-Limit durch eine schnellere Single-Kern-Performance verschieben kann, bedeutet das nicht, dass die Komponente mit weiteren 50% Reserven im Limit ist. Logik? Das Limit bleibt an der selben Stelle. Die Software nutzt die CPU immer noch nur zu 50% aus. Im Gegenteil, die Software limitiert in immer größerem Maße, denn mit jedem Kern der schneller ist, liegt ein weiterer genauso schneller Kern brach. Auch wenn nun mehr FPS auf dem Bildschirm zu sehen sind, ist das verschwendete Leistungspotential der CPU noch größer als zuvor - und die Gamer sollen sich jedes Jahr einen neue CPU kaufen, die wiederum nie ausgelastet wird und lediglich 50% ihres Potentials nutzt - was für ein Limit soll das denn sein?

Das sind dümmliche Bezeichnungen von Hardwaredaktionen, mangels besserer Aufbereitung des Themas. Was ich austauschen kann und mehr Leistung bringt limitiert. Punkt. Na also bitte wenn euch das irgendwie "technisch" vorkommt, macht das bei diesen Spieleseiten weiterhin so. Aber kommt doch nicht in Hardwareforen und versucht hier mit diesen Kiddie-Begriffen ernsthafte technische Diskussionen zu führen über Hardware. Werdet erwachsen und benutzt auch die erwachsenen Begriffe.
 
Zuletzt bearbeitet:
Du hast deine Sicht, andere eine andere - da kannst du noch sehr versuchen mich zu diskreditieren (in all den Jahren hast du das ja perfektioniert :]).

Wenn bei gegebener (!) Software einzig mehr Takt oder eine IPC-stärkere CPU die Leistung steigert, ist's unter diesen (!) Voraussetzungen ein CPU-Limit.
 
Du willst demnach sagen das ein F1 Rennwagen langsamer/schlechter/weniger Leistung hat in der Wüste als ein Buggy? ! Demnach sind F1 Rennwagen Scheiße.
Du willst sagen das ein Porsche auf der Autobahn bei 130 begrenzt weil auf dem Schild 130 steht? !

Eijeijei :]
 
Ja, in der Wüste ist der Rennwagen verglichen mit dem Buggy der limitierende Faktor :D nicht scheiße, nur limitierend 8)
 
Den kann ich in der Wüste aber nicht mal eben ändern, Wüste bleibt vorerst Wüste, ergo wechsle ich das Fahrzeug - das ist einfacher.

Das gleiche gilt (leider) für Software und CPUs.
 
Du hast deine Sicht, andere eine andere - da kannst du noch sehr versuchen mich zu diskreditieren (in all den Jahren hast du das ja perfektioniert :]).
Ich diskreditiere überhaupt niemanden. Du bist ganz alleine derjenige der diese nicht technische Bezeichnung dauernd verwendet. Es ist technisch nicht fundiert und nichts anderes als genau was ich schrieb - zu faul Zusammenhänge korrekt zu benennen. Weder ist das eine Sichtweise noch sonst irgendwie eine Philosophie.
Dies ist jedenfalls keine technische Definition eines CPU-Limits:
Wenn bei gegebener (!) Software einzig mehr Takt oder eine IPC-stärkere CPU die Leistung steigert, ist's unter diesen (!) Voraussetzungen ein CPU-Limit.
CPU-Limits kann man nicht ermitteln indem man Software benutzt, welche nur Teile der CPU-Ressourcen verwendet. Das ist ja genau das journalistische an dieser Behauptung ohne technische Basis. Laut deiner Definition sollten wir SuperPi zum ermitteln des CPU-Limits verwenden. Das läuft auf einem CPU-Kern, und ist ebenso wenig tauglich für die Darstellung eines CPU-Limits. Und jetzt verbessern wir das indem wir Code für die GPU verwenden um CPU-Limits zu ermitteln: Spiele. Alles andere als technisch fundiert.
 
@y33H@
Du brauchst ja nicht die Wüste ändern, ändere einfach den Ort.:P

Wie schaut es hier aus:
Intel Atom + Windows = für die Tonne
Intel Atom + Android = verwendbar
Wo liegt hier die Begrenzung, bei der HW, SW, oder doch völlig wo anders? 8)
 
Zuletzt bearbeitet:
@ Complicated

Ach so, Spiele nutzen also nur GPU-Code und lassen die CPU außen vor?

Danke, wieder was gelernt ... ich bin raus, mir zu blöd. gruffi will ja sicher auch noch nachtreten :D

Akzeptiert doch einfach mal Fakten, zB das AMDs CPUs in Spielen häufiger ein CPU-Limit darstellen.

Intel Atom + Windows = für die Tonne
Intel Atom + Android = verwendbar
Dem stimme ich nicht zu, da zu kurz gegriffen. Schau dir mal das Surface 3 an ...
 
Zuletzt bearbeitet:
Wenn eine Software nicht alle Kerne nutzt, ist kein CPU-Limit mit dieser zu erreichen. Dies gilt für so ziemlich jedes Spiel. Es ist KEIN CPU-Limit. Zumindest nicht für diejenigen die sich mit dem Thema technisch befassen und nicht journalistisch.

Sorry, aber Deine Sicht würde ich eher als vereinzelte Laienmeinung sehen. Nicht jedes Problem ist teilbar, und wenn ein nicht teilbares Problem der Flaschenhals ist, dann ist das sehr wohl ein CPU-Limit.

Abgesehen davon ist es doch recht eindeutig: CPU-Limit heißt: Würdest Du eine neue CPU einbauen, welche das Problem schneller lösen kann, würdest Du schnelleres Ergebnis bekommen.

Ja, vielleicht könnte Softwareoptimierung dieses Limit ändern, aber die Software ist in dieser Betrachtung nun mal die feste Größe.
 
Abgesehen davon ist es doch recht eindeutig: CPU-Limit heißt: Würdest Du eine neue CPU einbauen, welche das Problem schneller lösen kann, würdest Du schnelleres Ergebnis bekommen.

Ja, vielleicht könnte Softwareoptimierung dieses Limit ändern, aber die Software ist in dieser Betrachtung nun mal die feste Größe.
Dies ist eben nicht richtig. Man kann nicht eine beliebige Software deklarieren und dann durch austauschen der CPUs deren "Limit" ermitteln.
Das Austauschen der CPUs zeigt lediglich die unterschiedliche Leistung der CPUs bei dieser Software. Dies ist noch lange kein Limit. Und warum hier das Wort limitierend verwendet wird, wenn etwas anderes mehr Leistung bringt ist eben das technisch unsinnige. Liest sich schön elegant, ist eine journalistische Kreation und beschreibt nicht mal ansatzweise ein Limit.

Zunächst muss man Software auswählen die in der Lage ist alle Hardwareressourcen zu nutzen - und DANN kann man testen ob und wo eine CPU ein Limit hat.
Sprich nur mit der geeigneten Software kann man ein Limit der Ziel-Hardware ermitteln. Spiele sind das nicht.
y33H schrieb:
Ach so, Spiele nutzen also nur GPU-Code und lassen die CPU außen vor?
Mal wieder perfektes Beispiel wie du diskutierst. Wo habe ich etwas von "nur" geschrieben? Willst du abstreiten, dass Spielecode für die GPU geschrieben wird?

400W Rechenleistung auf der GPU bei 500W Gesamtsystemleistung sollten das eigentlich deutlich machen, auf welcher Hardware der größte Teil des Codes läuft und welche Aufgaben eine CPU bei Spielen hat. Will ich ein CPU-Limit messen nehme ich einen Testaufbau und Software ohne Grafikausgabe. Man eliminiert alle Störfaktoren und bringt nicht zusätzliche Limits in Software oder zusätzlicher Hardware ein.
 
@Bomby
Nach dieser Betrachtungsweise hätte Vulkan/DX12 gar keinen Effekt.

Man macht es sich hier zu einfach. Sich lediglich auf Intel zugeschnittene Software zu beziehen und dann zu sagen AMD CPUs seien im Limit, rangiert in der gleichen Kategorie wie der durchschnittliche Aldi-PC-Käufer der feststellt, dass seine Spiele ruckeln und daher den PC ersetzt (egal ob gerade CPU oder GPU limitieren). So eine Betrachtungsweise ist alles andere als sinnvoll, da das eigentlich Problem gar nicht identifiziert und lieber pauschalisiert wird (PC Müll -> muss neuen kaufen).

Um überhaupt eine qualifizierte Aussage über irgendein Limit äußern zu können, muss man den Code analysieren und die Flaschenhälse identifizieren. In AMDs Fall würde ich darauf wetten, dass die CPUs (bzw. Dekoder) nur damit beschäftigt sind, die auf Intel zugeschnittenen Micro-/MacroOps zu verdauen und damit der Durchsatz sinkt. Intel ist daher nur so effizient, weil die Wald- und Wiesensoftware auf solchen Systemen entwickelt und getestet wird. Umgekehrt werden Intel CPUs an solche Wald- und Wiesensoftware angepasst (was man auch daran merkt, dass Intelsysteme generell hakelig erscheinen, da kaum freie Resourcen zur Verfügung stehen). Diesen Weg beschreitet die PC Landschaft schon seit vielen Jahren. Problem dabei ist, dass mit dieser Entwicklung der Softwarelandschaft AMD nie schneller als Intel sein kann, da sie dafür den besseren Intelprozessor bauen müssten. Ich denke nicht, dass es sich AMD leisten kann, 90% der Software zu analysieren um ihren Prozessor dann danach auszulegen.

Sich also hinzustellen und zu sagen, dass ein CPU Limit bei "parteiischer" Software vorliegt ist eine einseitige Sichtweise und unvollständig. Aus umgekehrter Sicht ist nur ein geringer Teil der Software da draußen in der Lage, beispielsweise Bulldozer auszulasten. Demzufolge liegt das Problem nicht an der CPU sondern an der Software.
 
Ihr könnt noch zwanzig Seiten mit Euer Scheiß-Rabulistik vollkritzeln, es ändert nichts daran, daß man für einen Spiele-PC keinen 8350 empfehlen darf, weil aus einem System mit gleichteurem und sparsamerem Intel mehr FPS rauskommen. AMD kann das ändern, aber die können keine Spiele umprogrammieren, sie können nur eine bessere CPU bauen, besser in dem Sinne, daß sie mit den technischen Unzulänglichkeiten der Software besser klarkommt. Und wenn die dann sogar theoretisch weniger IPC hat nach irgendeiner Euer Definitionen, dann ist das doch scheißegal, solange nur mehr FPS rauskommen.
 
Es ist aber einfacher, ein paar Zeilen Code zu ändern als in Silizium gegossene Transistoren. Von der Softwarebranche erwarte ich, dass sie die Resourcen auch nutzt, und zwar herstellerübergreifend.

Da die Diskussion aber eh alle paar Seiten wieder hochkocht, wäre ich dafür, die in einen extra Thread auszulagern.
 
@oBrian
Das ist ganz sicher keine Rabulistik!
Was du schreibst ist durchaus korrekt, doch du musstest nicht "CPU-Limit" verwenden um die Sachlage darzustellen.
Nur warum Spieletester für sich beanspruchen ein CPU-Limit getestet zu haben ist hier fragwürdig und technisch falsch.

Genau so sinnlos ist es von IPC zu sprechen auf Basis einer Ausgabe in FPS. Die IPC hängt in hohem Masse von verwendeten SSE oder AVX Befehlen ab.
Es gibt detailierte IPC Messungen mit jedem Typ Instruktionen, welche als Grundlage verwendet werden. Solange Spieletestseiten also noch nicht mal in der Lage sind zu benennen welcher Code eigentlich verwendet wird, brauchen sie auch nicht über IPC zu schwadronieren.

Und da wir hier auf KEINER Spieleseite sind sollten sich die FPS Jünger IMHO an die Thematik anpassen und erwachsene Begriffe verwenden. Wenn nur die FPS hinten zählen seid ihr im falschen Forum und auch im falschen Thread.
 
SuperPI ist ein gutes Beispiel aus der Praxis.
Zum Beispiel: Bei einer 8 Core CPÜ ist man im CPU-Limit wenn man 8xSuperPI darauf ausführt, nicht 1x das Programm ausführt und dessen Zeit misst.
Am Limit ist eine CPU dann wenn sie nicht mehr ausführen kann als sie tut.
Mit einem Thread ist eine CPU die mehrere Threads ausführen kann nun mal nicht am Limit.
So einfach ist das.
 
Wenn bei gleicher Software (OS, Treiber, Spiel) die CPU limitiert, dann ist's ein CPU-Limit, völlig egal wie viele Kerne genutzt werden.

Und wenn nen 911er Turbo auf nem Feldweg von nem SUV stehen gelassen wird limitiert natürlich die Leistung des 911er und nicht die Straße, schon klar.
 
Und im Endeffekt dreht sich alles nur darum, dass beide Seiten mal wieder missverstehen, was die andere meint.

CPU am Limit (alle Kerne voll ausgelastet) != Software durch diese CPU an schnellerem Arbeiten gehindert (mehr Takt bewirkt schnellere Abarbeitung)

Beides kann man kurz als CPU-Limit bezeichnen (sollte es aber wegen der fehlenden Eindeutigkeit aber nicht), es bedeutet jedoch etwas grundsätzlich unterschiedliches. Da braucht man doch nicht seitenlang drüber zu diskutieren und sich gegenseitig Sachen an den Kopf zu werfen.

Vielleicht wäre es sinnvoller hier mal über eine saubere und eingängige Begrifflichkeit für beides zu diskutieren.

CPU-Hardware-Limit und CPU-Software-Limit wäre da - wie schon vorher erwähnt wurde - vielleicht ganz passend.
 
Zurück
Oben Unten