CPU-Limits und Spiele

Im Grunde genommen ist es doch ganz einfach.
Ist die CPU nicht ausgelastet kann diese auch nicht der limitierende Faktor sein. Das eine Begrenzung aufgrund der Unterforderung durch der Unzulänglichkeiten der Software eintritt ist ein anderes Thema und kann man wohl kaum der CPU zuschreiben.
Ursache und Wirkung eben.
Wird sie nicht ausgelastet weil die Software nicht in der Lage ist alle Kerne für die anstehende Arbeit zu nutzen dann limitiert hier ganz einfach die Software selbst.
Das ist das gleich Spiel als würde man ne 1TB Platte mit Fat32 formatieren und sich dann darüber aufregen das die Platte so schnell voll ist weil so nur ein Bruchteil der Speicherkapazität genutzt wird.

Im Zusammenhang mit dem ewigen Gejammer über fehlende Leistungssteigerungen und der ewigen Rechtfertigung ungenutzter Rechenleistung zweifel ich hiert ständig am gesunden Menschenverstand einiger User.
 
Völlig unabhängig von jeder Begrifflichkeit: Es gibt durchaus Algorithmen, die einfach nicht effizient parallelisierbar sind, völlig unabhängig von der Kompetenz oder dem Willen der Programmierer.

In so einem Fall nutzt es einem herzlich wenig auf die schlechten Programme zu schimpfen und sich über 7 ungenutzte Kerne zu ärgern.
 
Wie kommt man von "mit Spielen misst man keine IPC" bitte auf eine Seite CPU-Limit oder auch nicht Diskussion?
 
Wenn eine Software nicht alle Kerne nutzt, ist kein CPU-Limit mit dieser zu erreichen.
Ich denke man kann CPU-Limit trotzdem auch pro Kern betrachten und nicht nur pro Package. Insofern ist es eher nebensächlich, ob eine Software alle Kerne auslasten kann oder nicht. Diese Rahmenbedingungen sind dann ja für jede CPU die gleichen, sofern natürlich der ausgeführte Code der gleiche ist. Leider gibt es einige unverbesserliche Leute, die dann nicht beachten, welches theoretische Potenzial in einer CPU steckt und meinen ein i3 sei zB schneller als ein FX8, nur weil der i3 in diesem oder jenem Spiel mehr FPS liefern kann. Aber das ist ein anderes Thema.

Das Problem ist, dass man CPU erst mal definieren muss. Unterscheiden muss man heutzutage vor allen zwischen Core und Uncore. CPU bezieht sich ursprünglich auf den Core und nicht den Uncore Teil. Dass im Laufe der Zeit immer mehr Uncore Logik ins Prozessorpackage gewandert ist, ändert daran ja nichts. Wenn man also von "CPU-Limit" spricht, dann muss man streng genommen belegen, dass der Core Teil eines Prozessors limitiert. Das hat meines Wissens noch nie eines der typischen Reviews auf die Reihe bekommen. Deshalb ist diese Diskussion am Ende des Tages einfach nur Banane und führt zu nix. Gerade bei Spielen gibt's kein hundertprozentiges CPU- oder GPU-Limit. Hier hängen mehrere Faktoren voneinander ab und bremsen sich auch gegenseitig aus. Der einzige Fakt ist, dass bei niedrigen Auflösungen/Settings der Game-Loop öfter pro Sekunde aufgerufen wird und die CPU daher auch mehr zu tun bekommt. Das war's dann aber auch. Der Rest ist oft leider nur das Wiederkäuen von oberflächlichem Halbwissen und Irrglauben.


Es ist aber einfacher, ein paar Zeilen Code zu ändern als in Silizium gegossene Transistoren. Von der Softwarebranche erwarte ich, dass sie die Resourcen auch nutzt, und zwar herstellerübergreifend.
Dem kann ich nur zustimmen. So sehr AMD Zen braucht, so wenig darf man den Softwaresupport vernachlässigen.
 
Zuletzt bearbeitet:
Paar € fehlen noch
Schrottpreise sind aktuell leider sehr hoch ;)

War mir klar. Also kein Schrott. Dann lass solche Übertreibungen auch.

--- Update ---

Schon wieder die Mär vom CPU-Limit in Spielen. Dass dies nicht existiert, solange nicht alle CPU-Kerne unter Vollast arbeiten, haben wir nun schon mehrfach ausgeführt. Da fragt man sich wirklich wer den Anspruch erhebt ein Fachmann zu sein, während falsche Bezeichnungen von technischen Zuständen unermüdlich aus den Kinder-Publikationen in Fachforen wie hier getragen wird. Ist das so schwer fehlerhafte technische Bezeichnungen abzulegen in einem Fachforum für Technik?

Doch es ist ein Limit. Wie schnell ein Fx wäre, wenn man alle Kerne auslasten würde, spielt keine Rolle.

--- Update ---

SuperPI ist ein gutes Beispiel aus der Praxis.
Zum Beispiel: Bei einer 8 Core CPÜ ist man im CPU-Limit wenn man 8xSuperPI darauf ausführt, nicht 1x das Programm ausführt und dessen Zeit misst.
Am Limit ist eine CPU dann wenn sie nicht mehr ausführen kann als sie tut.
Mit einem Thread ist eine CPU die mehrere Threads ausführen kann nun mal nicht am Limit.
So einfach ist das.

Doch ist sie. Und zwar daran, das mir als Nutzer egal ist, was sein könnte. Ich nehme dann doch die CPU, die meine Anwendung schneller ausführt, auch wenn diese weniger Kerne/logischeProzessoren/Module/etc hat.

In diesem Fall arbeitet die CPU am Limit. Sie arbeitet auch am Limit, wenn man eine Software alle Kerne voll auslastet, aber kein AVX nutzt. Da hilft es mir auch nicht, dass CPU y ja wesentlich schneller wäre, wenn nur AVX genutzt werden würde. Das hilft mir in diesem Fall 0.
 
Von welchem Limit redet ihr? Der eine vom praktischem Limit, der andere vom theoretischem Limit. Ihr schmeißt euch gegenseitig Äpfel und Birnen an Kopf und jeder behauptet recht zu haben. Hat auch jeder, seine Definition betreffend. Wenn ihr weiter diskutieren wollt, einigt euch zunächst mal auf eine Definition, über die ihr streiten wollt und nicht über ein Wort, das je nach Kontext unterschiedlich zu interpretieren ist.

Jetzt mal bitte mit ZEN weiter hier
 
Doch es ist ein Limit. Wie schnell ein Fx wäre, wenn man alle Kerne auslasten würde, spielt keine Rolle.

--- Update ---



Doch ist sie. Und zwar daran, das mir als Nutzer egal ist, was sein könnte. Ich nehme dann doch die CPU, die meine Anwendung schneller ausführt, auch wenn diese weniger Kerne/logischeProzessoren/Module/etc hat.

In diesem Fall arbeitet die CPU am Limit. Sie arbeitet auch am Limit, wenn man eine Software alle Kerne voll auslastet, aber kein AVX nutzt. Da hilft es mir auch nicht, dass CPU y ja wesentlich schneller wäre, wenn nur AVX genutzt werden würde. Das hilft mir in diesem Fall 0.
Ich nehme die Anwendung mit der ich meine Aufgabe am schnellsten erfülle. Mit meiner vorhandenen Hardware. Und wen ich mir Software installiere, welche meine Hardware nicht auslasten kann, dann behaupte ich nicht, dass meine nicht ausgelastete Hardware limitiert. Wo kommt denn diese Logik her? Achso: aus Spieltests mangels Fachkenntnissen der Testschreiber.

Die Haltung, dass die Software fix ist und alles andere ausgetauscht werden muss ist eben jene, die zu solchen Falschbezeichnungen führt. Ein solches Szenario wäre abseits von Spielen undenkbar in Der PC-Branche. Noch nie konnte man lesen Photoshop oder CorelDraw sei um CPU-Limit. Hier geht es nur darum welche Software auf einen gegeben System das JPG schneller umwandelt und die CPU-Ressourcen am besten nutzt.

Nur Spieletester sehen das Spiel als Alternativlos und als vorgegebene Software an. Aber eben nur weil sie DIESES Spiel schließlich testen. Die Frage ist nur wann all diese Gaming-Freaks zu Hardware-Experten wurden und Bekannte Begriffe für ihre Zwecke verbiegen. Und das beim xten Aufguss ein und des selben Spielkonzepts. Spieletestseiten sind keine PC-Hardware Seiten. Auch wenn sie sich gerne dafür halten.
 
Ich nehme die Anwendung mit der ich meine Aufgabe am schnellsten erfülle. Mit meiner vorhandenen Hardware. Und wen ich mir Software installiere, welche meine Hardware nicht auslasten kann, dann behaupte ich nicht, dass meine nicht ausgelastete Hardware limitiert. Wo kommt denn diese Logik her? Achso: aus Spieltests mangels Fachkenntnissen der Testschreiber.

Die Haltung, dass die Software fix ist und alles andere ausgetauscht werden muss ist eben jene, die zu solchen Falschbezeichnungen führt. Ein solches Szenario wäre abseits von Spielen undenkbar in Der PC-Branche. Noch nie konnte man lesen Photoshop oder CorelDraw sei um CPU-Limit. Hier geht es nur darum welche Software auf einen gegeben System das JPG schneller umwandelt und die CPU-Ressourcen am besten nutzt.

Nur Spieletester sehen das Spiel als Alternativlos und als vorgegebene Software an. Aber eben nur weil sie DIESES Spiel schließlich testen. Die Frage ist nur wann all diese Gaming-Freaks zu Hardware-Experten wurden und Bekannte Begriffe für ihre Zwecke verbiegen. Und das beim xten Aufguss ein und des selben Spielkonzepts. Spieletestseiten sind keine PC-Hardware Seiten. Auch wenn sie sich gerne dafür halten.

Tja, wenn du halt veraltete Hardware nimmst (und ein Phenom II X2 ist veraltet) und die nicht auf die Bedürfnisse moderner Software abgestimmt ist, wäre das nach deiner Logik ja auch kein Limit. Denn wenn sich der Hersteller ja noch Mühe geben würde, dann könnte man ja noch was herausholen. Ergo kein Limit.

Richtig?


Und keine Software wird jemals eine CPU vollkommen auslasten. Nicht einmal wenn wir ins Jahre 2003 zurückkehren wo es im Consumerbereich nur Einkerner gab. Selbst damals konnte man noch mit Optimierungen was heraus holen.

Ich kann also weinen und greinen wie super toll meine CPU wäre, wenn man sie nur richtig ausnutzen würde, die Fakten kann man nicht wegwischen. Ein FX ist in den meisten Szenarien einem i5 unterlegen. Ja auch in Spielen. Nein ich finde es auch nicht toll.


Ach ja, das slebe gilt auch für eine GPU. Oder ist es da wieder ok von einem Limit zu sprechen?
 
Also OiOlli was auch immer dein letzter Beitrag für eine Relevanz zum Thema hier hat oder zu der Diskussion zum falschen verwenden des Begriffs CPU-Limit, mir ist er entgangen.
Nur eines: Es gibt sehr viel Software, welche die CPU voll und ganz auslasten kann bis zum Anschlag...nur findet man die eben nicht im Spieleregal.

Und mal eine Frage: Wird bei neuer Hardware mehr Ressourcen der CPU genutzt durch Spiele? Wenn immer noch max. 2 Kern genutzt werden, warum sollte ich mir einen Skylake kaufen? Damit noch mehr Rechenpower brach liegt? Und bevor ich meinen Phenom II aufrüste wird erstmal eine neue GPU nötig werden...nur habe ich derzeit wenig Lust auf aktuelle Spieletitel..daher..
 
Die Haltung, dass die Software fix ist und alles andere ausgetauscht werden muss ist eben jene, die zu solchen Falschbezeichnungen führt. Ein solches Szenario wäre abseits von Spielen undenkbar in Der PC-Branche. Noch nie konnte man lesen Photoshop oder CorelDraw sei um CPU-Limit. Hier geht es nur darum welche Software auf einen gegeben System das JPG schneller umwandelt und die CPU-Ressourcen am besten nutzt.

Jeder Vorgang in einem Computer der verschiedene Komponenten nutzt wird durch für in diesem Fall langsamste Komponente limitiert. Z.B. Jpegs müssen von Platte gelesen werden, ist die Platte zu langsam gegenüber der CPU, dann limitiert die Platte.

Wer baut den Computer der dieses Problem nicht hat? :-)
 
Also OiOlli was auch immer dein letzter Beitrag für eine Relevanz zum Thema hier hat oder zu der Diskussion zum falschen verwenden des Begriffs CPU-Limit, mir ist er entgangen.
Nur eines: Es gibt sehr viel Software, welche die CPU voll und ganz auslasten kann bis zum Anschlag...nur findet man die eben nicht im Spieleregal.

Und mal eine Frage: Wird bei neuer Hardware mehr Ressourcen der CPU genutzt durch Spiele? Wenn immer noch max. 2 Kern genutzt werden, warum sollte ich mir einen Skylake kaufen? Damit noch mehr Rechenpower brach liegt? Und bevor ich meinen Phenom II aufrüste wird erstmal eine neue GPU nötig werden...nur habe ich derzeit wenig Lust auf aktuelle Spieletitel..daher..

Sag mal willst du mich verarschen?

Du hast damit angefangen, dass es kein Limit gäbe. Ich hab den ganzen Bullshit nur umgedreht. Und nein, es gibt so gut wie keine Software, die wirklich alle Funktionseinheiten eines modernen Prozessor auslastet.

Und ich halte dich für schlau genug deine Frage selber zu beantworten. 1. Die meisten Spiele nutzen heutzutage schon 4 Kerne, 2. ist die IPC (ja ich weiß deine CPU wird nur falsch angesprochen) eine modernen Prozessor weitaus höher. Und 3. ja tun Spiele, einige profitieren von AXV, andere von den Verbesseurngen in der FPU und einigeprofitieren vom höheren Speichertakt, der mgölich ist
 
Sag mal haben sie dir etwas auf die Tastatur gekippt oder wie soll ich mir diesen unnötig aggressiven Diskusionsstil erklären?

Dreht man Dinge um, stehen sie auf dem Kopf und ergeben armselige Argumente wie man deinem Beitrag ja deutlich entnehmen kann.

1. Unterscheide "Alle Funktionseinheiten" und alle Kerne. Dass UVD, AES, SSE und AVX niemals zeitgleich benötigt werden sollte auch dir klar sein. Ich sprach nur von Kernen und schrieb explizit in meinem vorherigen Beitrag, das für ein CPU-Limit kein Spiel sorgen kann.

2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.

3. Es gibt sehr viel Software die Multikern-CPUs voll auslastet, und das was du da an falschen schreibst kann ich nur deiner Unkenntnis zuschreiben weil du wohl ausschließlich Spiele nutzt. Zum benchen und aufspüren von CPU-Limits empfehle ich SPEC. Da kannst du sogar die Intruktionen auswählen mit denen du Workloads auf deine CPU bringst. Schau dir mal SETI, Boinc oder Folding@Home an. Hier werden alle Kerne einer CPU voll ausgelastet wenn gewünscht. Schau dir beliebige Video-Konverter an.

Bisher hast du aber auch fast gar nichts vorgebracht, das deine Behauptung mit Spielen könne man CPU-Limits messen belegen würde. Im Gegenteil hast du viel unwahres geschrieben und auch einiges scheinbar nicht mal verstanden von dem was ich geschrieben habe. Nicht verwunderlich, denn gelesen hast du es offensichtlich ebenfalls nicht.

Mich würde mal interessieren worüber du eigentlich mit mir diskutieren willst oder was du meinst mir beweisen zu müssen. Mit dem was ich geschrieben habe, hat das jedenfalls kaum etwas zu tun.
 
Zuletzt bearbeitet:
Ich reagiere nur. Und ich habe nur deine Logik benutzt. Denn selbst aus dem Phenom 2 könnte man noch Leistung heraus holen.

1. Nö, nur wenn man deine Sichtweise benutzt. Und das kann ich auch. Es gibt immer Möglichkeiten Spiele oder Programme noch besser zu nutzen. Egal ob man jetzt die Software so anpasst, dass sie wenn möglich alle Kerne auslastet, oder sie so nutzt dass alle Funtionseinheiten und Fähigkeiten der CPU optimal genutzt werden. Hey du hast damit angefangen. Du meintest wenn die Software nicht alle Kerne zu 100 % nutzt, gibt es kein Limit. Dann gibt es auch kein Limit wenn SSE oder AVX nicht genutzt wird.

2. Es gibt KEIN Spiel was alle Kerne zu 100 % auslastet. Wäre auch schlecht möglich, da bestimmte Szenarien von der Handlung des Spielers abhängen. Ist aber auch egal, denn selbst ein Phenom II X4 wird bei diversen Spielen wie Battlefield 4, The Evil Within und sogar Fallout 4 weitaus schneller laufen als dein lahmer X2. Und da die meisten Spiele eben nur 4 Threads nutzen ist es egal wie viele Threads ein FX hat, die werden nicht genutzt. Pro Kern ist seine Leistung schlechter, als die eines i5. Ergo Limit. Und gerade bei The Evil Within merkt man das sehr stark.

3. Worauf ich hinaus wollte, was du ja immer noch nicht verstanden hast, Software kann man immer optimieren. Wie ich schon sagte, im unterstützen der neuen Funktionseinheiten, oder sogar Rücksichtnahme auf die Schwächen wie eine kleine FPU oder wenig Cache.

Und doch ich hab einiges hervor gebracht. Und klar hab ich gelesen. Deine Meinung ist, es gibt kein CPU-Limit, so lange die Kerne nicht voll ausgelastet sind. Und schon dabei verkennst du, dass man bei Spielen alle Kerne gar nicht auslasten kann. Und das man deine Argumentation auch auf andere Sachen anwenden kann. Oder wer bist du, dass du bestimmst, dass es nur kein Limit ist, wenn die CPU nicht zu 100% ausgelastet ist? Was ist denn wenn die CPU zu 100% ausgelastet ist aber meine Software zu alt? Einmal den Videodecoder gewechselt und es kann sein, dass der neue mal eben 20 % mehr leistet, obwohl sich an der Prozessorauslastung nichts verändert hat.

Ach und wieso soll ich auch vorbingen, das man messen kann, wenn die CPU ins Limit rennt. Das zeigt jeder Benchmark mit unterschiedlichen CPU-Modellen.
 
Zuletzt bearbeitet:
So, und jetzt beruhigen wir uns mal bitte wieder, ja?

Erstens ist diese Aggressivität unangebracht, zweitens bewegt ihr euch doch mittlerweile recht weit vom ursprünglichen Thema des Threads.

Übrigens, den Punkt will ich gerne noch kommentieren, Complicated:

2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.

Cities: Skylines lastet alle 4 Module meines FX-8350 sehr gut aus (meist 90%+ auf allen von Windows angezeigten Kernen, aber eben keine 100%, aber das ist nahe am Optimum wie bei kaum einem anderen Spiel, das ich besitze) und man merkt es auch deutlich in der Simulationsgeschwindigkeit, wenn man ein Modul abzwackt.

Und noch was nebenbei, es sollte sich mittlerweile herumgesprochen haben, dass ein Modul beim Bulldozer eben keine zwei echten Kerne enthält.


Aber wie gesagt, bitte zügelt euch.:)
 
@OiOlli
Worauf du hinaus wolltest is ja ganz nett, doch ist es wenig hilfreich wenn du an mir vorbei schreibst und mich dabei immer zitierst. Über Optimierungen in Software habe ich gar nichts geschrieben, sondern über die fehlerhafte Verwendung des Begriffes CPU-Limit in Spielebenchmarks. Ich habe auch aufgezeigt warum Spiele kein CPU-Limit abbilden können.
Und was auch immer du benutzt hast, Logik war es keine. Und meine schon gar nicht. Es zeigt eher, dass du nicht umfassend verstanden hast was ich schrieb..nicht technisch, sondern inhaltlich. Es wäre hilfreich meine Beiträge nochmals zu lesen...doch das macht kaum jemand dem man es rät.


@Riddler
Das Spiel kenne ich nicht, aber der Auslastungsgrad ist hoch wie du ihn darstellst

Und noch etwas: Erkläre mir warum Bulldozer keine echten Kerne haben sollte. Das hat ja die selbe mangelnde technische Qualität wie CPU-Limits mit Spielen testen. Oder besser erkläre es mir nicht, sondern informiere dich richtig bevor du solche Aussagen machst. Von einem unsinnigen Offtopic in den anderen. Es sollte sich mittlerweile rum gesprochen haben was einen echten Kern ausmacht. Und dass hier weder FPU noch Frontend-Teile mir einfließen. Ist ja hanebüchen hier zum Teil.
 
@Wu
Warum interpretieren es so viele als lamentieren wenn ich sage Spiele können kein CPU-Limit darstellen? Klar müssen Highend-Desktops eine gute Performance in Spielen haben.
Mit der CPU-Limit Diskussion hat das gar nichts zu tun.

Was wichtig ist für den Endkunden ist das eine, doch leider nützt es diesem nicht viel wenn er falsch informiert wird durch Redaktionen die falsche Zusammenhänge suggerieren um des besser Buzz-Words wollen. Klar liest sich einfach und einleuchtend: Hier limitiert die CPU.
Dann kommt Mantle und die selbe CPU bringt 20% Mehr FPS auf den Tisch im selben Spiel. Was ist passiert und wohin ist das CPU-Limit verschwunden? Es war nie vorhanden.

Spieletests so d doch in Ordnung wie sie sind. Nur eben keine Grundlage um Aussagen über Hardware zu machen. Das einzige was man dort testen kann ist eben wie schnell das Spiel auf den unterschiedlichen Systemen läuft. Nur was manche dann daraus zusätzlich abstrahieren zu IPC und Limits ist halt einfach daneben und falsch.

@Caisi
Korrekt. Ebenso will keiner die Benchmarks sehen wo Kaveri eine 5x höhere IPC darstellen kann als Intel CPUs in HSA Workloads. Es wird nicht in FPS gemessen und daher beschäftigen sich die Leute nicht mit diesen Workloads.
 
Hallo

@Casi030: Weil es ein Gerücht ist? Oder hat jemand schon einen Zen-Prozessor, der als Verkaufsexemplar dient, getestet? Außerdem hab ich ja geschrieben, es kommt darauf an, ob diese 40% stimmen und in welchem Szenario. Wenns gewünscht wird, mach ich diese Folie mit 60% und verbreite es, bis es hier wieder aufgelesen wird und AMD zum Himmel gelobt wird, weils auf einmal 60% mehr sind ...

@Complicated: Wenn ich 2 PCs nehme, in denen die gleiche Grafikkarte, RAM, Netzteil, HDD, Betriebssystem, Treiber und das zu testende Spiel inkl. Einstellungen nehme und nur das Mainboard und die CPU anders ist (Intel i5 gg. AMD FX8350) und der Intel mehr Bilder pro Sekunde erzeugt, was soll dann limitieren außer der CPU? Warum, ist erst mal zweitrangig, mir gehts um das "Bauteil" das limitiert.

Dem Kunden geht es letztendlich um die Leistung, und für diese möchte er bezahlen. AMD-Prozessoren wie der FX8350 haben ja auch ihre Stärken und Bereiche, in denen sie einem Intel i5 ebenbürdig oder sogar besser sind, aber der Intel macht halt immer eine gute Figur. Oder gibt es einen Test, in dem ein FX8350 stets vor dem Intel i5 steht?

Und mit HSA: Ich hab selbst nen Kaveri, da merk ich nichts davon. JPEGs laden schnell, weil ich ne SSD hab. Und solange HSA eine Randerscheinung ist, deren Nutzen ich nur in ausgewählten Szenarien habe, bringt es mir wenig. Mein Kaveri ist ein Office/Internet-Rechner, auf dem ab und zu gedaddelt wird. Das gleiche hatten wir schon mit 3DNow!, auf dieses Pferd hatte ich damals auch schon gesetzt...

Gruß
 
@OiOlli
Worauf du hinaus wolltest is ja ganz nett, doch ist es wenig hilfreich wenn du an mir vorbei schreibst und mich dabei immer zitierst. Über Optimierungen in Software habe ich gar nichts geschrieben, sondern über die fehlerhafte Verwendung des Begriffes CPU-Limit in Spielebenchmarks. Ich habe auch aufgezeigt warum Spiele kein CPU-Limit abbilden können.
Und was auch immer du benutzt hast, Logik war es keine. Und meine schon gar nicht. Es zeigt eher, dass du nicht umfassend verstanden hast was ich schrieb..nicht technisch, sondern inhaltlich. Es wäre hilfreich meine Beiträge nochmals zu lesen...doch das macht kaum jemand dem man es rät.

Ach wirklich. Von dir war nicht dass?



[/QUOTE]


Schon wieder die Mär vom CPU-Limit in Spielen. Dass dies nicht existiert, solange nicht alle CPU-Kerne unter Vollast arbeiten, haben wir nun schon mehrfach ausgeführt. Da fragt man sich wirklich wer den Anspruch erhebt ein Fachmann zu sein, während falsche Bezeichnungen von technischen Zuständen unermüdlich aus den Kinder-Publikationen in Fachforen wie hier getragen wird. Ist das so schwer fehlerhafte technische Bezeichnungen abzulegen in einem Fachforum für Technik?

Und jetzt kommt von dir das.

Was wichtig ist für den Endkunden ist das eine, doch leider nützt es diesem nicht viel wenn er falsch informiert wird durch Redaktionen die falsche Zusammenhänge suggerieren um des besser Buzz-Words wollen. Klar liest sich einfach und einleuchtend: Hier limitiert die CPU.
Dann kommt Mantle und die selbe CPU bringt 20% Mehr FPS auf den Tisch im selben Spiel. Was ist passiert und wohin ist das CPU-Limit verschwunden? Es war nie vorhanden.


Und du erzählst mir, ich würde dich falsch verstehen. Dann erkläre mir doch mal, wieso es richtig ist, keine vollständige Kernauslastung oder den Wechsel einer API als Beispiel zu nehmen aber keine neuen Befehlsfunktionen wie AVXY und Co?
 
Zuletzt bearbeitet:
2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.

Die Argumentation ist für die Tonne. Nochmal: Die Software ist die Konstante der Betrachtung. Mit Wunschdenken alleine wird die Software nicht schneller.
 
Und du erzählst mir, ich würde dich falsch verstehen. Dann erkläre mir doch mal, wieso es richtig ist, keine vollständige Kernauslastung oder den Wechsel einer API als Beispiel zu nehmen aber keine neuen Befehlsfunktionen wie AVXY und Co?
Weil du es nicht verstehst. Welcher Code verwendet wird ist so lange irrelevant, bis die CPU voll ausgelastet ist. Über AVX oder modernere Instruktionen brauch ich nicht nachdenken solange die CPU nur 2 Kerne nutzt. Nehm ich da auf der anderen Seite Cinebench welches alle Kerne nutzt, dann muss ich den nächsten Schritt zum Compiler und den genutzten Instruktionen machen und dort Vergleichbarkeit gewährleisten, indem der bestmögliche Code verwendet wird fur die verbaute Hardware.

--- Update ---

Die Argumentation ist für die Tonne. Nochmal: Die Software ist die Konstante der Betrachtung. Mit Wunschdenken alleine wird die Software nicht schneller.

Nein die Argumentation ist nicht für die Tonne. Wenn Software die Konstante ist und man in Kauf nimmt, dass dies die Hardware nicht voll auslastet, dann kann man zwar bestimmen welche CPU mit dieser Software am schnellsten ist, doch ganz sicher kann man darüber hinaus nicht behaupten die langsamere CPU befände sich am Limit seiner Leistungsfähigkeit. Das verhindert schon die falsche Softwareauswahl. CPU-Limits kann man nur testen mit Software, welche auch die CPU voll auslasten kann.

Man kann sich natürlich jetzt hinstellen wie das Redaktionen machen und wie andere Diskussionsteilnehmer hier, und sagen ja dieses Spiel kann zwar nicht die vole CPU auslasten, doc wir messen das Delta. Nur kann man da eben auch nicht hinterer vergessen dass man das API/Software-Limit in Kauf nimmt und mit testet und später dann von CPU-Limits schreiben weil man den ausgangspunkt vergessen hat - das ist technisch schlicht falsch.
 
Völlig unabhängig von jeder Begrifflichkeit: Es gibt durchaus Algorithmen, die einfach nicht effizient parallelisierbar sind, völlig unabhängig von der Kompetenz oder dem Willen der Programmierer.

In so einem Fall nutzt es einem herzlich wenig auf die schlechten Programme zu schimpfen und sich über 7 ungenutzte Kerne zu ärgern.

Es gibt aber auch welche die sich gut parallelisieren lassen, Prozesse die sich gleichzeitig ausführen lassen und die Preisfrage ist auch ob diejenigen die sich nicht parallelisieren lassen bei der Ausführung überhaupt so viel Rechenleistung benötigen. Das wiederum ist sehr wohl vom Willen und der Kompetenz des Herstellers abhängig.

Dieses Totschlag Argument wird doch schon seit Anbeginn der Multicore/CPU Geschichten ständig angeführt und wie viel daran ist sieht man ja daran das auf wundersame Art und weise die Anzahl der genutzten Kerne im laufe der Jahre dennoch zunimmt und zum Teil sogar schon 4 Kerne voraus gesetzt werden.

Doch es ist ein Limit. Wie schnell ein Fx wäre, wenn man alle Kerne auslasten würde, spielt keine Rolle.

Das ein Limit besteht steht auch außer Frage nur ist es kein Limit der CPU sondern ein Software bedingtes Limit. Die gleichen Probleme hast du schließlich auch bei Intels Produktpalette denn da habe ich auch noch keinen jubeln hören das dein teuer erkaufter i7 sich nicht vom gleich hoch getakteten i5 absetzen kann oder gar das teuer erkaufte Sockel 2011 Schätzchen aufgrund geringerer Taktfrequenzen hinter den kleinen 4 Kernern hinterher hinkt die nur einen Bruchteil dessen kosten.

Wie ich es zuvor schon sagte...Ursache und Wirkung.
Die Ursache für die Performance Probleme ist schließlich nicht die Leistung der Kerne sondern die Tatsache das nur ein Teil verfügbaren Rechenleistung genutzt wird. Die Wirkung ist dann das bekannte Verhalten und für die Limitierung ist letztendlich die Ursache verantwortlich.

Ich finde es in dem Zusammenhang aber immer wieder faszinierend wie sich einige das Thema schön reden, auf der anderen Seite aber über stagnierende Leistung meckern.

Tja, wenn du halt veraltete Hardware nimmst (und ein Phenom II X2 ist veraltet) und die nicht auf die Bedürfnisse moderner Software abgestimmt ist, wäre das nach deiner Logik ja auch kein Limit. Denn wenn sich der Hersteller ja noch Mühe geben würde, dann könnte man ja noch was herausholen. Ergo kein Limit.

Richtig?


Und keine Software wird jemals eine CPU vollkommen auslasten. Nicht einmal wenn wir ins Jahre 2003 zurückkehren wo es im Consumerbereich nur Einkerner gab. Selbst damals konnte man noch mit Optimierungen was heraus holen.

Ich kann also weinen und greinen wie super toll meine CPU wäre, wenn man sie nur richtig ausnutzen würde, die Fakten kann man nicht wegwischen. Ein FX ist in den meisten Szenarien einem i5 unterlegen. Ja auch in Spielen. Nein ich finde es auch nicht toll.


Ach ja, das slebe gilt auch für eine GPU. Oder ist es da wieder ok von einem Limit zu sprechen?

Was für moderne Software meinst du?
Die Nutzung von bestenfalls 4 Kernen, kein Support für moderne Befehlssätze wie FMA3/4 oder AVX, kein GPGPU Support seitens des Spiels....das ist der technische Stand des Core 2 Quad bzw. Phenom (2), also der Stand wo die CPUs vor ca. 8-9 Jahren waren. Vom technischen Stand her ist deine moderne Software einfach nur hoffnungslos veraltet.

So, und jetzt beruhigen wir uns mal bitte wieder, ja?

Erstens ist diese Aggressivität unangebracht, zweitens bewegt ihr euch doch mittlerweile recht weit vom ursprünglichen Thema des Threads.

Übrigens, den Punkt will ich gerne noch kommentieren, Complicated:



Cities: Skylines lastet alle 4 Module meines FX-8350 sehr gut aus (meist 90%+ auf allen von Windows angezeigten Kernen, aber eben keine 100%, aber das ist nahe am Optimum wie bei kaum einem anderen Spiel, das ich besitze) und man merkt es auch deutlich in der Simulationsgeschwindigkeit, wenn man ein Modul abzwackt.

Und noch was nebenbei, es sollte sich mittlerweile herumgesprochen haben, dass ein Modul beim Bulldozer eben keine zwei echten Kerne enthält.


Aber wie gesagt, bitte zügelt euch.:)

Das ist dann aber eine echte Ausnahme von der Regel und damit ein sehr positives Beispiel. Die 90% zeigen ja schon das alle Kerne genutzt und dabei auch recht gut ausgelastet werden. Hier wäre dann ein Vergleich zu Intels 4 Kernern interessant.
Von meiner Erfahrung her gurken die meisten Spiele aber irgendwo im Bereich zwischen 25 und 50% CPU Auslastung rum.
 
Danach hab ich in diversen Foren schon gefragt, bis heute konnte es niemand der von unechten Kernen fantasiert hat auch nur irgendwie Begründen^^^

Auch wenn es Leute gibt, die das gerne Abstreiten, so auch Complicated, meiner Meinung nach - und bei der bleibe ich - ist es so, dass jeder Kern seine eigenen Rechenwerke vollständig für sich allein benutzen kann. Dies ist beim Bulldozer nun mal nicht der Fall, hier sind die FPUs eines Modul geteilt, auch der L2 Cache.

Natürlich könnte man es zugegeben auch so beschreiben, dass je Modul zwei Integer-Cores sitzen, die sich das außen herum Teilen, also L2 und FPU Einheit. Das ganze ist eher ein Problem der Definition, denn rein technisch betrachtet sind es ja sogar drei Cores je Modul, 2x INT 1xFPU. *chatt*


Anmerkung
Ich werden Thread später so gut es geht Auftrennen in ZEN und das Offtopic.
 
Zurück
Oben Unten