App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
CPU-Limits und Spiele
- Ersteller unl34shed
- Erstellt am
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.363
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Im Grunde genommen ist es doch ganz einfach.
Ist die CPU nicht ausgelastet kann diese auch nicht der limitierende Faktor sein. Das eine Begrenzung aufgrund der Unterforderung durch der Unzulänglichkeiten der Software eintritt ist ein anderes Thema und kann man wohl kaum der CPU zuschreiben.
Ursache und Wirkung eben.
Wird sie nicht ausgelastet weil die Software nicht in der Lage ist alle Kerne für die anstehende Arbeit zu nutzen dann limitiert hier ganz einfach die Software selbst.
Das ist das gleich Spiel als würde man ne 1TB Platte mit Fat32 formatieren und sich dann darüber aufregen das die Platte so schnell voll ist weil so nur ein Bruchteil der Speicherkapazität genutzt wird.
Im Zusammenhang mit dem ewigen Gejammer über fehlende Leistungssteigerungen und der ewigen Rechtfertigung ungenutzter Rechenleistung zweifel ich hiert ständig am gesunden Menschenverstand einiger User.
Ist die CPU nicht ausgelastet kann diese auch nicht der limitierende Faktor sein. Das eine Begrenzung aufgrund der Unterforderung durch der Unzulänglichkeiten der Software eintritt ist ein anderes Thema und kann man wohl kaum der CPU zuschreiben.
Ursache und Wirkung eben.
Wird sie nicht ausgelastet weil die Software nicht in der Lage ist alle Kerne für die anstehende Arbeit zu nutzen dann limitiert hier ganz einfach die Software selbst.
Das ist das gleich Spiel als würde man ne 1TB Platte mit Fat32 formatieren und sich dann darüber aufregen das die Platte so schnell voll ist weil so nur ein Bruchteil der Speicherkapazität genutzt wird.
Im Zusammenhang mit dem ewigen Gejammer über fehlende Leistungssteigerungen und der ewigen Rechtfertigung ungenutzter Rechenleistung zweifel ich hiert ständig am gesunden Menschenverstand einiger User.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Völlig unabhängig von jeder Begrifflichkeit: Es gibt durchaus Algorithmen, die einfach nicht effizient parallelisierbar sind, völlig unabhängig von der Kompetenz oder dem Willen der Programmierer.
In so einem Fall nutzt es einem herzlich wenig auf die schlechten Programme zu schimpfen und sich über 7 ungenutzte Kerne zu ärgern.
In so einem Fall nutzt es einem herzlich wenig auf die schlechten Programme zu schimpfen und sich über 7 ungenutzte Kerne zu ärgern.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Ich denke man kann CPU-Limit trotzdem auch pro Kern betrachten und nicht nur pro Package. Insofern ist es eher nebensächlich, ob eine Software alle Kerne auslasten kann oder nicht. Diese Rahmenbedingungen sind dann ja für jede CPU die gleichen, sofern natürlich der ausgeführte Code der gleiche ist. Leider gibt es einige unverbesserliche Leute, die dann nicht beachten, welches theoretische Potenzial in einer CPU steckt und meinen ein i3 sei zB schneller als ein FX8, nur weil der i3 in diesem oder jenem Spiel mehr FPS liefern kann. Aber das ist ein anderes Thema.Wenn eine Software nicht alle Kerne nutzt, ist kein CPU-Limit mit dieser zu erreichen.
Das Problem ist, dass man CPU erst mal definieren muss. Unterscheiden muss man heutzutage vor allen zwischen Core und Uncore. CPU bezieht sich ursprünglich auf den Core und nicht den Uncore Teil. Dass im Laufe der Zeit immer mehr Uncore Logik ins Prozessorpackage gewandert ist, ändert daran ja nichts. Wenn man also von "CPU-Limit" spricht, dann muss man streng genommen belegen, dass der Core Teil eines Prozessors limitiert. Das hat meines Wissens noch nie eines der typischen Reviews auf die Reihe bekommen. Deshalb ist diese Diskussion am Ende des Tages einfach nur Banane und führt zu nix. Gerade bei Spielen gibt's kein hundertprozentiges CPU- oder GPU-Limit. Hier hängen mehrere Faktoren voneinander ab und bremsen sich auch gegenseitig aus. Der einzige Fakt ist, dass bei niedrigen Auflösungen/Settings der Game-Loop öfter pro Sekunde aufgerufen wird und die CPU daher auch mehr zu tun bekommt. Das war's dann aber auch. Der Rest ist oft leider nur das Wiederkäuen von oberflächlichem Halbwissen und Irrglauben.
Dem kann ich nur zustimmen. So sehr AMD Zen braucht, so wenig darf man den Softwaresupport vernachlässigen.Es ist aber einfacher, ein paar Zeilen Code zu ändern als in Silizium gegossene Transistoren. Von der Softwarebranche erwarte ich, dass sie die Resourcen auch nutzt, und zwar herstellerübergreifend.
Zuletzt bearbeitet:
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.413
- Renomée
- 782
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
me too
Dieser Intel Müll muss endlich raus hatte schon zu lange kein rot mehr drin
Ich gebe dir für diesen Müll 20 €, dann bist ihn los.
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.215
- Renomée
- 71
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Ich gebe dir für diesen Müll 20 €, dann bist ihn los.
Paar € fehlen noch
Schrottpreise sind aktuell leider sehr hoch
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.413
- Renomée
- 782
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Paar € fehlen noch
Schrottpreise sind aktuell leider sehr hoch
War mir klar. Also kein Schrott. Dann lass solche Übertreibungen auch.
--- Update ---
Schon wieder die Mär vom CPU-Limit in Spielen. Dass dies nicht existiert, solange nicht alle CPU-Kerne unter Vollast arbeiten, haben wir nun schon mehrfach ausgeführt. Da fragt man sich wirklich wer den Anspruch erhebt ein Fachmann zu sein, während falsche Bezeichnungen von technischen Zuständen unermüdlich aus den Kinder-Publikationen in Fachforen wie hier getragen wird. Ist das so schwer fehlerhafte technische Bezeichnungen abzulegen in einem Fachforum für Technik?
Doch es ist ein Limit. Wie schnell ein Fx wäre, wenn man alle Kerne auslasten würde, spielt keine Rolle.
--- Update ---
SuperPI ist ein gutes Beispiel aus der Praxis.
Zum Beispiel: Bei einer 8 Core CPÜ ist man im CPU-Limit wenn man 8xSuperPI darauf ausführt, nicht 1x das Programm ausführt und dessen Zeit misst.
Am Limit ist eine CPU dann wenn sie nicht mehr ausführen kann als sie tut.
Mit einem Thread ist eine CPU die mehrere Threads ausführen kann nun mal nicht am Limit.
So einfach ist das.
Doch ist sie. Und zwar daran, das mir als Nutzer egal ist, was sein könnte. Ich nehme dann doch die CPU, die meine Anwendung schneller ausführt, auch wenn diese weniger Kerne/logischeProzessoren/Module/etc hat.
In diesem Fall arbeitet die CPU am Limit. Sie arbeitet auch am Limit, wenn man eine Software alle Kerne voll auslastet, aber kein AVX nutzt. Da hilft es mir auch nicht, dass CPU y ja wesentlich schneller wäre, wenn nur AVX genutzt werden würde. Das hilft mir in diesem Fall 0.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Von welchem Limit redet ihr? Der eine vom praktischem Limit, der andere vom theoretischem Limit. Ihr schmeißt euch gegenseitig Äpfel und Birnen an Kopf und jeder behauptet recht zu haben. Hat auch jeder, seine Definition betreffend. Wenn ihr weiter diskutieren wollt, einigt euch zunächst mal auf eine Definition, über die ihr streiten wollt und nicht über ein Wort, das je nach Kontext unterschiedlich zu interpretieren ist.
Jetzt mal bitte mit ZEN weiter hier
Jetzt mal bitte mit ZEN weiter hier
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich nehme die Anwendung mit der ich meine Aufgabe am schnellsten erfülle. Mit meiner vorhandenen Hardware. Und wen ich mir Software installiere, welche meine Hardware nicht auslasten kann, dann behaupte ich nicht, dass meine nicht ausgelastete Hardware limitiert. Wo kommt denn diese Logik her? Achso: aus Spieltests mangels Fachkenntnissen der Testschreiber.Doch es ist ein Limit. Wie schnell ein Fx wäre, wenn man alle Kerne auslasten würde, spielt keine Rolle.
--- Update ---
Doch ist sie. Und zwar daran, das mir als Nutzer egal ist, was sein könnte. Ich nehme dann doch die CPU, die meine Anwendung schneller ausführt, auch wenn diese weniger Kerne/logischeProzessoren/Module/etc hat.
In diesem Fall arbeitet die CPU am Limit. Sie arbeitet auch am Limit, wenn man eine Software alle Kerne voll auslastet, aber kein AVX nutzt. Da hilft es mir auch nicht, dass CPU y ja wesentlich schneller wäre, wenn nur AVX genutzt werden würde. Das hilft mir in diesem Fall 0.
Die Haltung, dass die Software fix ist und alles andere ausgetauscht werden muss ist eben jene, die zu solchen Falschbezeichnungen führt. Ein solches Szenario wäre abseits von Spielen undenkbar in Der PC-Branche. Noch nie konnte man lesen Photoshop oder CorelDraw sei um CPU-Limit. Hier geht es nur darum welche Software auf einen gegeben System das JPG schneller umwandelt und die CPU-Ressourcen am besten nutzt.
Nur Spieletester sehen das Spiel als Alternativlos und als vorgegebene Software an. Aber eben nur weil sie DIESES Spiel schließlich testen. Die Frage ist nur wann all diese Gaming-Freaks zu Hardware-Experten wurden und Bekannte Begriffe für ihre Zwecke verbiegen. Und das beim xten Aufguss ein und des selben Spielkonzepts. Spieletestseiten sind keine PC-Hardware Seiten. Auch wenn sie sich gerne dafür halten.
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.413
- Renomée
- 782
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Ich nehme die Anwendung mit der ich meine Aufgabe am schnellsten erfülle. Mit meiner vorhandenen Hardware. Und wen ich mir Software installiere, welche meine Hardware nicht auslasten kann, dann behaupte ich nicht, dass meine nicht ausgelastete Hardware limitiert. Wo kommt denn diese Logik her? Achso: aus Spieltests mangels Fachkenntnissen der Testschreiber.
Die Haltung, dass die Software fix ist und alles andere ausgetauscht werden muss ist eben jene, die zu solchen Falschbezeichnungen führt. Ein solches Szenario wäre abseits von Spielen undenkbar in Der PC-Branche. Noch nie konnte man lesen Photoshop oder CorelDraw sei um CPU-Limit. Hier geht es nur darum welche Software auf einen gegeben System das JPG schneller umwandelt und die CPU-Ressourcen am besten nutzt.
Nur Spieletester sehen das Spiel als Alternativlos und als vorgegebene Software an. Aber eben nur weil sie DIESES Spiel schließlich testen. Die Frage ist nur wann all diese Gaming-Freaks zu Hardware-Experten wurden und Bekannte Begriffe für ihre Zwecke verbiegen. Und das beim xten Aufguss ein und des selben Spielkonzepts. Spieletestseiten sind keine PC-Hardware Seiten. Auch wenn sie sich gerne dafür halten.
Tja, wenn du halt veraltete Hardware nimmst (und ein Phenom II X2 ist veraltet) und die nicht auf die Bedürfnisse moderner Software abgestimmt ist, wäre das nach deiner Logik ja auch kein Limit. Denn wenn sich der Hersteller ja noch Mühe geben würde, dann könnte man ja noch was herausholen. Ergo kein Limit.
Richtig?
Und keine Software wird jemals eine CPU vollkommen auslasten. Nicht einmal wenn wir ins Jahre 2003 zurückkehren wo es im Consumerbereich nur Einkerner gab. Selbst damals konnte man noch mit Optimierungen was heraus holen.
Ich kann also weinen und greinen wie super toll meine CPU wäre, wenn man sie nur richtig ausnutzen würde, die Fakten kann man nicht wegwischen. Ein FX ist in den meisten Szenarien einem i5 unterlegen. Ja auch in Spielen. Nein ich finde es auch nicht toll.
Ach ja, das slebe gilt auch für eine GPU. Oder ist es da wieder ok von einem Limit zu sprechen?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Also OiOlli was auch immer dein letzter Beitrag für eine Relevanz zum Thema hier hat oder zu der Diskussion zum falschen verwenden des Begriffs CPU-Limit, mir ist er entgangen.
Nur eines: Es gibt sehr viel Software, welche die CPU voll und ganz auslasten kann bis zum Anschlag...nur findet man die eben nicht im Spieleregal.
Und mal eine Frage: Wird bei neuer Hardware mehr Ressourcen der CPU genutzt durch Spiele? Wenn immer noch max. 2 Kern genutzt werden, warum sollte ich mir einen Skylake kaufen? Damit noch mehr Rechenpower brach liegt? Und bevor ich meinen Phenom II aufrüste wird erstmal eine neue GPU nötig werden...nur habe ich derzeit wenig Lust auf aktuelle Spieletitel..daher..
Nur eines: Es gibt sehr viel Software, welche die CPU voll und ganz auslasten kann bis zum Anschlag...nur findet man die eben nicht im Spieleregal.
Und mal eine Frage: Wird bei neuer Hardware mehr Ressourcen der CPU genutzt durch Spiele? Wenn immer noch max. 2 Kern genutzt werden, warum sollte ich mir einen Skylake kaufen? Damit noch mehr Rechenpower brach liegt? Und bevor ich meinen Phenom II aufrüste wird erstmal eine neue GPU nötig werden...nur habe ich derzeit wenig Lust auf aktuelle Spieletitel..daher..
Die Haltung, dass die Software fix ist und alles andere ausgetauscht werden muss ist eben jene, die zu solchen Falschbezeichnungen führt. Ein solches Szenario wäre abseits von Spielen undenkbar in Der PC-Branche. Noch nie konnte man lesen Photoshop oder CorelDraw sei um CPU-Limit. Hier geht es nur darum welche Software auf einen gegeben System das JPG schneller umwandelt und die CPU-Ressourcen am besten nutzt.
Jeder Vorgang in einem Computer der verschiedene Komponenten nutzt wird durch für in diesem Fall langsamste Komponente limitiert. Z.B. Jpegs müssen von Platte gelesen werden, ist die Platte zu langsam gegenüber der CPU, dann limitiert die Platte.
Wer baut den Computer der dieses Problem nicht hat?
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.413
- Renomée
- 782
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Also OiOlli was auch immer dein letzter Beitrag für eine Relevanz zum Thema hier hat oder zu der Diskussion zum falschen verwenden des Begriffs CPU-Limit, mir ist er entgangen.
Nur eines: Es gibt sehr viel Software, welche die CPU voll und ganz auslasten kann bis zum Anschlag...nur findet man die eben nicht im Spieleregal.
Und mal eine Frage: Wird bei neuer Hardware mehr Ressourcen der CPU genutzt durch Spiele? Wenn immer noch max. 2 Kern genutzt werden, warum sollte ich mir einen Skylake kaufen? Damit noch mehr Rechenpower brach liegt? Und bevor ich meinen Phenom II aufrüste wird erstmal eine neue GPU nötig werden...nur habe ich derzeit wenig Lust auf aktuelle Spieletitel..daher..
Sag mal willst du mich verarschen?
Du hast damit angefangen, dass es kein Limit gäbe. Ich hab den ganzen Bullshit nur umgedreht. Und nein, es gibt so gut wie keine Software, die wirklich alle Funktionseinheiten eines modernen Prozessor auslastet.
Und ich halte dich für schlau genug deine Frage selber zu beantworten. 1. Die meisten Spiele nutzen heutzutage schon 4 Kerne, 2. ist die IPC (ja ich weiß deine CPU wird nur falsch angesprochen) eine modernen Prozessor weitaus höher. Und 3. ja tun Spiele, einige profitieren von AXV, andere von den Verbesseurngen in der FPU und einigeprofitieren vom höheren Speichertakt, der mgölich ist
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Sag mal haben sie dir etwas auf die Tastatur gekippt oder wie soll ich mir diesen unnötig aggressiven Diskusionsstil erklären?
Dreht man Dinge um, stehen sie auf dem Kopf und ergeben armselige Argumente wie man deinem Beitrag ja deutlich entnehmen kann.
1. Unterscheide "Alle Funktionseinheiten" und alle Kerne. Dass UVD, AES, SSE und AVX niemals zeitgleich benötigt werden sollte auch dir klar sein. Ich sprach nur von Kernen und schrieb explizit in meinem vorherigen Beitrag, das für ein CPU-Limit kein Spiel sorgen kann.
2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.
3. Es gibt sehr viel Software die Multikern-CPUs voll auslastet, und das was du da an falschen schreibst kann ich nur deiner Unkenntnis zuschreiben weil du wohl ausschließlich Spiele nutzt. Zum benchen und aufspüren von CPU-Limits empfehle ich SPEC. Da kannst du sogar die Intruktionen auswählen mit denen du Workloads auf deine CPU bringst. Schau dir mal SETI, Boinc oder Folding@Home an. Hier werden alle Kerne einer CPU voll ausgelastet wenn gewünscht. Schau dir beliebige Video-Konverter an.
Bisher hast du aber auch fast gar nichts vorgebracht, das deine Behauptung mit Spielen könne man CPU-Limits messen belegen würde. Im Gegenteil hast du viel unwahres geschrieben und auch einiges scheinbar nicht mal verstanden von dem was ich geschrieben habe. Nicht verwunderlich, denn gelesen hast du es offensichtlich ebenfalls nicht.
Mich würde mal interessieren worüber du eigentlich mit mir diskutieren willst oder was du meinst mir beweisen zu müssen. Mit dem was ich geschrieben habe, hat das jedenfalls kaum etwas zu tun.
Dreht man Dinge um, stehen sie auf dem Kopf und ergeben armselige Argumente wie man deinem Beitrag ja deutlich entnehmen kann.
1. Unterscheide "Alle Funktionseinheiten" und alle Kerne. Dass UVD, AES, SSE und AVX niemals zeitgleich benötigt werden sollte auch dir klar sein. Ich sprach nur von Kernen und schrieb explizit in meinem vorherigen Beitrag, das für ein CPU-Limit kein Spiel sorgen kann.
2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.
3. Es gibt sehr viel Software die Multikern-CPUs voll auslastet, und das was du da an falschen schreibst kann ich nur deiner Unkenntnis zuschreiben weil du wohl ausschließlich Spiele nutzt. Zum benchen und aufspüren von CPU-Limits empfehle ich SPEC. Da kannst du sogar die Intruktionen auswählen mit denen du Workloads auf deine CPU bringst. Schau dir mal SETI, Boinc oder Folding@Home an. Hier werden alle Kerne einer CPU voll ausgelastet wenn gewünscht. Schau dir beliebige Video-Konverter an.
Bisher hast du aber auch fast gar nichts vorgebracht, das deine Behauptung mit Spielen könne man CPU-Limits messen belegen würde. Im Gegenteil hast du viel unwahres geschrieben und auch einiges scheinbar nicht mal verstanden von dem was ich geschrieben habe. Nicht verwunderlich, denn gelesen hast du es offensichtlich ebenfalls nicht.
Mich würde mal interessieren worüber du eigentlich mit mir diskutieren willst oder was du meinst mir beweisen zu müssen. Mit dem was ich geschrieben habe, hat das jedenfalls kaum etwas zu tun.
Zuletzt bearbeitet:
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.413
- Renomée
- 782
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Ich reagiere nur. Und ich habe nur deine Logik benutzt. Denn selbst aus dem Phenom 2 könnte man noch Leistung heraus holen.
1. Nö, nur wenn man deine Sichtweise benutzt. Und das kann ich auch. Es gibt immer Möglichkeiten Spiele oder Programme noch besser zu nutzen. Egal ob man jetzt die Software so anpasst, dass sie wenn möglich alle Kerne auslastet, oder sie so nutzt dass alle Funtionseinheiten und Fähigkeiten der CPU optimal genutzt werden. Hey du hast damit angefangen. Du meintest wenn die Software nicht alle Kerne zu 100 % nutzt, gibt es kein Limit. Dann gibt es auch kein Limit wenn SSE oder AVX nicht genutzt wird.
2. Es gibt KEIN Spiel was alle Kerne zu 100 % auslastet. Wäre auch schlecht möglich, da bestimmte Szenarien von der Handlung des Spielers abhängen. Ist aber auch egal, denn selbst ein Phenom II X4 wird bei diversen Spielen wie Battlefield 4, The Evil Within und sogar Fallout 4 weitaus schneller laufen als dein lahmer X2. Und da die meisten Spiele eben nur 4 Threads nutzen ist es egal wie viele Threads ein FX hat, die werden nicht genutzt. Pro Kern ist seine Leistung schlechter, als die eines i5. Ergo Limit. Und gerade bei The Evil Within merkt man das sehr stark.
3. Worauf ich hinaus wollte, was du ja immer noch nicht verstanden hast, Software kann man immer optimieren. Wie ich schon sagte, im unterstützen der neuen Funktionseinheiten, oder sogar Rücksichtnahme auf die Schwächen wie eine kleine FPU oder wenig Cache.
Und doch ich hab einiges hervor gebracht. Und klar hab ich gelesen. Deine Meinung ist, es gibt kein CPU-Limit, so lange die Kerne nicht voll ausgelastet sind. Und schon dabei verkennst du, dass man bei Spielen alle Kerne gar nicht auslasten kann. Und das man deine Argumentation auch auf andere Sachen anwenden kann. Oder wer bist du, dass du bestimmst, dass es nur kein Limit ist, wenn die CPU nicht zu 100% ausgelastet ist? Was ist denn wenn die CPU zu 100% ausgelastet ist aber meine Software zu alt? Einmal den Videodecoder gewechselt und es kann sein, dass der neue mal eben 20 % mehr leistet, obwohl sich an der Prozessorauslastung nichts verändert hat.
Ach und wieso soll ich auch vorbingen, das man messen kann, wenn die CPU ins Limit rennt. Das zeigt jeder Benchmark mit unterschiedlichen CPU-Modellen.
1. Nö, nur wenn man deine Sichtweise benutzt. Und das kann ich auch. Es gibt immer Möglichkeiten Spiele oder Programme noch besser zu nutzen. Egal ob man jetzt die Software so anpasst, dass sie wenn möglich alle Kerne auslastet, oder sie so nutzt dass alle Funtionseinheiten und Fähigkeiten der CPU optimal genutzt werden. Hey du hast damit angefangen. Du meintest wenn die Software nicht alle Kerne zu 100 % nutzt, gibt es kein Limit. Dann gibt es auch kein Limit wenn SSE oder AVX nicht genutzt wird.
2. Es gibt KEIN Spiel was alle Kerne zu 100 % auslastet. Wäre auch schlecht möglich, da bestimmte Szenarien von der Handlung des Spielers abhängen. Ist aber auch egal, denn selbst ein Phenom II X4 wird bei diversen Spielen wie Battlefield 4, The Evil Within und sogar Fallout 4 weitaus schneller laufen als dein lahmer X2. Und da die meisten Spiele eben nur 4 Threads nutzen ist es egal wie viele Threads ein FX hat, die werden nicht genutzt. Pro Kern ist seine Leistung schlechter, als die eines i5. Ergo Limit. Und gerade bei The Evil Within merkt man das sehr stark.
3. Worauf ich hinaus wollte, was du ja immer noch nicht verstanden hast, Software kann man immer optimieren. Wie ich schon sagte, im unterstützen der neuen Funktionseinheiten, oder sogar Rücksichtnahme auf die Schwächen wie eine kleine FPU oder wenig Cache.
Und doch ich hab einiges hervor gebracht. Und klar hab ich gelesen. Deine Meinung ist, es gibt kein CPU-Limit, so lange die Kerne nicht voll ausgelastet sind. Und schon dabei verkennst du, dass man bei Spielen alle Kerne gar nicht auslasten kann. Und das man deine Argumentation auch auf andere Sachen anwenden kann. Oder wer bist du, dass du bestimmst, dass es nur kein Limit ist, wenn die CPU nicht zu 100% ausgelastet ist? Was ist denn wenn die CPU zu 100% ausgelastet ist aber meine Software zu alt? Einmal den Videodecoder gewechselt und es kann sein, dass der neue mal eben 20 % mehr leistet, obwohl sich an der Prozessorauslastung nichts verändert hat.
Ach und wieso soll ich auch vorbingen, das man messen kann, wenn die CPU ins Limit rennt. Das zeigt jeder Benchmark mit unterschiedlichen CPU-Modellen.
Zuletzt bearbeitet:
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.608
- Renomée
- 422
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
So, und jetzt beruhigen wir uns mal bitte wieder, ja?
Erstens ist diese Aggressivität unangebracht, zweitens bewegt ihr euch doch mittlerweile recht weit vom ursprünglichen Thema des Threads.
Übrigens, den Punkt will ich gerne noch kommentieren, Complicated:
Cities: Skylines lastet alle 4 Module meines FX-8350 sehr gut aus (meist 90%+ auf allen von Windows angezeigten Kernen, aber eben keine 100%, aber das ist nahe am Optimum wie bei kaum einem anderen Spiel, das ich besitze) und man merkt es auch deutlich in der Simulationsgeschwindigkeit, wenn man ein Modul abzwackt.
Und noch was nebenbei, es sollte sich mittlerweile herumgesprochen haben, dass ein Modul beim Bulldozer eben keine zwei echten Kerne enthält.
Aber wie gesagt, bitte zügelt euch.
Erstens ist diese Aggressivität unangebracht, zweitens bewegt ihr euch doch mittlerweile recht weit vom ursprünglichen Thema des Threads.
Übrigens, den Punkt will ich gerne noch kommentieren, Complicated:
2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.
Cities: Skylines lastet alle 4 Module meines FX-8350 sehr gut aus (meist 90%+ auf allen von Windows angezeigten Kernen, aber eben keine 100%, aber das ist nahe am Optimum wie bei kaum einem anderen Spiel, das ich besitze) und man merkt es auch deutlich in der Simulationsgeschwindigkeit, wenn man ein Modul abzwackt.
Und noch was nebenbei, es sollte sich mittlerweile herumgesprochen haben, dass ein Modul beim Bulldozer eben keine zwei echten Kerne enthält.
Aber wie gesagt, bitte zügelt euch.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
@OiOlli
Worauf du hinaus wolltest is ja ganz nett, doch ist es wenig hilfreich wenn du an mir vorbei schreibst und mich dabei immer zitierst. Über Optimierungen in Software habe ich gar nichts geschrieben, sondern über die fehlerhafte Verwendung des Begriffes CPU-Limit in Spielebenchmarks. Ich habe auch aufgezeigt warum Spiele kein CPU-Limit abbilden können.
Und was auch immer du benutzt hast, Logik war es keine. Und meine schon gar nicht. Es zeigt eher, dass du nicht umfassend verstanden hast was ich schrieb..nicht technisch, sondern inhaltlich. Es wäre hilfreich meine Beiträge nochmals zu lesen...doch das macht kaum jemand dem man es rät.
@Riddler
Das Spiel kenne ich nicht, aber der Auslastungsgrad ist hoch wie du ihn darstellst
Und noch etwas: Erkläre mir warum Bulldozer keine echten Kerne haben sollte. Das hat ja die selbe mangelnde technische Qualität wie CPU-Limits mit Spielen testen. Oder besser erkläre es mir nicht, sondern informiere dich richtig bevor du solche Aussagen machst. Von einem unsinnigen Offtopic in den anderen. Es sollte sich mittlerweile rum gesprochen haben was einen echten Kern ausmacht. Und dass hier weder FPU noch Frontend-Teile mir einfließen. Ist ja hanebüchen hier zum Teil.
Worauf du hinaus wolltest is ja ganz nett, doch ist es wenig hilfreich wenn du an mir vorbei schreibst und mich dabei immer zitierst. Über Optimierungen in Software habe ich gar nichts geschrieben, sondern über die fehlerhafte Verwendung des Begriffes CPU-Limit in Spielebenchmarks. Ich habe auch aufgezeigt warum Spiele kein CPU-Limit abbilden können.
Und was auch immer du benutzt hast, Logik war es keine. Und meine schon gar nicht. Es zeigt eher, dass du nicht umfassend verstanden hast was ich schrieb..nicht technisch, sondern inhaltlich. Es wäre hilfreich meine Beiträge nochmals zu lesen...doch das macht kaum jemand dem man es rät.
@Riddler
Das Spiel kenne ich nicht, aber der Auslastungsgrad ist hoch wie du ihn darstellst
Und noch etwas: Erkläre mir warum Bulldozer keine echten Kerne haben sollte. Das hat ja die selbe mangelnde technische Qualität wie CPU-Limits mit Spielen testen. Oder besser erkläre es mir nicht, sondern informiere dich richtig bevor du solche Aussagen machst. Von einem unsinnigen Offtopic in den anderen. Es sollte sich mittlerweile rum gesprochen haben was einen echten Kern ausmacht. Und dass hier weder FPU noch Frontend-Teile mir einfließen. Ist ja hanebüchen hier zum Teil.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
@Wu
Warum interpretieren es so viele als lamentieren wenn ich sage Spiele können kein CPU-Limit darstellen? Klar müssen Highend-Desktops eine gute Performance in Spielen haben.
Mit der CPU-Limit Diskussion hat das gar nichts zu tun.
Was wichtig ist für den Endkunden ist das eine, doch leider nützt es diesem nicht viel wenn er falsch informiert wird durch Redaktionen die falsche Zusammenhänge suggerieren um des besser Buzz-Words wollen. Klar liest sich einfach und einleuchtend: Hier limitiert die CPU.
Dann kommt Mantle und die selbe CPU bringt 20% Mehr FPS auf den Tisch im selben Spiel. Was ist passiert und wohin ist das CPU-Limit verschwunden? Es war nie vorhanden.
Spieletests so d doch in Ordnung wie sie sind. Nur eben keine Grundlage um Aussagen über Hardware zu machen. Das einzige was man dort testen kann ist eben wie schnell das Spiel auf den unterschiedlichen Systemen läuft. Nur was manche dann daraus zusätzlich abstrahieren zu IPC und Limits ist halt einfach daneben und falsch.
@Caisi
Korrekt. Ebenso will keiner die Benchmarks sehen wo Kaveri eine 5x höhere IPC darstellen kann als Intel CPUs in HSA Workloads. Es wird nicht in FPS gemessen und daher beschäftigen sich die Leute nicht mit diesen Workloads.
Warum interpretieren es so viele als lamentieren wenn ich sage Spiele können kein CPU-Limit darstellen? Klar müssen Highend-Desktops eine gute Performance in Spielen haben.
Mit der CPU-Limit Diskussion hat das gar nichts zu tun.
Was wichtig ist für den Endkunden ist das eine, doch leider nützt es diesem nicht viel wenn er falsch informiert wird durch Redaktionen die falsche Zusammenhänge suggerieren um des besser Buzz-Words wollen. Klar liest sich einfach und einleuchtend: Hier limitiert die CPU.
Dann kommt Mantle und die selbe CPU bringt 20% Mehr FPS auf den Tisch im selben Spiel. Was ist passiert und wohin ist das CPU-Limit verschwunden? Es war nie vorhanden.
Spieletests so d doch in Ordnung wie sie sind. Nur eben keine Grundlage um Aussagen über Hardware zu machen. Das einzige was man dort testen kann ist eben wie schnell das Spiel auf den unterschiedlichen Systemen läuft. Nur was manche dann daraus zusätzlich abstrahieren zu IPC und Limits ist halt einfach daneben und falsch.
@Caisi
Korrekt. Ebenso will keiner die Benchmarks sehen wo Kaveri eine 5x höhere IPC darstellen kann als Intel CPUs in HSA Workloads. Es wird nicht in FPS gemessen und daher beschäftigen sich die Leute nicht mit diesen Workloads.
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo
@Casi030: Weil es ein Gerücht ist? Oder hat jemand schon einen Zen-Prozessor, der als Verkaufsexemplar dient, getestet? Außerdem hab ich ja geschrieben, es kommt darauf an, ob diese 40% stimmen und in welchem Szenario. Wenns gewünscht wird, mach ich diese Folie mit 60% und verbreite es, bis es hier wieder aufgelesen wird und AMD zum Himmel gelobt wird, weils auf einmal 60% mehr sind ...
@Complicated: Wenn ich 2 PCs nehme, in denen die gleiche Grafikkarte, RAM, Netzteil, HDD, Betriebssystem, Treiber und das zu testende Spiel inkl. Einstellungen nehme und nur das Mainboard und die CPU anders ist (Intel i5 gg. AMD FX8350) und der Intel mehr Bilder pro Sekunde erzeugt, was soll dann limitieren außer der CPU? Warum, ist erst mal zweitrangig, mir gehts um das "Bauteil" das limitiert.
Dem Kunden geht es letztendlich um die Leistung, und für diese möchte er bezahlen. AMD-Prozessoren wie der FX8350 haben ja auch ihre Stärken und Bereiche, in denen sie einem Intel i5 ebenbürdig oder sogar besser sind, aber der Intel macht halt immer eine gute Figur. Oder gibt es einen Test, in dem ein FX8350 stets vor dem Intel i5 steht?
Und mit HSA: Ich hab selbst nen Kaveri, da merk ich nichts davon. JPEGs laden schnell, weil ich ne SSD hab. Und solange HSA eine Randerscheinung ist, deren Nutzen ich nur in ausgewählten Szenarien habe, bringt es mir wenig. Mein Kaveri ist ein Office/Internet-Rechner, auf dem ab und zu gedaddelt wird. Das gleiche hatten wir schon mit 3DNow!, auf dieses Pferd hatte ich damals auch schon gesetzt...
Gruß
@Casi030: Weil es ein Gerücht ist? Oder hat jemand schon einen Zen-Prozessor, der als Verkaufsexemplar dient, getestet? Außerdem hab ich ja geschrieben, es kommt darauf an, ob diese 40% stimmen und in welchem Szenario. Wenns gewünscht wird, mach ich diese Folie mit 60% und verbreite es, bis es hier wieder aufgelesen wird und AMD zum Himmel gelobt wird, weils auf einmal 60% mehr sind ...
@Complicated: Wenn ich 2 PCs nehme, in denen die gleiche Grafikkarte, RAM, Netzteil, HDD, Betriebssystem, Treiber und das zu testende Spiel inkl. Einstellungen nehme und nur das Mainboard und die CPU anders ist (Intel i5 gg. AMD FX8350) und der Intel mehr Bilder pro Sekunde erzeugt, was soll dann limitieren außer der CPU? Warum, ist erst mal zweitrangig, mir gehts um das "Bauteil" das limitiert.
Dem Kunden geht es letztendlich um die Leistung, und für diese möchte er bezahlen. AMD-Prozessoren wie der FX8350 haben ja auch ihre Stärken und Bereiche, in denen sie einem Intel i5 ebenbürdig oder sogar besser sind, aber der Intel macht halt immer eine gute Figur. Oder gibt es einen Test, in dem ein FX8350 stets vor dem Intel i5 steht?
Und mit HSA: Ich hab selbst nen Kaveri, da merk ich nichts davon. JPEGs laden schnell, weil ich ne SSD hab. Und solange HSA eine Randerscheinung ist, deren Nutzen ich nur in ausgewählten Szenarien habe, bringt es mir wenig. Mein Kaveri ist ein Office/Internet-Rechner, auf dem ab und zu gedaddelt wird. Das gleiche hatten wir schon mit 3DNow!, auf dieses Pferd hatte ich damals auch schon gesetzt...
Gruß
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.413
- Renomée
- 782
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
@OiOlli
Worauf du hinaus wolltest is ja ganz nett, doch ist es wenig hilfreich wenn du an mir vorbei schreibst und mich dabei immer zitierst. Über Optimierungen in Software habe ich gar nichts geschrieben, sondern über die fehlerhafte Verwendung des Begriffes CPU-Limit in Spielebenchmarks. Ich habe auch aufgezeigt warum Spiele kein CPU-Limit abbilden können.
Und was auch immer du benutzt hast, Logik war es keine. Und meine schon gar nicht. Es zeigt eher, dass du nicht umfassend verstanden hast was ich schrieb..nicht technisch, sondern inhaltlich. Es wäre hilfreich meine Beiträge nochmals zu lesen...doch das macht kaum jemand dem man es rät.
Ach wirklich. Von dir war nicht dass?
[/QUOTE]
Schon wieder die Mär vom CPU-Limit in Spielen. Dass dies nicht existiert, solange nicht alle CPU-Kerne unter Vollast arbeiten, haben wir nun schon mehrfach ausgeführt. Da fragt man sich wirklich wer den Anspruch erhebt ein Fachmann zu sein, während falsche Bezeichnungen von technischen Zuständen unermüdlich aus den Kinder-Publikationen in Fachforen wie hier getragen wird. Ist das so schwer fehlerhafte technische Bezeichnungen abzulegen in einem Fachforum für Technik?
Und jetzt kommt von dir das.
Was wichtig ist für den Endkunden ist das eine, doch leider nützt es diesem nicht viel wenn er falsch informiert wird durch Redaktionen die falsche Zusammenhänge suggerieren um des besser Buzz-Words wollen. Klar liest sich einfach und einleuchtend: Hier limitiert die CPU.
Dann kommt Mantle und die selbe CPU bringt 20% Mehr FPS auf den Tisch im selben Spiel. Was ist passiert und wohin ist das CPU-Limit verschwunden? Es war nie vorhanden.
Und du erzählst mir, ich würde dich falsch verstehen. Dann erkläre mir doch mal, wieso es richtig ist, keine vollständige Kernauslastung oder den Wechsel einer API als Beispiel zu nehmen aber keine neuen Befehlsfunktionen wie AVXY und Co?
Zuletzt bearbeitet:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
2. Nenne mir 1 Spiel, welches 4 Kerne voll auslastet. Zumal FX-8xxx CPUs eben 8 davon haben, weshalb dieses Argument wirklich daneben ist.
Die Argumentation ist für die Tonne. Nochmal: Die Software ist die Konstante der Betrachtung. Mit Wunschdenken alleine wird die Software nicht schneller.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Weil du es nicht verstehst. Welcher Code verwendet wird ist so lange irrelevant, bis die CPU voll ausgelastet ist. Über AVX oder modernere Instruktionen brauch ich nicht nachdenken solange die CPU nur 2 Kerne nutzt. Nehm ich da auf der anderen Seite Cinebench welches alle Kerne nutzt, dann muss ich den nächsten Schritt zum Compiler und den genutzten Instruktionen machen und dort Vergleichbarkeit gewährleisten, indem der bestmögliche Code verwendet wird fur die verbaute Hardware.Und du erzählst mir, ich würde dich falsch verstehen. Dann erkläre mir doch mal, wieso es richtig ist, keine vollständige Kernauslastung oder den Wechsel einer API als Beispiel zu nehmen aber keine neuen Befehlsfunktionen wie AVXY und Co?
--- Update ---
Die Argumentation ist für die Tonne. Nochmal: Die Software ist die Konstante der Betrachtung. Mit Wunschdenken alleine wird die Software nicht schneller.
Nein die Argumentation ist nicht für die Tonne. Wenn Software die Konstante ist und man in Kauf nimmt, dass dies die Hardware nicht voll auslastet, dann kann man zwar bestimmen welche CPU mit dieser Software am schnellsten ist, doch ganz sicher kann man darüber hinaus nicht behaupten die langsamere CPU befände sich am Limit seiner Leistungsfähigkeit. Das verhindert schon die falsche Softwareauswahl. CPU-Limits kann man nur testen mit Software, welche auch die CPU voll auslasten kann.
Man kann sich natürlich jetzt hinstellen wie das Redaktionen machen und wie andere Diskussionsteilnehmer hier, und sagen ja dieses Spiel kann zwar nicht die vole CPU auslasten, doc wir messen das Delta. Nur kann man da eben auch nicht hinterer vergessen dass man das API/Software-Limit in Kauf nimmt und mit testet und später dann von CPU-Limits schreiben weil man den ausgangspunkt vergessen hat - das ist technisch schlicht falsch.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.363
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Völlig unabhängig von jeder Begrifflichkeit: Es gibt durchaus Algorithmen, die einfach nicht effizient parallelisierbar sind, völlig unabhängig von der Kompetenz oder dem Willen der Programmierer.
In so einem Fall nutzt es einem herzlich wenig auf die schlechten Programme zu schimpfen und sich über 7 ungenutzte Kerne zu ärgern.
Es gibt aber auch welche die sich gut parallelisieren lassen, Prozesse die sich gleichzeitig ausführen lassen und die Preisfrage ist auch ob diejenigen die sich nicht parallelisieren lassen bei der Ausführung überhaupt so viel Rechenleistung benötigen. Das wiederum ist sehr wohl vom Willen und der Kompetenz des Herstellers abhängig.
Dieses Totschlag Argument wird doch schon seit Anbeginn der Multicore/CPU Geschichten ständig angeführt und wie viel daran ist sieht man ja daran das auf wundersame Art und weise die Anzahl der genutzten Kerne im laufe der Jahre dennoch zunimmt und zum Teil sogar schon 4 Kerne voraus gesetzt werden.
Doch es ist ein Limit. Wie schnell ein Fx wäre, wenn man alle Kerne auslasten würde, spielt keine Rolle.
Das ein Limit besteht steht auch außer Frage nur ist es kein Limit der CPU sondern ein Software bedingtes Limit. Die gleichen Probleme hast du schließlich auch bei Intels Produktpalette denn da habe ich auch noch keinen jubeln hören das dein teuer erkaufter i7 sich nicht vom gleich hoch getakteten i5 absetzen kann oder gar das teuer erkaufte Sockel 2011 Schätzchen aufgrund geringerer Taktfrequenzen hinter den kleinen 4 Kernern hinterher hinkt die nur einen Bruchteil dessen kosten.
Wie ich es zuvor schon sagte...Ursache und Wirkung.
Die Ursache für die Performance Probleme ist schließlich nicht die Leistung der Kerne sondern die Tatsache das nur ein Teil verfügbaren Rechenleistung genutzt wird. Die Wirkung ist dann das bekannte Verhalten und für die Limitierung ist letztendlich die Ursache verantwortlich.
Ich finde es in dem Zusammenhang aber immer wieder faszinierend wie sich einige das Thema schön reden, auf der anderen Seite aber über stagnierende Leistung meckern.
Tja, wenn du halt veraltete Hardware nimmst (und ein Phenom II X2 ist veraltet) und die nicht auf die Bedürfnisse moderner Software abgestimmt ist, wäre das nach deiner Logik ja auch kein Limit. Denn wenn sich der Hersteller ja noch Mühe geben würde, dann könnte man ja noch was herausholen. Ergo kein Limit.
Richtig?
Und keine Software wird jemals eine CPU vollkommen auslasten. Nicht einmal wenn wir ins Jahre 2003 zurückkehren wo es im Consumerbereich nur Einkerner gab. Selbst damals konnte man noch mit Optimierungen was heraus holen.
Ich kann also weinen und greinen wie super toll meine CPU wäre, wenn man sie nur richtig ausnutzen würde, die Fakten kann man nicht wegwischen. Ein FX ist in den meisten Szenarien einem i5 unterlegen. Ja auch in Spielen. Nein ich finde es auch nicht toll.
Ach ja, das slebe gilt auch für eine GPU. Oder ist es da wieder ok von einem Limit zu sprechen?
Was für moderne Software meinst du?
Die Nutzung von bestenfalls 4 Kernen, kein Support für moderne Befehlssätze wie FMA3/4 oder AVX, kein GPGPU Support seitens des Spiels....das ist der technische Stand des Core 2 Quad bzw. Phenom (2), also der Stand wo die CPUs vor ca. 8-9 Jahren waren. Vom technischen Stand her ist deine moderne Software einfach nur hoffnungslos veraltet.
So, und jetzt beruhigen wir uns mal bitte wieder, ja?
Erstens ist diese Aggressivität unangebracht, zweitens bewegt ihr euch doch mittlerweile recht weit vom ursprünglichen Thema des Threads.
Übrigens, den Punkt will ich gerne noch kommentieren, Complicated:
Cities: Skylines lastet alle 4 Module meines FX-8350 sehr gut aus (meist 90%+ auf allen von Windows angezeigten Kernen, aber eben keine 100%, aber das ist nahe am Optimum wie bei kaum einem anderen Spiel, das ich besitze) und man merkt es auch deutlich in der Simulationsgeschwindigkeit, wenn man ein Modul abzwackt.
Und noch was nebenbei, es sollte sich mittlerweile herumgesprochen haben, dass ein Modul beim Bulldozer eben keine zwei echten Kerne enthält.
Aber wie gesagt, bitte zügelt euch.
Das ist dann aber eine echte Ausnahme von der Regel und damit ein sehr positives Beispiel. Die 90% zeigen ja schon das alle Kerne genutzt und dabei auch recht gut ausgelastet werden. Hier wäre dann ein Vergleich zu Intels 4 Kernern interessant.
Von meiner Erfahrung her gurken die meisten Spiele aber irgendwo im Bereich zwischen 25 und 50% CPU Auslastung rum.
IT-Extremist
Gesperrt
- Mitglied seit
- 09.12.2015
- Beiträge
- 225
- Renomée
- 1
Danach hab ich in diversen Foren schon gefragt, bis heute konnte es niemand der von unechten Kernen fantasiert hat auch nur irgendwie Begründen^^^Und noch etwas: Erkläre mir warum Bulldozer keine echten Kerne haben sollte.
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.608
- Renomée
- 422
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
Danach hab ich in diversen Foren schon gefragt, bis heute konnte es niemand der von unechten Kernen fantasiert hat auch nur irgendwie Begründen^^^
Auch wenn es Leute gibt, die das gerne Abstreiten, so auch Complicated, meiner Meinung nach - und bei der bleibe ich - ist es so, dass jeder Kern seine eigenen Rechenwerke vollständig für sich allein benutzen kann. Dies ist beim Bulldozer nun mal nicht der Fall, hier sind die FPUs eines Modul geteilt, auch der L2 Cache.
Natürlich könnte man es zugegeben auch so beschreiben, dass je Modul zwei Integer-Cores sitzen, die sich das außen herum Teilen, also L2 und FPU Einheit. Das ganze ist eher ein Problem der Definition, denn rein technisch betrachtet sind es ja sogar drei Cores je Modul, 2x INT 1xFPU.
Anmerkung
Ich werden Thread später so gut es geht Auftrennen in ZEN und das Offtopic.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 52K