App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMD bittet um Feedback zum Catalyst-Treiber und kündigt Überraschung an [Update]
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
um das thema der schlechteren CPU-skalierung von AMD noch mal aufzugreifen:
http://www.computerbase.de/2014-11/cod-advanced-warfare-grafikkarten-test-vergleich-benchmark/
"Darüber hinaus gibt es noch zwei Auffälligkeiten: Es macht sich in Full HD auf einer High-End-Grafikkarte erneut bemerkbar, dass der GeForce-Treiber effektiver mit der vorhandenen CPU-Leistung umgehen kann – unabhängig davon, ob eine schnelle oder eine langsame CPU vorhanden ist."
es fällt also nicht nur mir auf.
mfg
http://www.computerbase.de/2014-11/cod-advanced-warfare-grafikkarten-test-vergleich-benchmark/
"Darüber hinaus gibt es noch zwei Auffälligkeiten: Es macht sich in Full HD auf einer High-End-Grafikkarte erneut bemerkbar, dass der GeForce-Treiber effektiver mit der vorhandenen CPU-Leistung umgehen kann – unabhängig davon, ob eine schnelle oder eine langsame CPU vorhanden ist."
es fällt also nicht nur mir auf.
mfg
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Auf welchen Test bezieht sich eigentlich hier das "erneut"?
Es handelt sich ja hier um ein von NVIDIA gesponsertes Spiel. Ich würde mal den nächsten Catalyst-Treiber abwarten. Der verwendete NVIDIA-Treiber war ja der spezielle Performance-Treiber für dieses Spiel.
Bei Guru konnte man zudem lesen, dass die gemessenen Werte in diesem Spiel stark streuen.
Es handelt sich ja hier um ein von NVIDIA gesponsertes Spiel. Ich würde mal den nächsten Catalyst-Treiber abwarten. Der verwendete NVIDIA-Treiber war ja der spezielle Performance-Treiber für dieses Spiel.
Bei Guru konnte man zudem lesen, dass die gemessenen Werte in diesem Spiel stark streuen.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
ja, das hier evtl. treiberoptimierungen fehlen hab ich mir auch schon gedacht.
aber andererseits ist es eine alte aufgemöbelte engine, die ausgelutscht ist und weniger optimierungen bedarf.
warten wir es mal ab. dramatisch ist es am ende nicht.
immerhin skaliert sie besser mit den AA-modi.
mfg
aber andererseits ist es eine alte aufgemöbelte engine, die ausgelutscht ist und weniger optimierungen bedarf.
warten wir es mal ab. dramatisch ist es am ende nicht.
immerhin skaliert sie besser mit den AA-modi.
mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.370
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wenn dann ist es eine modifizierte die der Treiber vermutlich so noch nicht kennt und deshalb auch nicht darauf angepasst sein kann.
Unterm Strich können es bei nvidia aber auch schon die Treiberanpassungen enthalten sein die die CPU Last senken und/oder besser auf die Kerne verteilen und für jedes Spiel extra eingearbeitet werden müssen.
Angesichts der Testergebnisse beim CPU Benchmark tippe ich vor allem auf letzteres denn bei der Radeon brachte HTT nichts (na immerhin kein Leistungseinbruch), bei der Geforce hingegen 3%. Zur CPU Last könnte man nur etwas sagen wenn diese gemessen worden wäre.
Unterm Strich können es bei nvidia aber auch schon die Treiberanpassungen enthalten sein die die CPU Last senken und/oder besser auf die Kerne verteilen und für jedes Spiel extra eingearbeitet werden müssen.
Angesichts der Testergebnisse beim CPU Benchmark tippe ich vor allem auf letzteres denn bei der Radeon brachte HTT nichts (na immerhin kein Leistungseinbruch), bei der Geforce hingegen 3%. Zur CPU Last könnte man nur etwas sagen wenn diese gemessen worden wäre.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
hier auch noch mal ein CPU problem bei AMD grafikkarten
http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/
also so langsam kann man mir das dann ja vielleicht doch glauben, außer man hat ein gutes gegenargument...
mfg
http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/
also so langsam kann man mir das dann ja vielleicht doch glauben, außer man hat ein gutes gegenargument...
mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.370
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Die einzige Schwäche die ich da erkennen kann ist HTT.
Mit 2 Kernen läuft das Spiel offenbar im CPU Limit denn hier gibt es keinen Unterschied zwischen der Radeon und der Geforce.
Die Aktivierung von HTT brachte bei der Radeon gerade einmal 9%, bei der Geforce satte 60% und damit fast so viel wie die Freischaltung der beiden physischen Kerne.....wie das? Oben riegelt wiederum die Grafikkartenlimitierung ab.
Alles in allem sprich das wieder nur für eine bessere Lastverteilung auf die Kerne denn auch dort fehlen wieder Zahlen zur CPU Auslastung.
Mit 2 Kernen läuft das Spiel offenbar im CPU Limit denn hier gibt es keinen Unterschied zwischen der Radeon und der Geforce.
Die Aktivierung von HTT brachte bei der Radeon gerade einmal 9%, bei der Geforce satte 60% und damit fast so viel wie die Freischaltung der beiden physischen Kerne.....wie das? Oben riegelt wiederum die Grafikkartenlimitierung ab.
Alles in allem sprich das wieder nur für eine bessere Lastverteilung auf die Kerne denn auch dort fehlen wieder Zahlen zur CPU Auslastung.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Also ich seh da eher ein CPU Problem bei Nvidia laut den Messwerten. Das wurde auch dort in den Kommentaren festgestellt, dass der Schluß der Redaktion an den Haaren herbei gezogen ist. Während bei AMD eine schnellere Taktung des i7 8% Zugewinn bringt läuft die Nvidia 34% schneller mit 1 GHz mehr. Bedeutet für mich mehr CPU Hunger für Nvidia und schlechterer CPU Overhead. ebenso der Unterschied von 2 Kernen zu 4 Kernen - AMD +40% und Nvidia über 70%. Bedeutet ebenfalls mehr Abstriche mit schwächerer CPU für Nvidia. Also muss man um die volle Leistung der teureren Nvidia GPUs abzurufen auch eine teurere CPU kaufen.hier auch noch mal ein CPU problem bei AMD grafikkarten
http://www.computerbase.de/2014-11/assassins-creed-unity-benchmarks-grafikkarten-vergleich/
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.370
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ein so direkter Vergleich läuft aber schon daran auf das sich die max. Framerate deutlich unterscheidet.
Läuft ein Spiel auf Grafikkarte A schlechter als auf Grafikkarte B dann rutsch Grafikkarte A auch schneller ins GPU Limit und die Leistungssteigerungen fallen entspreched geringer aus.
Da sich die Framerate bei der schwächsten CPU Konfiguration allerdings nicht unterscheidet denke ich eher das der CPU Overhead bei beiden gleich ist denn wo sollte sich dieser denn sonst bemerkbar machen? Wirklich aufschlussreich wäre nur ein Vergleich mit Einbeziehung der CPU Auslastung denn was ist wenn diese bei der schnelleren Geforce aufgrund besseren Multithreadings entsprechend höher ausfällt? Dann geht die ganze Argumentation mit einem Schlag den Bach runter denn wen wundert es dann noch das die Variante mit besserer CPU Auslastung (nutzbarer CPU Leistung) schneller ist?
Läuft ein Spiel auf Grafikkarte A schlechter als auf Grafikkarte B dann rutsch Grafikkarte A auch schneller ins GPU Limit und die Leistungssteigerungen fallen entspreched geringer aus.
Da sich die Framerate bei der schwächsten CPU Konfiguration allerdings nicht unterscheidet denke ich eher das der CPU Overhead bei beiden gleich ist denn wo sollte sich dieser denn sonst bemerkbar machen? Wirklich aufschlussreich wäre nur ein Vergleich mit Einbeziehung der CPU Auslastung denn was ist wenn diese bei der schnelleren Geforce aufgrund besseren Multithreadings entsprechend höher ausfällt? Dann geht die ganze Argumentation mit einem Schlag den Bach runter denn wen wundert es dann noch das die Variante mit besserer CPU Auslastung (nutzbarer CPU Leistung) schneller ist?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Aber genau das meine ich. Das Ziel der CPU ist die GPU maximal auszulasten. Wenn das mit einer schwächeren CPU stattfindet, dann ist das ein Vorteil und kein Nachteil. Das Problem ins GPU Limit zu kommen, sprich die GPU voll auszulasten, hat hier die Nvidia GPU. Das mag an der höheren Leistung liegen, doch wie kann man auf diese Weise AMD ein Problem attestieren? Was hier mit "besser skalieren" beschrieben wird ist eben nicht besser, sondern zeigt einen Flaschenhals in der GPU/CPU Kombination. Das bedeutet höhere Systemanforderungen für das dortige Nvidia System um die maximale Leistung der GPU abzurufen.
Dies hätte ich gerne mal in Tests bis in den Bereich R7 270 und GTX750 runter gesehen. Wäre sicher interessant bei gleich schnellen GPUs zu vergleichen und auch was die nächst höhere an CPU Mehrleistung braucht.
Dies hätte ich gerne mal in Tests bis in den Bereich R7 270 und GTX750 runter gesehen. Wäre sicher interessant bei gleich schnellen GPUs zu vergleichen und auch was die nächst höhere an CPU Mehrleistung braucht.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.370
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wenn du eine höhere Framerate erreichen kannst kommst du auch später ins GPU Limit weil dafür ganz einfach mehr CPU Leistung erforderlich wäre und ist die Spanne zwischen dem CPU und dem GPU Limit kleiner weil das Spiel auf der anderen Grafikkarte langsamer läuft dann kann man auch nicht die gleiche Leistungssteigerung durch eine schnellere CPU erwarten.
Das hat nichts mit Schwächen eines Treibers zu tuen sondern mit der normalen Leistungsentwicklung, wir reden schließlich noch immer über das gleiche Spiel und die gleiche Testszene.
Mit kleinere GPUs wäre das Verhalten vorhersehbar.
Das GPU Limit tritt noch früher ein bis es in die Region des CPU Limits vorstößt und die grafikkarte bei der gleichen CPU bereits limitiert.
Wenn es aber lt. der Spiele Entwickler so verdammt schwierig ist mit Directx die Last auf die Kerne zu verteilen liegt der Verdacht nahe das nvidia hier ihr eigenes Ding dreht und die "Optimierungen" deshalb für jedes Spiel einzeln vorgenommen werden müssen. Es wäre mal interessant ob sich der Treiber in diesen Fällen intern auch an die Direct3D Vorgaben hält oder ob sie hier ihr eigenes Ding unter dem DirectX Mantel drehen.
Das hat nichts mit Schwächen eines Treibers zu tuen sondern mit der normalen Leistungsentwicklung, wir reden schließlich noch immer über das gleiche Spiel und die gleiche Testszene.
Mit kleinere GPUs wäre das Verhalten vorhersehbar.
Das GPU Limit tritt noch früher ein bis es in die Region des CPU Limits vorstößt und die grafikkarte bei der gleichen CPU bereits limitiert.
Wenn es aber lt. der Spiele Entwickler so verdammt schwierig ist mit Directx die Last auf die Kerne zu verteilen liegt der Verdacht nahe das nvidia hier ihr eigenes Ding dreht und die "Optimierungen" deshalb für jedes Spiel einzeln vorgenommen werden müssen. Es wäre mal interessant ob sich der Treiber in diesen Fällen intern auch an die Direct3D Vorgaben hält oder ob sie hier ihr eigenes Ding unter dem DirectX Mantel drehen.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Natürlich, doch die Frage ist wieso eine 20% schnellere GPU mit höherem Takt der CPU 70% Leistung dazu gewinnt und warum die 20% langsamere 8% zulegt und dann am Maximum ist. Das legt eine bessere CPU Nutzung nahe. Es geht um das Verhältnis, daher wäre es interessant das mal auszuleuchten.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.370
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Weil die in dem Spiel langsamare Grafikkarte eher im GPU Limit hockt und die Framerate deshalb nicht mehr großartig steigen kann?
Schau mal in den unteren Teil der Auflistung. Sowohl die Radeon, als auch die Geforce legen beim Umstieg von den 2 Kernen @ 3,5 GHz auf die 4 Kerne @ 2,5 GHz um 30% zu.
Im oberen Teil ist bei der Radeon mit den 4 Kernen @ 3,5 GHz schluss. Das HTT bei der Radeon keine Vorteile bringt sah man ja bereits unten aber selbst die Übertaktung auf 4,4 GHz bringt keine Punkte. Hier hat die CPU offenbar nichts mehr zu melden.
Der geforce geht es da ähnlich, ist aber bei den 4 Kernen @ 3,5 GHz noch nicht ganz im Limit. Man sieht allerdings das die Zuschaltung vom HTT bei weitem nicht die Leistungssteigerung wie beim 2 Kerner @ 3,5 GHz bringt aber nahezu auf der gleichen Stufe wie bei der Übertaktung auf 4,4 GHz landet.
Dazu sollte man auch noch beachten das es nicht nur die beiden harten Limits gibt sondern auch einen Raum dazwischen bei der die Leistungssteigerung nach und anch abnimmt.
Kurzum es ist relativ sinnlos solche Vergleiche bei unterschiedlich schnellen Grafikkarten anzustellen solange man nicht in den harten Limits hockt.
--- Update ---
Dass das Spiel bei der Geforce deutlich besser mit dem Multithreading umgehen kann sieht man nirgendwo besser als bei dem FX denn dieser kann mit der Geforce eine fast 50 prozentig höhere Framerate erreichen. Alternativ können wir natürlich auch mit dem i7 mit 2 Kernen @ 3,5 GHz vergleichen.
Auf dieser Basis ist der FX bei der Radeon gerade einmal 12% schneller, bei der Geforce 52% schneller. Ein allgemeines CPU Limit kann es aber auch nicht sein denn warum sollten dann bei der Radeon die Kerne des i7 @ 2,5 GHz 16% schneller sein, bei der Geforce hingegen 15% langsamer? Die einzige sinnvolle Begründung liegt im Multithreading und damit in der Anzahl der effektiv genutzten Kerne die bei der Geforce aus welchen Gründen auch immer höher ausfallen dürfte.
Gleichzeitig spricht aber auch die hohe SMT Skalierung bei der Geforce entweder dafür das der Code verdammt ineffektiv sein muss das so viel Platz in der Pipeline ist das man damit komplette Kerne ausgleichen kann oder das hier auf andere Wege die Leistung der anderen Kerne genutzt wird. Ein Vergleich von dem gestutzten i7 mit einem i3 wäre hier aufschlussreich.
Schau mal in den unteren Teil der Auflistung. Sowohl die Radeon, als auch die Geforce legen beim Umstieg von den 2 Kernen @ 3,5 GHz auf die 4 Kerne @ 2,5 GHz um 30% zu.
Im oberen Teil ist bei der Radeon mit den 4 Kernen @ 3,5 GHz schluss. Das HTT bei der Radeon keine Vorteile bringt sah man ja bereits unten aber selbst die Übertaktung auf 4,4 GHz bringt keine Punkte. Hier hat die CPU offenbar nichts mehr zu melden.
Der geforce geht es da ähnlich, ist aber bei den 4 Kernen @ 3,5 GHz noch nicht ganz im Limit. Man sieht allerdings das die Zuschaltung vom HTT bei weitem nicht die Leistungssteigerung wie beim 2 Kerner @ 3,5 GHz bringt aber nahezu auf der gleichen Stufe wie bei der Übertaktung auf 4,4 GHz landet.
Dazu sollte man auch noch beachten das es nicht nur die beiden harten Limits gibt sondern auch einen Raum dazwischen bei der die Leistungssteigerung nach und anch abnimmt.
Kurzum es ist relativ sinnlos solche Vergleiche bei unterschiedlich schnellen Grafikkarten anzustellen solange man nicht in den harten Limits hockt.
--- Update ---
Dass das Spiel bei der Geforce deutlich besser mit dem Multithreading umgehen kann sieht man nirgendwo besser als bei dem FX denn dieser kann mit der Geforce eine fast 50 prozentig höhere Framerate erreichen. Alternativ können wir natürlich auch mit dem i7 mit 2 Kernen @ 3,5 GHz vergleichen.
Auf dieser Basis ist der FX bei der Radeon gerade einmal 12% schneller, bei der Geforce 52% schneller. Ein allgemeines CPU Limit kann es aber auch nicht sein denn warum sollten dann bei der Radeon die Kerne des i7 @ 2,5 GHz 16% schneller sein, bei der Geforce hingegen 15% langsamer? Die einzige sinnvolle Begründung liegt im Multithreading und damit in der Anzahl der effektiv genutzten Kerne die bei der Geforce aus welchen Gründen auch immer höher ausfallen dürfte.
Gleichzeitig spricht aber auch die hohe SMT Skalierung bei der Geforce entweder dafür das der Code verdammt ineffektiv sein muss das so viel Platz in der Pipeline ist das man damit komplette Kerne ausgleichen kann oder das hier auf andere Wege die Leistung der anderen Kerne genutzt wird. Ein Vergleich von dem gestutzten i7 mit einem i3 wäre hier aufschlussreich.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 45
- Aufrufe
- 13K
- Antworten
- 41
- Aufrufe
- 8K
- Antworten
- 19
- Aufrufe
- 34K