News Gerüchte über Matisse Refresh verdichten sich (Update)

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Kürzlich hat Intel seine Desktop-Prozessoren der “Comet Lake‑S”-Serie vorgestellt. Obwohl Intel von den meistern Reviewern ordentlich Kritik einstecken musste für den abermaligen Neuaufguß der mittlerweile 5 Jahre alten Skylake-Architektur, hat Intel derzeit klar die schnellsten Gaming-Prozessoren. Das kann AMD nicht gefallen und so verdichten sich die Gerüchte, dass AMD bereits im Juni einen Refresh der Matisse-Familie auflegen könnte.
(…)

» Artikel lesen
 
Wenn ich mal was anmerken darf.

"Grund ist, dass 3D-Spiele bei ähnlicher IPC noch immer günstiger auf höhere Taktraten reagieren als auf sehr viele Kerne und in Sachen Takt hat Intel das Maximum aus Comet Lake?S herausgeholt."

Das stimmt so nicht wirklich. Der Takt ist den Games völlig schnuppe. AMDs größte Gaming Baustelle ist die Latenz zum RAM und die Latenz des Datenabgleichs zwischen den Kernen. Mit ~70ns zum RAM und 2 CCX gegen ~50ns mit unified L3 macht den Unterschied. Der 3300x zeigt das ja schon ganz gut.

Warum die Ryzen bei der Latenz zum RAM noch immer nicht mal in den Bereich eines Athlon 64 kommen erschließt sich mir auch nicht wirklich, aber ich denke da liegt wohl einiges an Potential brach. Zen3 wirds zeigen.
 
Zuletzt bearbeitet:
Das stimmt so nicht wirklich. Der Takt ist den Games völlig schnuppe.
Die Aussage kann so ja nicht stimmen, sonst wären ja alle "Skylake"-CPUs gleich schnell bei den Gaming-Tests. ;) Das Gegenteil ist der Fall. Der Spiele-Index bei niedriger Auflösung (hier FHD) skaliert fast linear mit der Taktrate innerhalb der "Skylake"-Familie :o

Warum die Ryzen bei der Latenz zum RAM noch immer nicht mal in den Bereich eines Athlon 64 kommen erschließt sich mir auch nicht wirklich
Das ging los mit dem K10, also mit der Einführung des L3-Cache und der Einführung einer On-Die-Northbridge. Beim K8 steckte der Memory-Controller ja noch direkt im Kern und lief auch mit Kernfrequenz. Beim K10 wurde eine separate Northbridge-Takt-Domäne eingeführt, die den L3-Cache und den Memory-Controller speiste. Und beim Zen 2 wurde der Memory-Controller gar wieder aus dem Die ausgelagert, das die Rechenwerke enthält :o Das kann nicht optimal sein für die Latenz.
 
Also kann man ausgehen dass die IPC zwischen AMD und Intel ähnlich ist?

Die niedrige IPC der Bulldozer sorgte dsmals dafür dass manche (oder viele) Games auf einen Intel 2-Kerner mit niedrigerer Taktrate besser liefen als auf 8-Kern AMDs mit höherer Taktrate.
 
Also kann man ausgehen dass die IPC zwischen AMD und Intel ähnlich ist?
Zumindest in ähnlichen Dimensionen, ja. Sieht man ja sehr schön wenn man Kern- und Takt-Gleichheit herstellt. Da ist nicht viel um zwischen aktuellen Intel- und AMD-CPUs. Mal hat der eine hier ein paar architekturbedingte Vorteile, mal der andere dort. Unter dem Strich aber sehr ähnlich
Die niedrige IPC der Bulldozer sorgte dsmals dafür dass manche (oder viele) Games auf einen Intel 2-Kerner mit niedrigerer Taktrate besser liefen als auf 8-Kern AMDs mit höherer Taktrate.
Bulldozer ist natürlich genau das Gegenteil, so wie es Jahre zuvor mit K8 vs. Netburst anders rum war. ;)
 
Dass immer die gleichen Tests herangezogen werden.
Um überhaupt einen Unterschied darstellen zu können, wird IMMER mit einem Grafikmonster 2080Ti getestet.
Meistens dann noch in 720p - hier wenigstens in FullHD.

Nehmt doch mal eine der Meistgenutzten Karten (z.b. 1060 oder RX 570 / 580, oder oder oder) und benched mal in FullHD durch.

Dann stellt ihr fest, dass die Zahlen so dicht beieinander liegen das die Unterschiede im Bereich von Messungenauigkeiten fallen.
Dass aus solchen fabrizierten Tests immernoch die Meinung hervorgeht "Intel ist eine Spielemacht" ist an Lächerlichkeit nicht mehr zu überbieten.

Aus den tests kann maximal hervorgehen: "Nvidias 2080Ti" ist eine Spielemacht!
Bevor ich wegen Gaming also zwischen Intel und AMD entscheide, muss ich bei einer 2080Ti angekommen sein - DANN und erst dann kann ich mit dieser Argumentation kommen.

Für die 99,9% Masse mit mainstream Grakas heißt es also:
Jede 50 Euro am Prozessor gespart und in die Graka gesteckt bringt um Potenzen mehr "Gaming Macht" als die Entscheidung über den CPU Hersteller.

Ich kann es echt nicht mehr lesen, wie hier ein einziges Sonderszenario so derart die Meinung über "all purpose" CPUs prägen kann und selbst Techseiten dies gern nutzen, um Schlagzeilen zu haben.
 
Die Aussage kann so ja nicht stimmen, sonst wären ja alle "Skylake"-CPUs gleich schnell bei den Gaming-Tests. ;) Das Gegenteil ist der Fall. Der Spiele-Index bei niedriger Auflösung (hier FHD) skaliert fast linear mit der Taktrate innerhalb der "Skylake"-Familie :o

Ja das meinte ich auch nicht. Dein Text hat sich für mich nur so angehört, als würden die Ryzen wegen des geringeren CPU Taktes hinterher hinken, oder mehr Takt brauchen. In Wirklichkeit ist das Problem imho eher die Latenz des Frontends, denn wäre die etwa auf dem Niveau der Skylakes, dann wäre das alles kein Ding. Es müsste nichtmal auf dem Niveau der Skylakes sein, vermutlich würde etwas um die 55ns zum RAM schon reichen.

Das ging los mit dem K10, also mit der Einführung des L3-Cache und der Einführung einer On-Die-Northbridge. Beim K8 steckte der Memory-Controller ja noch direkt im Kern und lief auch mit Kernfrequenz. Beim K10 wurde eine separate Northbridge-Takt-Domäne eingeführt, die den L3-Cache und den Memory-Controller speiste. Und beim Zen 2 wurde der Memory-Controller gar wieder aus dem Die ausgelagert, das die Rechenwerke enthält :o Das kann nicht optimal sein für die Latenz.

Das stimmt! Die Auslagerung bei Zen2 aber hat den großen Sprung nicht gemacht. Die Latenz der Zen2 ist etwa auf Ryzen 1k Niveau ~70-75ns. Getuned dann runter bis auf 63 ns.

Meinen Phenom II 955 hatte ich auf 54ns (getuned) bei 1367 MHz DDR3, also nichtmal etwas besonderes (siehe Screenshot). Da bleibt echt einiges auf der Strecke bei den Zen/Zen2.
 

Anhänge

  • 7b3be2-1480499599.png
    7b3be2-1480499599.png
    200,4 KB · Aufrufe: 76
Zuletzt bearbeitet:
Ich würde es ähnlich wie skelletor sehen und empfehlen, z.B. mit dem Ryzen 3 3300X anzufangen und alles weitere "Klein"geld in die Grafikkarte zu stecken.
Wenn man dann tatsächlich bei der 2080Ti angekommen ist und eine unerwartete Erbschaft eintrifft, kann man nochmal neu über die CPU nachdenken.
MfG
 
Ohne das aktuelle Design der AMD CPUs hätten wir nicht schon 16 Kerne im Mainstream und 64 beim Server. Chiplets und IF bringen Latenzen mit sich. Der Ringbus bei Intel ist aber bei 10 Kernen am Ende. Darüber gibt es Mesh das ist langsamer als IF bei AMD. Bei Rocket Lake geht es bei Intel wohl auf maximal 8 Kerne zurück - für die Zukunft wird man sich aber da auch was ähnliches einfallen lassen.

Ich denke genau da wird auch AMD bei ZEN3 dran arbeiten.

Wenn man aber so in Foren liest könnte man meinen mit aktuellen AMD CPUs kann man gar nicht spielen. Ich fürchte eher wenn die ZEN2 Refresh kommen es bis ZEN3 noch länger dauern könnte.
 
Nehmt doch mal eine der Meistgenutzten Karten (z.b. 1060 oder RX 570 / 580, oder oder oder) und benched mal in FullHD durch.

Dann stellt ihr fest, dass die Zahlen so dicht beieinander liegen das die Unterschiede im Bereich von Messungenauigkeiten fallen.
Dass aus solchen fabrizierten Tests immernoch die Meinung hervorgeht "Intel ist eine Spielemacht" ist an Lächerlichkeit nicht mehr zu überbieten.
So kann man aber nicht argumentieren. Die 1060 und die 570/580 sind Jahre alt! Wenn man die als Referenz für die Gaming-Performance eines Spiele-PCs heranzieht, dann ist sowieso alles egal was in den letzten Jahren an Fortschritt auf dem CPU-Sektor passiert ist. Dann wird's aber auch nie Fortschritt geben, wenn ich als Referenz immer das nehme was vor 3 Jahren schon nur Mittelklasse war. Auf Grundlage dessen kann ich dann aussagen, dass alle Prozessoren gleich schnell sind... :P

Die Frage muss doch eher lauten, was ich einem Interessenten empfehle, der heute zu mir kommt und nach einem Gaming-PC fragt. Dem bau ich doch keine 1060 oder RX 580 ein. *kopfkratz Der kriegt dann eine 2070 oder 5700 je nach Budget. Und dann muss ich natürlich schon gucken, je nachdem in welcher Preisklasse sich das Gerät bewegen soll, wie sich dazu die jeweiligen Prozessoren beim Gaming verhalten. Wenn der eine beim Zocken 15% schneller ist als der andere, kann ich da doch nicht einfach drüber hinweg gehen *noahnung* Da ist auch nicht Frage, ob man mit einem AMD-Prozessor nicht zocken kann. Natürlich kann man! Aber wenn da einer ankommt und eine klare Empfehlung für einen Gaming-PC will, womöglich noch für einen High-End-Gaming-PC, wo eben eine 2080 oder 2080 Ti reinwandert – und solche Gamer hab ich etliche – kann ich dem dann guten Gewissens den AMD reinschrauben obwohl er vorher explizit Gaming als Haupteinsatz genannt hat? Was jeder für sich macht, kann ja jeder selber entscheiden, aber wenn einer mit klaren Vorgaben kommt, kann man das imo nicht einfach abtun. *noahnung* Darum wär's schon wichtig, dass AMD auch beim Gaming die letzten Prozentpunkte Rückstand noch aufholt. Ist ja schon viel passiert von Bulldozer auf Zen und nochmal von Zen 1 auf Zen 2 :D
 
Zuletzt bearbeitet:
Das AMD an die Intel Gaming Leistung nicht rannkommen kann ist doch klar.

Intel mit ihrem Designe der kurzen Wege über den L3, da kann die Core den Takt auch gut nutzen. AMD hat dagegen sehr Lange Wege und kann auch wenn die CPU höher takten nicht viel mehr Leistung gewinnen. außer durch sehr hohem RAM Takt mit DR Modulen. DDR 5 und höhere Taktraten beim RAMController, davon wird Zen profitieren.

Optimum soll momentan bei 3733 MHz oder so sein.
 
Das AMD an die Intel Gaming Leistung nicht rannkommen kann ist doch klar.
Nö, das ist nicht klar.
Wenn sie intel ärgern wollten, brächten sie nur einen Ryzen 3350XT rausbringen mit 4.2GHz und 5GHz boost. Der würde beim Spielen allerdings nicht nur Intel, sondern auch alle Ryzen9 alt aussehen lassen.
 
Bulldozer ist natürlich genau das Gegenteil, so wie es Jahre zuvor mit K8 vs. Netburst anders rum war. ;)

Pscht, an Netburst möchte Intel nicht mehr erinnert werden ;)

Ich schau mir die Tests bei CB auch immer mal an und finde es etwas blöd dass auch Idlemessungen nur mit solchen Grafikkarten getestet werden. Ich spiel nicht mehr so häufig, aber habe gerade im Homeoffice derzeit PCs die dann fast die ganze Arbeitszeit laufen, aber kaum auf höherer Last. Dann sehe ich bei CB die Idlewerte von 41W mit Intel und 55W mit AMD. Mein i5-6600K liegt mit iGPU im Idle bei knapp über 19W.

Würde mich mal echt interessieren wie das bei einer Kombi mit einer kleinen Grafikkarte aussieht. Besonders da Intel eigentlich einen frechen Aufpreis für Non-F-CPUs verlangt
 
Also kann man ausgehen dass die IPC zwischen AMD und Intel ähnlich ist?
IPC ist bei AMD höher, z.T. bei weitem.
Die Latenz ist momentan das Problem bei AMD, die müssen sie für "High Frequency Gaming" runter bekommen, um höhere fps zu bekommen.
Die niedrige IPC der Bulldozer sorgte dsmals dafür dass manche (oder viele) Games auf einen Intel 2-Kerner mit niedrigerer Taktrate besser liefen als auf 8-Kern AMDs mit höherer Taktrate.
Ja und jetzt ist es genau andersrum, AMD hat die höhere "IPC", da ein 4,4GHz AMD mit einem 4,7-5GHz Intel bei Anwendungen mithalten kann...

Wobei Bulldozer eigentlich gar nicht soo schlecht war - das Core Design, nicht das vollständige Produkt...
Das Endergebnis "Bulldozer" ist dann doch nicht so gut geworden, zu einem nicht unerheblichen Teil weil die Ausführungseinheiten verhungert sind, z.T. nicht genug Bandbreite (gerade der schrottige Uncore/L3 auf nur 2GHz hindert doch gewaltig...

--- Update ---

Dass immer die gleichen Tests herangezogen werden.
Um überhaupt einen Unterschied darstellen zu können, wird IMMER mit einem Grafikmonster 2080Ti getestet.
Meistens dann noch in 720p - hier wenigstens in FullHD.
Das ist noch gar nicht wirklich das Problem.

Das wirkliche Problem ist, dass die Unterschiede für die Leute einfach total egal sind und man nicht die Rechenleistung sondern die Latenz misst. Wir reden bei diesen "CPU Benchmarks" bei Gaming nicht selten von weit jenseits der 100fps...

--- Update ---

Und beim Zen 2 wurde der Memory-Controller gar wieder aus dem Die ausgelagert, das die Rechenwerke enthält :o Das kann nicht optimal sein für die Latenz.
Ist es nicht lustig, dass diejenen welche den Speichercontroller als erstes (bei x86) integriert haben, die ersten waren, den wieder rauszuschmeißen? :)
Ich find das immer wieder lustig ;)

Aber bei Zen gibts noch andere Fallstricke. Nämlich, dass IIRC die CCX nicht untereinander verbunden sind...

Das schaut echt sehr stark nach dem Design der PS4/XBoner APUs aus, bei dem man einfach zwei 4 Kerner zusammengeklatscht und "irgendwie" verbunden hat. Also das eigentlich eher sogar ein MPS System ist...
ggF war das ja auch der Hintergrund von dem ganzen? Dass man aus der XBoner/PS4 APU eine Desktop CPU entwickelt hat, die mit den alten Jaguars kompatibel ist und ggF auch in einen "Jaguar Modus" gebracht werden kann?? (PS5 APU)...

Und ggF hat man deswegen ja auch sich entschlossen die CCX erst bei Zen3, nach den Konsolen Deals, weiter zusammenzuführen?

Und es schaut irgendwie auch a bisserl danach aus, als ob man Zen von ANfang an auf einen seperaten Speichercontroller designed hat, den man dann auch aus der CPU auslagern kann. Man wollte es nur nicht gleich am Anfang machen.
 
So kann man aber nicht argumentieren. Die 1060 und die 570/580 sind Jahre alt! Wenn man die als Referenz für die Gaming-Performance eines Spiele-PCs heranzieht, dann ist sowieso alles egal was in den letzten Jahren an Fortschritt auf dem CPU-Sektor passiert ist. Dann wird's aber auch nie Fortschritt geben, wenn ich als Referenz immer das nehme was vor 3 Jahren schon nur Mittelklasse war. Auf Grundlage dessen kann ich dann aussagen, dass alle Prozessoren gleich schnell sind... :P

Die Frage muss doch eher lauten, was ich einem Interessenten empfehle, der heute zu mir kommt und nach einem Gaming-PC fragt. Dem bau ich doch keine 1060 oder RX 580 ein. *kopfkratz Der kriegt dann eine 2070 oder 5700 je nach Budget. Und dann muss ich natürlich schon gucken, je nachdem in welcher Preisklasse sich das Gerät bewegen soll, wie sich dazu die jeweiligen Prozessoren beim Gaming verhalten. Wenn der eine beim Zocken 15% schneller ist als der andere, kann ich da doch nicht einfach drüber hinweg gehen *noahnung* Da ist auch nicht Frage, ob man mit einem AMD-Prozessor nicht zocken kann. Natürlich kann man! Aber wenn da einer ankommt und eine klare Empfehlung für einen Gaming-PC will, womöglich noch für einen High-End-Gaming-PC, wo eben eine 2080 oder 2080 Ti reinwandert – und solche Gamer hab ich etliche – kann ich dem dann guten Gewissens den AMD reinschrauben obwohl er vorher explizit Gaming als Haupteinsatz genannt hat?

Ja, kannst Du!
Du baust ihm einen 3600 (ohne X) ein und knallst das maximale an Grafikkarte drauf, was fürs Budget geht - und wenn etwas übrig bleibt, freut sich der Gamer.
Der "Gamer" wird nämlich weder in 720p noch in FullHD bei abgeschalteten Details zocken, sondern MINDESTENS in WHQD wenn nicht gar in 4k - und da ist der Unterschied zu dem teureren und doppelt so viel Strom verbrauchenden Intel Prozessor (und auch zu den größeren Brüdern aus der Ryzen Flotte) genau gar nicht mehr vorhanden, der mehrverbrauch der Intel Prozessoren bleibt aber!
DAS muss in die Gamerköpfe, nicht diese realitätsfernen Balken aus fabrizierten Tests.

Wenn er dann rummeckert, dann sagst du Ihm, dass du ihm eine High End PCIe 4.0 M.2 SSD mit dazu einbaust, das bringt bei den Ladezeiten einen riesen Vorteil. Da kannst Du ihm auch Balken zeigen!
Und er kann in Zukunft auf Zen3 Aufrüsten, und bei einer neuen Grafikkartengeneration mit PCIe 4.0 auch diese einbauen, statt eine komplett neue Plattform zu kaufen.

Du bist der Multiplikator, Du kannst die User aufklären. Wer, wenn nicht Du kann etwas gegen diesen vollkommen realitätsfernen Schwachsinn, der überall zu lesen ist etwas tun?

Die 1060 und 580 habe ich nciht umsonst genannt - schau mal in die Steam Statistiken, die 1060 ist mit Abstand die meistgenutzte GPU, die 580 die meistgenutzte AMD. Der User, der vorher eine 1060 hatte, wird jetzt doch nicht im Ernst eine 2070 kaufen, sondern sich wieder im mid Range orientieren! Und bei diesen bleibt im Kopf das vollkommen falsche "wenn ich spielen will, brauche ich intel" - weil niemand sie aufklärt.

Mein letzter "Gaming" PC den ich für eine BBekannte zusammengestellt habe, war übrigens ein genau solcher: Ryzen 5 3600 und dazu eine RX 5500 XT mit 8GB GDDR6 - das ist DIE perfekte Mischung.
Bei Tests fällt die 5500 immer hinter die vergleichbaren NVidia zurück, aber woran liegt das? - weil sie wegen PCIe 4.0 nur die Halbe Anbindung ans system hat - und also ihre volle Leistung nur mit PCIe 4.0 ausspielen kann! Womit testen die Tester aber? - Auf "Intel ist die Spiele macht!" PCIe 3.0 Plattformen.

Mit der Kombi macht man alles, was im vergleichbaren Preisbereich fürs Gesamtsystem liegt einfach nur platt.

Mit Komponenten, die laut Magazinen aber nicht zum Gamen taugen... Trau Dich, den Nutzern und auch den "Gamern" zu sagen!
Es gibt auch als Gamer aktuell genau gar keine Gründe, auf Intel zu setzen!

Die, die es wirklich brauchen / wollen werden nicht zu Dir kommen. - Die geben dann aber auch ein paar Scheine mehr aus.
ich würde niemandem mit guten Gewissen ein Intel System verkaufen, slebst jemanden, der mit dem Quatsch aus den einschlägigen Portalen kommt würde ich aufklären und ggf. 2 Testsysteme in WHQD und vollen Details vor die Nase stellen.

Es gibt in der Realität außerhalb von fabrizierten Sinnlostests KEINEN "Gaming Rückstand" von AMD CPUs. Das muss in die Köpfe.
Wo es Unterschiede gibt, kann man durch ein paar Euro bei der Grafikkarte mehr und ein paar Euro bei der CPU weniger einen wirklichen Performancezuwachs erzielen.
 
Zuletzt bearbeitet:
Wer spielt heute eigentlich mit einem Ryzen 3900X und einer RTX 2080 Ti in FullHD? In UHD ist der Unterschied bei sagenhaften 2%... *suspect*
 
Die Leute die 500FPS brauchen,da reichen 475 FPS von AMD nicht aus am 72 Zöller. *buck*
Wenn ich daran denke das ich mit dem 3800X und ner RX 5700 schon in WQHD Spiele....*kopfkratz
Ich glaub da muss ich ja dann auf 720p runter.
 
Was mir immer noch fehlt sind die multi Tasking Tests von mehr Kern Prozessoren. Für ein normales Gaming Sys reichen 4-6 Kerne auf anschlag getaktet.

Wäre doch auch mal ein Vergleich mit 50% Grundlast mit Prime oder Streaming/Rendering usw. und dann die Benches laufen lassen. Auf den Vergleich wäre ich gespannt.
 
Also so abwegig wie hier einige tun, ist die Sache nicht! :] Der Großteil "meiner" Gamer wählt absichtlich "nur" 1440p- oder gar 1080p-Monitore, weil ihnen hohe Frameraten an ihren 144-Hz-Monitoren beim Zocken und insbesondere bei Shootern wichtiger ist, als in 4K bei 30-60 fps herumzueiern. Und das ist dann genau das angesprochene Szenario, wenn der i7 im Mittel 120 fps schafft und der Ryzen 7 "nur" 100 fps. In den meisten Einsatzgebieten hat AMD Intel ja schon überholt, aber das ist eine Schwäche, die AMD bei künftigen Generationen unbedingt noch abstellen muss. Der 3300X zeigt ja derzeit gegenüber dem 3100 eindrucksvoll, dass allein die Abschaffung der in CCX aufgeteilten Dies beim Zen 3 schon einiges bringen wird.

Und hey, niemand muss MICH überzeugen AMD-Hardware irgendwo einzusetzen *buck* Ich setze AMD-Hardware überall ein wo es nur geht; in Schulungsräumen, in Büros, in Kanzleien, als HTPC, als Server, als NAS und JA auch in Gaming-PCs wenn Preis-/Leistung an 1. Stelle steht. Aber wenn einer zu mir kommt und einen Bleeding Edge Gaming-PC will, dann kann ich das momentan nicht guten Gewissens, denn spätestens wenn er mit seinem besten Kumpel den virtuellen Schw**zvergleich macht und der Benchmark bei ansonsten gleicher Hardware 20 fps mehr ausspuckt als bei dem Teil, das ich ihm empfohlen habe, dann krieg ich den Kopf gewaschen. *suspect*

Lasst AMD doch an dieser vielleicht letzten Schwäche arbeiten (statt sie zu leugnen), dann ist spätestens mit der nächsten Generation auch der letzte Argument hinfällig, noch einen Intel-Prozessor einzusetzen. :-*
 
Ist es denn wirklich so, dass ein i7 in WHQD abseits von low Detail 20% mehr schafft? Ich würde sagen, es sind wirklich nur 1 - 2% unterschied. und die spielen beim Vergleich keine Rolle.

Die Frage ist, was die Leute beim Benchen nutzen.
Ich tippe auf 3dMark? Da sollte ein Ryzen nicht deutlich schlechter dastehen, als ein Intel System.

Wie gesagt, sind Unterschiede ja wirklich erst halbwegs deutlich mit einer High End Graka und kleinen Auflösungen / Details.
nimmt man (aus Kostengründen) eine "normalo" Grafikkarte und stellt die Details nicht auf Minimum, macht der Prozessor keinen Unterschied mehr.

Das PCIe 4.0 Argument ist auch hier ein entscheidendes.
Kommen wirklich so viele Leute vorbei die genau diese zugeschnittenen Szenarien nutzen, wo hier ein marginaler Vorteil existiert?
 
Die Frage ist, was die Leute beim Benchen nutzen.

Gibt ja genug aktuelle Reviews gerade, da wird beschrieben was sie nutzen.
 
Es gibt in der Realität außerhalb von fabrizierten Sinnlostests KEINEN "Gaming Rückstand" von AMD CPUs. Das muss in die Köpfe.

Das ist richtig, es bleibt aber dennoch, dass die Intels aufgrund der niedrigen Latenzen beim Gaming vorne sind. Umgedreht könnte jeder sagen dass die ganzen Blender und Davinci Benchmarks unsinn sind, weil das ja jeder über die GraKa rechnet.

Wie Nero schon sagt, anstatt das wegzuwischen sollte man natürlich aufklären in welchem Bereich das eine Rolle spielt aber auch einfach AMD pushen diese Bausstellen anzugehen. Hoffen wir mal auf Zen3
 
Aber wenn einer zu mir kommt und einen Bleeding Edge Gaming-PC will, dann kann ich das momentan nicht guten Gewissens, denn spätestens wenn er mit seinem besten Kumpel den virtuellen Schw**zvergleich macht und der Benchmark bei ansonsten gleicher Hardware 20 fps mehr ausspuckt als bei dem Teil, das ich ihm empfohlen habe, dann krieg ich den Kopf gewaschen. *suspect*

Lasst AMD doch an dieser vielleicht letzten Schwäche arbeiten (statt sie zu leugnen), dann ist spätestens mit der nächsten Generation auch der letzte Argument hinfällig, noch einen Intel-Prozessor einzusetzen. :-*

Sorry Nero, aber hier wird es etwas lächerlich. Es sind ja eben gar keine 20 FPS mehr. Habe die Diskussion erst vor kurzem im CB Forum gehabt. In 720p kamen +15% rum. Boar hört sich viel an. Aber wenn man dann konkret geschaut hat waren es 58 zu 64 FPS. Sorry ja rechnerisch sind das 15% aber in diesem FPS Bereich völlig unbedeutend. Das merkt man nicht mal [war Anno meine ich].

Wenn bei 100 zu 115 FPS wir wären oder zu sogar 120 - ja dann wäre es immerhin ein "Vorteil" der in dem ein oder anderen Extremsetting einen bemerkbaren Unterschied darstellen würde.

Aber schon bei FHD bleiben zwar die 15% fast erhalten aber unsere Basis wandert noch ein Stück nach unten weil dann 45 FPS zu 52 FPS auf der Uhr stehen... Und ich kenne keinen der Shooter in 720p spielt... Ausser früher in Quake Zeiten... aber die Idioten haben ja sogar alle Texturen und co abgestellt... Da war das Game dann so hässlich das ich mir dachte... Ach lassen wir das lieber...
 
Die Antwort ist einfach.Das war glaub ich der größte FPS Unterschied.Rechnet man den Intel Takt runter auf 4,4GHz,dann schneidet Intel wie immer ab,einfach nur Schlecht.Lediglich der Kotzgrenze Takt von 600-800MHz mehr Rettet ihn hin und wieder mal ein wenig.
Core i9 10900X OC 5.0GHz vs Ryzen 9 3900X OC 4.4GHz (RTX 2080 Ti)

--- Update ---

Das ist fast wie Früher zu i3 vs FX 9590 Zeiten nur mal anders rum.*rofl*
https://youtu.be/AFVz3vUzsSo
 
Manche tun alles für ein paar fps ;)

Natürlich gilt aber immer noch: Schneller ist schneller. Würde man auch so sehen wenn AMD ein paar fps schneller wäre mit erheblich höherer Taktfrequenz :D

Jetzt ist AMD bei Anwendungen führend, wäre für mich aber so wenig ein Kaufgrund wie Intels kleiner fps-Vorsprung; bei letzterem würde bei mir würde da doch die Grafikkarte limitieren und bei ersterem müßte ich erstmal eine Anwendung finden bei der ich profitieren würde.
 
Zurück
Oben Unten