x-bit labs - Vergleichstest der Sub $200 CPUs

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
http://xbitlabs.com/articles/cpu/display/core2duo-e6420.html

Was aktuell und auch zukünftig = X2 K10 an Bedeutung hat sind die großen 4M-L2 beim C2D und jetzt auch als E6320/6420 in die unteren Klasse.

Gerade bei Games und einige Multimedia-Anwendungen zieht 4M statt 2M kräftig durch (Spitzenreiter ein Excel-Benchmark mit +27% nur durch 4M statt 2M Cache)
Hier dürften auch die kleinen K10 / 2* 512k-L2 ins schwitzen kommen.
 
So Groß ist der Unterschied nun wirklich nicht im normalen Betrieb merkt man sowas kaum man muss dann schon ziemlich anspruchsvolle Anwendungen haben damit sich die 2 MB mehr Cache und der höhere Preis rentieren.
 
Tja, das ist auch so die einzige Hauptsorge die ich im Kampf AMD vs. Intel wirklich habe:

AMD ist durchaus in der Lage von der Prozessor-Logik her gleichwertige oder schnellere CPUs auf die Beine zu stellen (ok, der K8 ist jetzt einfach veraltet).
Aber Intel könnte letztendlich durch die wesentlich höheren Fertigungskapazitäten dazu in der Lage sein die CPUs nur so mit Cache voll zu stopfen. Zumindest eben mit wesentlich größeren Caches als AMD das kann.

Ich hoffe, dass AMD es in Zukunft auch schafft die Zellen des L2-Cache deutlich zu schrumpfen um mehr davon unterbringen zu können.

Eine gewisse Zeit lang wird AMD das noch durch den internen Speichercontroller ausgleichen können, aber den wird Intel auch irgendwann haben.

Aber zuerst lasse ich mich mal durch den K10 überraschen wie AMD es dort löst.
 
Ich finde solche Aussagen immer wieder faszinierend, zumal ich noch keinen einzigen Bench mit der K10 Architektur gesehen hab.
Das Intel sehr L2 Lastig baut ist ja bereits seit den Anfängen des P4 bekannt, welcher erst im laufe der Jahre zu dem geworden ist, als was ihn die Ingenieure wohl ursprünglich entwickelt hatten (z.B. L2 grösse).

Die K8 hingegen waren/sind gegenüber der L2 Cache grösse relativ resistent.
 
Dass AMD immer wieder vergleichbare oder bessere Architekturen anzubieten hatte lässt sich kaum abstreiten: Athlon vs. PIII, Athlon 64 vs. P4
Seit dem Ur-Athlon wogt die Performancekrone eben immer wieder hin und her.
Über die Zukunft habe ich dabei nie gesprochen. Ob das mit dem K10 wieder gelingt - abwarten.

Über den K10 wurde auch nichts behauptet. Im Gegenteil: Ich habe geschrieben, dass ich mich überraschen lassen werde wie AMD die von mir beschriebenen Dinge beim K10 angehen/lösen wird.

Das jeweilige Verhätlnis von K8 und P4 zu L2-Größe ist bekannt, das ändert aber nichts an der Tatsache, dass Intel für kommende Generationen auch einen internen Speichercontroller vorgesehen hat. Und mit dem Nutzen von L2-Größe für den K8 ist auch bekannt, dass er die kleineren Cache-Größen durch den schnellen Speicher-Controller kompensieren konnte.
Verliert AMD diesen Vorteil dann einst, müssen sie sich etwas anderes einfallen lassen. Ob das nun mehr Cache ist oder sonst was sei dahingestellt.
Aber mehr möchte ich dazu jetzt nicht mehr schreiben, irgendwann sind die von den Herstellern freigegebenen Wissensbrocken über zukünftige Planungen aufgebraucht und es bleibt doch nur wieder der gute alte Spekulatius. ;)
 
Ich finde solche Aussagen immer wieder faszinierend, zumal ich noch keinen einzigen Bench mit der K10 Architektur gesehen hab.
Das Intel sehr L2 Lastig baut ist ja bereits seit den Anfängen des P4 bekannt, welcher erst im laufe der Jahre zu dem geworden ist, als was ihn die Ingenieure wohl ursprünglich entwickelt hatten (z.B. L2 grösse).

Die K8 hingegen waren/sind gegenüber der L2 Cache grösse relativ resistent.
Beim X2 3600+ auf 2* 256k Basis gab es ebenfalls Einbrüche bei einigen Applikationen.

Man sollte den C2D nicht mit dem P4 vergleichen. Die Latenzzeiten sein bereits geschrumpft und nur noch der Umweg über die Northbridge bermst aus.

AMD baut ja auch schon beim Barcelona 2M-L3 ein und der Shanghai soll es auf 4-6M L3 bringen.
AMD hätte als Budget-'Ausweg' ein ZRAM / EDRAM Design für den L3 beim K10.
Denn man sollte realistisch sein - die Programme werden größer und auch die Programmschleifen, das zieht den L2 irgendwann in die Knie.
Die 512k hatten wird schon beim Barton - das war Feb 2003.
Seit damals stieg der Hauptspeicher und der Bedarf der Software deutlich an.

Aktuell hat Intel mit den 4M C2D 6320 / E6420 in der Sub-$200 Klasse gewaltige Konkurrenten zum K8 und Budget K10 (ohne L3) positioniert.
Die Intel-L2 sind so kompakt, wie es AMD erst beim K10 nutzt; kostet Intel also kaum mehr in der Fertigung und wird preisgleich zu den 2M Modellen in der nächsten Liste geführt.
 
@Nightshift
Dich hatte ich auch nicht gemeint. ;)

@rkinet
Doch, die kann man sogar recht gut vergleichen.
Der P4 konnte Theoretisch mehr daten verarbeiten als andere Teile des Prozessors hergaben und somit lebte er nicht zuletzt von den Daten die im L2 Cache lagen und somit auch von seiner größe....das gleiche Problem hat doch der C2D auch oder nicht?

Das der K8 auch von einem größeren L2 Cache profitiert steht ja auch ausser frage, daher auch das "relativ" aber ebend bei weitem nicht so sehr wie die Intel Produkte.

Ich möchte dich allerdings immernoch fragen wie du Aussagen über die Konkurrenzfähigkeit eines Produktes geben kannst, zu denen es scheinbar noch nichtmal wirkliche Bench Ergebnisse gibt. Das einzige was dem am nächsten kommt sind die Seti Ergebnisse, aber da ist noch nichtmal wirklich klar ob die echt sind oder um welchen Prozessor es sich da überhaupt handelt.
 
Beim X2 3600+ auf 2* 256k Basis gab es ebenfalls Einbrüche bei einigen Applikationen.

Man sollte den C2D nicht mit dem P4 vergleichen. Die Latenzzeiten sein bereits geschrumpft und nur noch der Umweg über die Northbridge bermst aus.

AMD baut ja auch schon beim Barcelona 2M-L3 ein und der Shanghai soll es auf 4-6M L3 bringen.
AMD hätte als Budget-'Ausweg' ein ZRAM / EDRAM Design für den L3 beim K10.
Denn man sollte realistisch sein - die Programme werden größer und auch die Programmschleifen, das zieht den L2 irgendwann in die Knie.
Die 512k hatten wird schon beim Barton - das war Feb 2003.
Seit damals stieg der Hauptspeicher und der Bedarf der Software deutlich an.

Aktuell hat Intel mit den 4M C2D 6320 / E6420 in der Sub-$200 Klasse gewaltige Konkurrenten zum K8 und Budget K10 (ohne L3) positioniert.
Die Intel-L2 sind so kompakt, wie es AMD erst beim K10 nutzt; kostet Intel also kaum mehr in der Fertigung und wird preisgleich zu den 2M Modellen in der nächsten Liste geführt.


Mal abgesehn davon das man den Core 2 Duo nicht mit einen K8 vergleichen kann.


Es gibt mehrere Gründe warum man nicht mehr Cache draufpackt.


Zum Beispiel das die Architektur nicht so stark vom zusätzlichen Cache profitiert (wie beim A 64) oder daa der Cache zu teuer ist.


512 KB Cache gab es übrigens nicht schon beim Barton sondern sogar schon bei den guten alten Athlons und wenn man ganz weit zurückgeht bei den guten alten Sockel 7 Boards.
 
Hmm, ok eine Anmerkung zum Cache beim K8 will ich dann doch noch machen.

Erwiesener maßen bringt der von 512 KB auf 1 MB verdoppelte Cache zwar zusätzliche Performance, aber nicht übermäßige.

Unbekannt für uns alle ist aber wie ein K8 mit 4 MB L2-Cache performen würde, das lässt sich von dem bisherigen Wissen nicht gesichert schließen.
Denn z.B. beim P4 war beim Sprung von 512 KB auf 1 MB der Performancegewinn bei weitem nicht so stark wie bei den späteren Sprüngen.

Gut, der K10 ist im Kern eine stark aufgebohrte K8-Weiterentwicklung, wir können also nicht auf den K8 rückschließen. Aber dass AMD dem K10 einen 2 MB L3-Cache mitgibt (und das ist ja gesichert, zumindest für die Opteron) scheint ein Indiz dafür zu sein, dass diese CPU durchaus durch größeren Cache profitiert.



Welche CPU-Strukturen noch kommen mögen, es spielt für einige zentrale Überlegungen keine Rolle.
Folgendes Gedankenhaus für die Zukunft:

1. Die Rechenleistung pro Core steigt auch weiterhin, wenn vll. auch nicht mehr so stark wie bisher
2. Es werden immer mehr Cores

Vielleicht werden es ab einem bestimmten Zeitpunkt auch einfach nur noch mehr Cores oder die Geschwindigkeit pro Core nimmt zu gunsten von mehr Cores sogar ab.

Trotzdem ergibt sich daraus ein festes Resultat:
Es werden wesentlich mehr Daten pro Zeiteinheit verarbeitet werden können.
Aber irgendwie müssen ja auch die Pipelines der Cores befüllt werden mit diesen Daten.
Es geht also darum den Cores immer Möglichst viele Daten zur Verfügung stellen zu können.
Da gibt es primär diese Möglichkeiten:

1. Cache on-Die
2. Hauptspeicher
3. Festplatte

Möglichkeit 3 ist hier uninteressant, bleiben 1. und 2.

Hauptspeicher: Intel sieht hier schon in naher Zukunft einen internen Speichercontroller in den eigenen CPUs, diesen Vorteil wird AMD verlieren.
Cache on-Die: Nach wie vor die 1. Quelle für eine CPU um sich Daten zu beschaffen oder Daten zu speichern. Trotzdem schwer abzuschätzen: Mittelfristig wird Intel dank größerer Fertigungskapazitäten und Vorsprung in der Prozesstechnologie wohl noch mehr Cache auf den DICE integrieren. Vll. wird es aber ab einem bestimmten Zeitpunkt nicht mehr mehr Cache sondern nur noch mehr Cores geben. Keine klare Aussage möglich.

Insgesamt lässt sich daraus aber für AMD schließen:
a) Vorteil des internen Speichercontroller geht verloren
b) Solange Intel dann noch immer mehr Cache auf den Dice integriert stehen diesen CPUs pro Zeiteinheit mehr Daten zur Verarbeitung zur Verfügung


Ich hoffe es ist klar worauf ich damit hinauswill: Egal wie es jetzt mit dem Cache aussieht ist AMD mittel- bis langfristig höchst wahrscheinlich dazu gezwungen auch größere Caches einzusetzen.

Und bääääh, jetzt bin ich doch in der Ecke für Spekulatius und anderes Trockengebäck gelandet.)((


@ sompe: Ok. ;)
 
Wenn man sich die derzeitigen OS und Programmentwicklungen so betrachte, dann glaube ich auf lange Sicht glaube ich an eine kombination mehrerer Entwicklungsvarianten.
Zum einen dürfte es sehr viel mehr einfachere Cores geben (+Cores für Spezialaufgaben), wo jede Core einen kleinen L2 Cache als ersten Zwischenspeicher hat + einen zusätzlichen L3 Cache als Gesammtpuffer zum Arbeitsspeicher und zum anderen wird der Speichercontroller bei beiden Herstellern in die CPU wandern und zugunsten des energiebedarfes lassen sich die einzelnen Cores durch entsprechendes Energiemanagement in der Taktrate und der Spannung regeln.
 
Das mag eine Milchmädchenrechnung sein: wir gehen davon aus, dass Intel mit einem IMC den Vorteil von AMD zunichte macht und gleichzeitig den bestehenden Vorteil der größeren Caches weitherhin ausspielen kann - aber: wird nicht umgekehrt ein Schuh daraus ? Intel verliert mit dem IMC den Vorteil großer Caches (siehe K8 ) und kann, genau so wie AMD, die Leistung nur noch anderweitig nennenswert steigern ?

mfG

denton
 
Zuletzt bearbeitet:
Das mag eine Milchmädchenrechnung sein: wir gehen davon aus, dass Intel mit einem IMC den Vorteil von AMD zunichte macht und gleichzeitig den bestehenden Vorteil der größeren Caches weitherhin ausspielen kann - aber: wird nicht umgekehrt ein Schuh daraus ? Intel verliert mit dem IMC den Vorteil großer Caches (siehe K8 ) und kann, genau so wie AMD, die Leistung nur noch anderweitig nennenswert steigern ?

mfG

denton

Na, sagen wir mal so: Ein Prozessor mit größerem Cache wird nie langsamer sein, als der gleiche mit kleinerem, aber auch Intel wird wohl nicht mehr so stark zusätzlich von größeren caches profitieren, wie momentan......
 
Genau darauf wollte ich hinaus; dass mehr Cache bei gleicher Latenz und gleicher Bandbreite nicht langsamer sein kann ist mir schon klar ;)

Man wird sehen - wenn ich mir die Benchmarks von xbit so anschaue ergibt sich für mich ein relativ homogenes Bild und der Leistungsunterschied zwischen Conroe und Allendale ist z.B. bei Videobearbeitung und 3D-Rendering deutlich geringer als der zwischen dem X2 3600+ mit 256kb und X2 3800+ mit 512kb.
Bis auf die Ausnahme mit Excel finde ich die Ergebnisse nun nicht so überzeugend.

Wenn ich allerdings das Fazit lese frage ich mich, ob man xbit überhaupt noch ernst nehmen sollte:

Even the slowest models can run at 3GHz speed with very little effort on the user’s part, which pushes their performance to the level of Core 2 Extreme

was soll das ? Sind die zu Chip.de oder THG gewechselt ?
Dass sich die C2D oft gut übertakten lassen ist nun allgemein bekannt aber dies als allgemeingültige Wahrheit und Normalfall hinstellen ?

mfG

denton
 
Zuletzt bearbeitet:
Man wird sehen - wenn ich mir die Benchmarks von xbit so anschaue ergibt sich für mich ein relativ homogenes Bild und der Leistungsunterschied zwischen Conroe und Allendale ist z.B. bei Videobearbeitung und 3D-Rendering deutlich geringer als der zwischen dem X2 3600+ mit 256kb und X2 3800+ mit 512kb.
Bis auf die Ausnahme mit Excel finde ich die Ergebnisse nun nicht so überzeugend.
Wobei x-bit labs leider nur 2* 512k Produkte getestet hatten, nur die 90/65nm Varianten kamen ins Spiel.
hkepc und xbit labs hatte mal den 3600+ mit 2GHz / 2* 256k im Test, der fiel gegenüber einem 3800+ bei einigen Benchmarks (und gerade Spielen) ab - http://www.xbitlabs.com/articles/cpu/display/athlon64-x2-3600_7.html

Daß Intel von 4M statt 2M profitiert kann auch an der großen Durchsatzgeschwindigkeit (durch breitere Anbindung - bekommt so auch der K10) liegen. Bei AMD's K8 kommen die Daten aus dem L2 eher langsam heraus, was wohl die Effektivität größerer L2 reduziert.
Intel profitiert also doppelt - die Cacheanbindung ist schnell und der größerer Cache wird dadurch performancesteigernd.
 
Wobei x-bit labs leider nur 2* 512k Produkte getestet hatten, nur die 90/65nm Varianten kamen ins Spiel.
hkepc und xbit labs hatte mal den 3600+ mit 2GHz / 2* 256k im Test, der fiel gegenüber einem 3800+ bei einigen Benchmarks (und gerade Spielen) ab - http://www.xbitlabs.com/articles/cpu/display/athlon64-x2-3600_7.html


Ähm....wo ist bei dem Test ein allso grosser Unterschied zwischen dem X2 3600+ und dem X2 3800+? Die hochgetaktete Variante (X2 3600+ @ 2,6GHz ist sogar schneller als der X2 5000+, was letztenendes nur von der höheren Speicherbandbreite stammen kann.
 
Ich glaube, rkinet meint das Ergebnis von BF2 ;)

Das mit dem 3600+@1,9Ghz war mir gar nicht aufgefallen, dann wundert mich das Ergebnis natürlich nicht - der läuft ja auch mit einem "bösen" Speicherteiler ...

mfG

denton
 
Zuletzt bearbeitet:
Entschuldige die Verwirrung, ich war mir so sicher, dass xbit damals auch Battlefield 2 getestet hatten aber ich kann den Benchmark nicht mehr finden ... muss wohl doch woanders gewesen sein.
Auf jeden Fall waren es wohl so 15% Leistungsvorteil für den 3800+ was ja nicht schlecht ist.

mfG

denton
 
Das ist schon was anderes und deutet eindeutig auf einen zu kleinen L2 Cache hin (solange dies der einzige Unterschied ist) aber das ist scheinbar unter den Spielen eher die Ausnahme als die Regel.
Bei Office und archivierungsprogrammen schaut es da scheinbar schonwieder anderes.....programme die sich ebend um viel kleinkram kümmern, welcher dann auch noch im Cache Platz findet.
 
ja wenn man sich dann noch überlegt ,wie die softwareentwickler besseren code oder halt kleineren effizienteren code schreiben würden, dann wäre das problem mit den caches eher nachvollziebar. wenn man sich mal so n proggi ansieht und deassembled naja ich denk da wäre mal wesentlich mehr rauszuholen am code. kann man aus ner eher lahmen schnecke auch noch n zugpferd machen
 
Zurück
Oben Unten