User-Review: Phenom II X6 vs. Haswell i3

Naja ich test meinen A6 jetzt auch und verwende als Benchmark CS 1.6 oder Source,
Und Beim Thema Igp Leistung nutz ich einfach Arch 64bit um die Vorteile ggn. einer NV/Intel Gpu darzustellen.

Wird aber bei PCGH kein gehör finden,
denn bei PCGH wird man von dem Chef ja als Redakteur bekanntlich von Intel und NV in den Arsch g.......

Du vergleichst aber keine CPU mit einer GPU und stellst dann fest das die GPU schneller ist bzw dessen CPU weniger belastet wird......
 
... PCIe 3.0 pro Lane 0,9GByte/s Gesamtbandbreite 1,8GByte/s
Also PCIe mit zwo Lanes 3,89GByte/s Netto in beide Richtugen I/O (Eingang/Ausgang).
Gbit sind Grundsätzlich durch acht zu teilen um auf GByte pro Richtung zu kommen.

Das Protokoll ist eher ein Schritt von vielen, selbst Optische Protokolle lassen sich steigern ohne die Leitung zu ändern.
??? Und was hat das alles jetzt mit RAM zu tun?

Oder ist das auch wieder nur ein Scherz?
 
@drSeehas
Alte Zitrus-presse, Olivenbaumschüttler?
PCIe 4.0 x16 schafft dann bis zu 32 GByte/s. Dafür muss auch bei den Speicher-Schnittstellen etwas passieren. So müssen bei PCIe 4.0 x16 schon zwei Speicherkanäle mit DDR4-2133-Chips (PC4-17066) zum Einsatz kommen.
Um eine Verdoppelung der Transferrate zu ermöglichen wird die maximale Leitungslänge von 20 auf 8 bis 12 Zoll (20 bis 30 cm) schrumpfen. Auch neue Materialien für Leiterbahnen und Kontakte sind angedacht, um die Signalqualität zu erhalten.
Wie zu erwarten soll PCIe 4.0 auch weiterhin zu älteren PCIe-Karten abwärtskompatibel sein
Quelle: https://www.elektronik-kompendium.de/sites/com/0904051.htm

1 Zoll = 2,54cm
USA 1,000 = DE 1.000

ISO Bitte!
 
Zuletzt bearbeitet:
Du vergleichst aber keine CPU mit einer GPU und stellst dann fest das die GPU schneller ist bzw dessen CPU weniger belastet wird......

Sicher Idas macht den Test ja erst richtig Seriös:P,
Seriöser wird's bei den Großen erst wenn sie sich nicht mehr rauslügen können *rofl*
 
Auch nicht wirklich,weil wenn ich ne Auslastung über die CPU aufzeichne,dann darf ich auch nur die CPU belasten und nicht wie beim i3 die iGPU und bin dann "scheinheilig" verwundert das die CPU kaum belastet wird......

Natürlich geht das denn wenn die CPU lt. Diagramm nicht ausgelastet wird bestimmt etwas anderes die Performance.
Das ist ja das schöne an den Auslastungsdiagrammen. Man sieht relativ schnell ob die CPU der limitierende Faktor in dem Test ist und ob das Programm überhaupt in der Lage ist alle Kerne zu nutzen.
Genau das macht es einem ja so leicht die Schwächen des Tests zu erkennen.
 
@drSeehas
Alte Zitrus-presse, Olivenbaumschüttler?
??? Was haben Zitruspressen und Olivenbäume mit RAM zu tun?

??? Wieso kommst du jetzt nochmal mit dem gleichen Link und mit PCIe 4.0?
Du drehst dich im Kreis.

1 Zoll = 2,54cm
USA 1,000 = DE 1.000
???
Was soll das jetzt?
Außerdem steht zwischen Zahl und Einheit ein Leerzeichen (2,54 cm).

???
Wie meinen?



Nachdem du jetzt in gefühlt zig Beiträgen nicht in der Lage warst, deine Behauptung zu begründen, gehe ich einfach mal von einem verspäteten Aprilscherz aus und beende hiermit diese Diskussion mit dir.
 
Natürlich geht das denn wenn die CPU lt. Diagramm nicht ausgelastet wird bestimmt etwas anderes die Performance.
Das ist ja das schöne an den Auslastungsdiagrammen. Man sieht relativ schnell ob die CPU der limitierende Faktor in dem Test ist und ob das Programm überhaupt in der Lage ist alle Kerne zu nutzen.
Genau das macht es einem ja so leicht die Schwächen des Tests zu erkennen.

Wie willst sehen ob ein Programm alle CPU Kerne verwendet wenn es über die GPU Rechner?
Schaut man da nicht nach ob die GPU voll belastet wird?!
Dich interessiert es ja auch nicht ob der Ram voll verwendet wir.
 
Zuletzt bearbeitet:
Das ist doch ganz einfach.
Kerne nicht halbwegs ausgelastet = Programm wird durch andere Faktoren limitiert
CPU Last auf einzelne Kerne konzentriert/gesammt CPU Last ist durch die Anzahl der Kerne teilbar = Programm ist nicht in der Lage mehr Kerne zu nutzen
 
Ähhh ja,und im Fall vom Phenom II x6 mit vollauslastung der Kerne Vs i3 mit Auslastung von rund 2 Kernen kannst jetzt was über das Programm sagen?
 
Ein solches Szenario gab es nur beim Rippen und wenn es um das gleiche Programm geht ist die Aussage simpel.
Da der X6 voll ausgelastet wird kann das Programm alle Kerne auslasten, da der i3 eben nicht ausgelastet wird limitiert etwas anderes und oh Wunder, es ist auch der Fall da QuickSync verwende wird, bei dem die Berechnung eine spezielle Recheneinheit übernimmt.

Edit:
Dieses Verhalten verdeutlicht um so mehr die gaming + Aufnahme Tests.
Ohne Aufnahme werden bei beiden nur 4 Kerne genutzt, wobei dies nur zum Teil ausgelastet werden, also limitiert etwas anderes. Angesichts der gleichen durchschnittlichen und max. Framerate dürfte das wohl die Grafikkarte bzw. ein frameraten Limiter sein.
Mit Aufnahme steig die CPU Last beim X6, den i3 läßt es hingegen kalt. Offensichtlich berechnet das Video hier beim X6 die CPU und beim i3 etwas anderes und oh Wunder...es kommt wieder QuickSync zum Einsatz.

Einen anderen Fall hast du beim Office Test.
Die Last konzentriert sich sowohl beim i3, als auch beim X6 auf 2 Kerne. Also gewinnt der mit der höhen Leistung pro Kern.
 
Zuletzt bearbeitet:
Und das kann ich jetzt miteinander vergleichen?
Beim Office Test ist die Frage,ob nicht die Unterstützung vom i3 besser ist (Befehlssätze,Optimierung....).
Wurd die iGPU vielleicht doch mit verwendet wie z.b. auch in LibreOffice......?!

Der Tester hatte es zwar "Versucht" aber voll versaut,wenn er gescheit gewesen wäre,dann hätte er den Test nicht veröffentlicht.

Hatte z.b. auch mal nen schönen 60FPS Test gemacht,wurd aber nie veröffentlicht weil ich Fehler gemacht hatte und fast alle min FPS bei 0 lagen.......
 
Was hat das mit der Deutung der Auslastungsdiagramme im Bezug auf den jeweiligen Test und dessen Auswirkung auf die Testergebnisse zu tuen?
Gerade beim Office Test schrieb er selbst das nicht ernsthaft mehr als 2 Kerne verwendet werden und das spiegelt sich auch im Auslastungsdiagramm wieder. Da benötigt man auch keine zusätzliche GPU Power für die 50% Mehrleistung, da reicht bereits der Vorsprung an Einzelkern Rechenleistung die in solchen Szenarien entscheidend werden denn nicht genutzte Kerne sind dann für die effektive Leistung irrelevant.
 
Ich breche jetzt mal eine Lanze für den "Tester".
Er betont ja immer wieder, dass für sein Anwendungsprofil (oder so ähnlich) der I3 nunmal schneller ist. Wenn er beim X6 die dedizierte GPU nicht herangezogen hat, liegt das vielleicht daran, dass die Bildqualität mit CUDA nicht so berauschend wäre (hab jetzt keine Lust, mir nochmals seinen Post anzuschauen, aber er erwähnt etwas von wegen CUDA und schlechte Qualität). Wenn ihm die Quicksync Qualität ausreicht, ist doch OK.

Er vergleicht zwar Äpfel mit Birnen, aber in seinem Fall sind die Äpfel (=I3) nunmal schneller als die Birnen. Klar, es ist kein objektiver CPU-Test, aber bei den Programmen, die er nutzt, ist der I3 nunmal schneller, auch wenn er dabei "schummelt" (iGPU).

Er hätte natürlich lieber nochmals das Ganze ohne Quicksync testen sollen, um die reinen CPUs zu vergleichen, aber wenn er das in der Praxis so nicht macht (also Quicksynk aussen vor lassen) und er beim X6 immer schon nur die CPU hat rechnen lassen, ohne GPU, dann bringt ihm der I3 einen Mehrwert.

Oder anders gesagt: wieso sollte er die "neuen" Möglichkeiten der neuen CPU nicht nutzen, wenn er sie schon hat? Oder anders: ich kaufe mir ein neues Auto, aber, um es mit dem alten vergleichbar zu machen, verzichte ich auf den ganzen Schnickschnack. In der Praxis nutzt er den Schnickschnack ja, auch wenn man vielleicht das alte Auto nicht voll ausgereizt hat (GPU).

Fazit: es ist kein objektiver CPU vs CPU test, aber für sein Anwendungsgebiet bringt der I3 Vorteile.

Sharpy

Edit: Jetzt könnt Ihr über mich herfallen :) Einer mit X6 kann ja kontern, und solche Testszenarien auswählen, wo der X6 Vorteile bringt, meinetwegen 3 Videos gleichzeitig rendern. Dann wäre das etwas ausgeglichener, aber wenn der "Tester" das in der Praxis nicht macht, dann wäre das auch nur ein spezieller Anwendungsfall. Man kann natürlich für jede halbwegs aktuelle CPU irgendwelche Szenarien nehmen, wo die eine oder andere besser ist.
 
Zuletzt bearbeitet:
@Zalpower
Notingh like Viva, ist ein Titel der Gruppe ViVa,#?

Der I3 hat Vorteile sowie Nachteile, eine eierlegende Wollmilchsau gibt es ohne Gentechnik oder Inzucht nicht!

Trotzdem würde ich eine APU bevorzugen! ;)
 
Auf jeden Fall ist dieser Test sinnlos.
Der ist nicht nur sinnlos, sondern inszeniert von einem der fanatischsten AMD Basher, der bei HWL nichts anderes zu tun hat, als in gefühlt jedem zweiten Beitrag seine Abneigung gegenüber AMD zu zeigen. Jeder mit ein bisschen Hirn sollte wissen, was man von einem aktuellen i3 und dem mittlerweile 5 Jahre alten X6 erwarten kann. Vor allem dann, wenn man nur maximal zwei Kerne auslastet. Dafür braucht man keinen Test, um das Ergebnis zu kennen. Wir könnten ja auch mal einen X6 und einen Pentium D gegeneinander antreten lassen. Da ist der Altersunterschied ähnlich gross. Anders ist nur, dass sich für den Pentium D wohl kein Testparcours inszenieren lässt, in dem er besser ausschaut. :] Ich muss Zalpower auch zustimmen, der Test ist obendrein inkompetent. Speziell wenn man CPU und APU vergleicht und dann Videomaterial unterschiedlich konvertiert. Welche Erkenntnisse soll man dabei gewinnen? Dass eine iGPU schneller konvertieren kann, während die Qualität bei CPU-Konvertierung besser ist?


Ein Deneb begnügt sich mit rund 10 Watt. Das kann man sparsam nennen, obwohl er verglichen mit einem Kaveri natürlich als Schluckspecht dasteht. Ein Thuban verbraucht dagegen beinah das Doppelte.
Wie kommst du darauf? Der X6 braucht nur ein paar Watt mehr als der X4. Halt ziemlich genau das, was man von 50% mehr Kernen bei fehlendem Power-Gating erwarten kann. Die 65nm Phenoms waren da noch deutlich hungriger unter Idle.


Nur ist ein i3 nicht Besser/Schneller......als ein Kaveri.
Kommt aufs Modell an. Die grösseren sind schon etwas schneller. Zumindest bei CPU-Last. Bei GPU-Last schaut es natürlich komplett anders aus.
 
Welche Erkenntnisse soll man dabei gewinnen?

Das ist einfach zu beantworten.
Wer andauernd dolle Gaming Videos dreht und dabei Spiele nutzt die nicht mehr als 2 Kerne halbwegs auslasten können ist mit dem i3 besser beraten.
 
Naja welche Einstellung fuer die Aufnahme z.b.
1080p60fps, in was? Skyrim?

Selbst das trau ich dem i3 weniger zu
 
Wie kommst du darauf? Der X6 braucht nur ein paar Watt mehr als der X4.
Mir sind andere Messergebnisse geläufig. Zum Beispiel die folgenden, wo der Thuban noch relativ gut wegkommt: Klick
Halt ziemlich genau das, was man von 50% mehr Kernen bei fehlendem Power-Gating erwarten kann.
Wäre da nicht die hohe Vcore im HALT-State. Ich zitiere dazu mal den Test von MusicIsMyLife:
Im Idle-Betrieb und gleichzeitig aktiviertem Cool'n'Quiet fällt die Taktrate auf die bereits vom Deneb bekannten 800 MHz ab.
Anders als beim Vorgänger bleibt die Betriebsspannung mit 1,225 Volt aber relativ hoch.
Der Thuban hatte dem Deneb zwar die Fertigung mit Low-K-Dielektrikum voraus, aber Wunder kann diese nicht vollbringen.
 
Mir sind andere Messergebnisse geläufig. Zum Beispiel die folgenden, wo der Thuban noch relativ gut wegkommt: Klick
Bei den alten HT4U Tests sollte man vorsichtig sein. Die hatten da teilweise übervoltende Boards im Einsatz. Ich weiss auch nicht, was du da grossartig bei HT4U zu sehen glaubst. Rechne mal 50% zu der X4 955 Leistungsaufnahme hinzu. Da liegst du etwa bei den X6 1090T Werten, plus minus Messungenauigkeit.

Der Thuban hatte dem Deneb zwar die Fertigung mit Low-K-Dielektrikum voraus, aber Wunder kann diese nicht vollbringen.
Das muss es auch gar nicht. Low-K, wie andere spezielle Materialien auch, kommen normalerweise vor allem unter Last zur Geltung. "Wunder" unter Idle vollbringt erst Power-Gating. Und das hatte weder Deneb noch Thuban.
 
Zuletzt bearbeitet:
Rechne mal 50% zu der X4 955 Leistungsaufnahme hinzu.
Bei der Berechnung lässt du jedoch den Uncore-Bereich völlig außer Acht. Allein durch zwei Kerne mehr dürfte der Verbrauch nicht um 50% steigen.

Dafür gibt es zum Glück den Family 10h Power & Thermal Data Sheet: http://support.amd.com/TechDocs/43375.pdf

Einen Blick wert ist die Rubrik 2.3.14 (Phenom II X4 970 C3) und 2.3.16 (Phenom II X6 1055T E0) und dort die Werte unter "S0.C1.Pmin". Demnach verbraucht die Northbridge des Thuban gegenüber dem C3 Stepping des Deneb um die 2 Watt mehr (mit leichten Schwankungen je nach Modell). Der Verbrauch der Northbridge im C1 State dürfte derjenigen im C0 State (ohne laufende I/O Operationen) entsprechen. Eine Ursache könnte die Existenz des Probe Filter (HT Assist) sein, obwohl dieser nur bei Instabul benötigt wird. Unverändert hat man den Uncore-Bereich beim E0 Stepping schließlich nicht vom Deneb übernommen. Den Verbrauch eines einzelnen Kerns bei aktivem Cool 'n' Quiet kann man nur auf Umwegen und fehleranfällig bestimmen, indem man von der unter "S0.C0.P3" angegebenen TDP den Verbrauch der Northbridge und für HyperTransport abzieht und das Ergebnis durch die Anzahl der Kerne teilt.

Fakt ist jedenfalls, dass AMD den Idle-Verbrauch bei Deneb und insbesondere Propus wesentlich besser im Griff hatte als beim Thuban/Zosma.
 
Bei der Berechnung lässt du jedoch den Uncore-Bereich völlig außer Acht. Allein durch zwei Kerne mehr dürfte der Verbrauch nicht um 50% steigen.
Thuban hat auch mehr Uncore. Deneb 243 mm², Thuban 346 mm². Zwei K10 Kerne brauchen keine ~100 mm². Ein K10 Kern in 45nm braucht ~19 mm² (~15 mm² Kern + ~4 mm² L2). Zwei davon brauchen also nicht mal 40 mm². Thuban ist insgesamt ~42% grösser. Das heisst an den 50% Differenz gegenüber Deneb ändert sich nichts grundlegend, auch mit Uncore.

Fakt ist jedenfalls, dass AMD den Idle-Verbrauch bei Deneb und insbesondere Propus wesentlich besser im Griff hatte als beim Thuban/Zosma.
Nein. Fakt ist viel eher, dass man genau das bei einem Design ohne Power-Gating erwarten kann, welches 50% mehr Kerne mitbringt und insgesamt fast 50% grösser ist.
 
Naja, wenn man einen Phenom II X6 1090T auf eine ordentliche AM3+ Plattform schnallt mit einer Wasserkühlung (WaKü) dann lassen sich so auch locker 250-300W TDP abführen.
AMD hat da schon etwas länger Erfahrung damit, von daher sind selbst I3 keine wirkliche Konkurrenz, sofern man mehr in die GPU investiert. ;)
 
Ich muss Zalpower auch zustimmen, der Test ist obendrein inkompetent. Speziell wenn man CPU und APU vergleicht und dann Videomaterial unterschiedlich konvertiert. Welche Erkenntnisse soll man dabei gewinnen? Dass eine iGPU schneller konvertieren kann, während die Qualität bei CPU-Konvertierung besser ist?
Will man wirklich bitgleiche-Ergebnisse, müsste man auch das Multi-Threading ausschalten und den Codec auf einem einzigen Kern laufen lassen. Das macht irgendwie keiner, sondern man ignoriert mutmaßliche Qualitätsunterschiede und misst nur die Geschwindigkeit. Scheint so üblich zu sein.
 
Zurück
Oben Unten