Bulldozer auf Weltreise (BD rollt an Part II)

Status
Für weitere Antworten geschlossen.
Bei Anwendungen geht ohne zu wenig RAM auch nichts :] Spiele dienen wunderbar dazu, die Spieleleistung einer CPU im Vergleich zu messen - freilich im CPU-Limit, alles andere ist sinnlos [man testet Grafikkarten ja auch nicht auf einem Singlecore-Atom].

Warum verliert der i7 (prozentual!) mehr? Natürlich weil er in 800x600 mehr Fps als der FX erreicht und dann im GPU-Limit stärker ausgebremst wird :] Entweder hast du absolut keine Ahnung von dem was du schreibst oder du stellst es völlig bewusst so hin, als würde der i7 langsamer werden. Vermutlich ist letzteres der Fall und das ist mehr als traurig. Du versucht technisch nicht ganz so versierten Leuten somit einzureden, der i7 sei langsamer als der FX respektive weniger für zocken in höheren Auflösungen geeignet - das ist dreist. Davon ab ist der FX-8150 in einigen Spielen langsamer als in X6 1100T und erst recht hinter einem X4 980.

Er versteht schon sehr gut, er betreibt halt absichtlich Desinformation, wie üblich.

Übrigens, es gibt auch sowas wie Simulationen und Strategietitel. Da ist die CPU mitnichten egal. Civilization V ist sehr beliebt und trennt sie Spreu vom Weizen. Starcraft 2 in hitzigen Gefechten. Und es soll auch Leute geben, die mit VSync bei 60fps spielen wollen. Wenn die CPU dann diese 60fps nicht packt, ist das unschön. Sieht man bei einem Test im GPU-Limit natürlich nicht.

Wie ich immer sage:
Tests in niedrigen Auflösungen UND hohen Auflösungen. Alles weitere ist dem Leser überlassen, der muss nämlich mitdenken und die Ergebnisse korrekt interpretieren entsprechend seinen eigenen Anforderungen.
 
Zum sonstwievielten mal, nein, ist es nicht. Keine Ahnung, wo HT4U seine Daten herhat, die schauen für mich aber irgendwie durch den Wind aus. Deneb hat zB 12 Stufen (Integer), nicht 17. Was haben die also noch dazugerechnet? FP? Dann hätte Nehalem oder Sandy Bridge aber auch mehr als 16 Stufen. Laut Optimization Guide und bisherigen Infos sind es 15 Stufen (Integer) bei Bulldozer. Also 3 mehr als bisher. Ob man das jetzt als "deutlich verlängert" ansieht, liegt im Auge des Betrachters. Grundsätzlich liegt man damit aber im Bereich von Nehalem / SB und meilenweit entfernt von Netburst, wo es zum Schluss über 30 Stufen waren.

Was kann ich dafür wenn HT4U sowas in einem offiziellen Test angibt? *noahnung*
So hat man uns bestätigt, dass das ganze Design von Bulldozer auf einen hohen Takt ausgerichtet ist und deshalb auch die Pipeline gegenüber der Vorgängergeneration deutlich verlängert wurde.
Bisher ging man von einer 15-18 Stage Pipeline aus
K7 12 Stage Pipeline
Sandy 14 Stage Pipeline
Nehalem 16 Stage Pipeline
Deutlich verlängert hört sich nach 18 an ( 12 > 18 )
Da wurde mit langsamen DDR3 RAM getestet, das geht doch nicht mit nem DDR2 Kontroller:

http://www.amd.com/us/products/desktop/processors/amdfx/Pages/amdfx-model-number-comparison.aspx

Die Bandbreite ist auch falsch, das entspricht dort nur DDR3-1333 ... Dilettanten am Werk wohin man schaut ... :(
Wurde der ursprüngliche Bulldozer "Sandtiger" nicht mit DDR2/DDR3 Controller wie beim K10 entwickelt? Möglicherweise kann BD1 theoretisch auch noch DDR2 verwalten, evtl. hat man sich die Zeit gespart nochmal den Controller zu bearbeiten? *noahnung*
 
Habe mein neues system heute bestellt. Bei (nicht nur einem)Großhändler nach gelistetem FX8150(197€) gefragt sagte mir die Dame allerfrühestens in 14Tagen, ganz sicher nächsten Monat. Da hab ich mich doch glatt für den X6 1100T entschieden, die werden wohl bald teurer werden;-)
Die Asus EAH6950 DCII ist auch kaum lieferbar....

Ich warte auf BDv2
 
Was dauerte nochmal länger bei x264, Pass1 oder 2, bzw. was ist wichtiger?

ciao

Alex

Das Pass 1 ist der erste Durchlauf das wird das Bild analysiert und der Speicherbedarf ermittelt, um dann im zweiten Durchgang mit der ermittelten Datenrate zu Codieren, damit man eine definierte Dateigröße erreicht.
 
Hallo,

hat BD wirklich einen DDR2 Controller??

Dan könnte er in AM2+ theoretisch laufen, oder? ...
Vergiss es, selbst wenn es theoretisch integriert sein sollte - so wirds kein AM2/AM2+ Mainboard dafür geben. Es sei denn, AMD will den Bulldozer auf der Resterampe verramschen. Aber so weit sehe ich AMD noch nicht *buck*

MFG Bobo(2011)
 
Wenn man sich jetzt mal an die Fakten hält, gibt es

erstens eigentlich bereits Vermutungen/Äußerungen, warum die Performance (zumindest in Games) so unterirdisch ist? Zuwenig Takt? Fertigung? Architektur? Einfach nicht vorgesehen?

Und zweitens: Wird die Performance des BD im Serverbereich auch noch offenbart? Wäre ja doch interessant, zu erfahren, ob das Design dort durchschlägt.


PS: Bitte keine Erläuterungen, daß die Performance nicht unterirdisch ist.
 
Bezüglich DDR2-Controller:
Ich denke man darf von einem Tippfehler ausgehen ;)
 
Vergiss es, selbst wenn es theoretisch integriert sein sollte - so wirds kein AM2/AM2+ Mainboard dafür geben. Es sei denn, AMD will den Bulldozer auf der Resterampe verramschen. Aber so weit sehe ich AMD noch nicht *buck*

MFG Bobo(2011)

Na, da wäre ich mir nicht so sicher. Bestimmt macht Asrock noch die eine oder andere AM2 Platine Bulldozer-tauglich...
 
Noch ne "lustige" Sache, anscheinend gibts schon Abverkäufe bei den high-end Brettern, das Sabertooth nur noch für 129 Euro ... statt ~160:

Sehr ärgerlich ;p Ich stelle fest, damals kostete der 1090T um 120€ und der Säbelzahn 175,- Was habe ich zu der Zeit gekauft? Das FX B(r)ett für 175. Heute überlege ich, doch einen 1090T zu nehmen und der bewegt sich inzwischen auf 150 zu *lol*

Strafe muss sein.
 
Sehr ärgerlich ;p Ich stelle fest, damals kostete der 1090T um 120€ und der Säbelzahn 175,- Was habe ich zu der Zeit gekauft? Das FX B(r)ett für 175. Heute überlege ich, doch einen 1090T zu nehmen und der bewegt sich inzwischen auf 150 zu *lol*

Strafe muss sein.


Hey ich hab 180 für einen 1055T gekauft und 2 Monate später hatte die Revision meines Boardes auch EFI. Und Arbeitsspeicher wurde billiger.

Hätte ich 2 Monate gewartet hätte ich knapp 100 € gespart.
 
Mein Athlon II X4 muss noch etwas länger bei 3,6 GHz rennen...ich lass den BDver1 auch aus...sehr schade...
 
Spiele dienen wunderbar dazu, die Spieleleistung einer CPU im Vergleich zu messen
Schon klar. Mit was willst du auch sonst Spieleleistung messen? Ich sprach ja von CPU-Performance. Und dafür sind Spiele denkbar ungeeignet.

Warum verliert der i7 (prozentual!) mehr? Natürlich weil er in 800x600 mehr Fps als der FX erreicht und dann im GPU-Limit stärker ausgebremst wird
Habe ich in dem konkreten Fall etwa etwas anderes behauptet? Entweder du drehst dir in deinem verqueren Übereifer alles so hin wie du es brauchst oder du machst völlig bewusst immer ein Streitthema daraus. Vermutlich ist beides der Fall und das ist mehr als traurig.

Du versucht technisch nicht ganz so versierten Leuten somit einzureden, der i7 sei langsamer als der FX respektive weniger für zocken in höheren Auflösungen geeignet
Nein. Aber das zeigt wieder mal wunderbar, dass du Null vom dem verstehst bzw verstehen willst was ich sage. Und versuchst nun mir völlig andere Sachverhalte anzuhängen - das ist dreist. Nochmal zum Mitmeisseln für dich. Unterschiedliche Lasten erzeugen unterschiedliches Systemverhalten. Und das betrifft nicht nur CPU und GPU, die wiederum selbst in einem unterschiedlichen Verhältnis stehen können. Wer also glaubt, nur die CPU sei entscheidend, gibt sich Illusionen hin. Wenn die GPU zudem zum Flaschenhals wird, und das sollte immer das Ziel sein, um GPU-seitig kein Potenzial zu verschenken, dann wirst du keine grossen Unterschiede zwischen aktuellen CPUs sehen.


Kein Wunder dass der i7 mehr an Performance verliert. Bei niedriger Auflösung haut der soviele Berechnungen raus wie er kann. Und bei höheren Auflösungen ist das Limit der Graka dort erreicht, wo BD gar nicht erst hin kommt. Wenn BD low res genauso viele Daten schicken könnte, würde er auch genauso viel verlieren.
Nein, so einfach ist das eben nicht. Die "Berechnungen", die eine CPU pro Frame "raushaut", sind für die Framedauer (und damit letztendlich die FPS) nur bedingt entscheidend.

Schick einen Opa mit Krückstock und Laufschuhen los, dann läuft er mit 2 km/h. Schick einen Sprinter mit Laufschuhen los, dann erreicht der 30 km/h. Gibst du ihnen Taucherflossen, erreicht der Opa immer noch 2 km/h, aber der Sprinter schafft nur noch 5 km/h. Der Opa bleibt stabil und der Sprinter verliert unendlich viel.
Schlechtes Beispiel. Du setzt voraus, dass nur eine Komponente verschieden ist (Schuhe/Taucherflossen). Das hat mit Computersystemen allerdings wenig zu tun. Da gibt's wesentlich mehr Unterschiede.


Ich denke - hier geht es um Performance pro Watt - die soll so wie dargestellt steigen...
Dann hätte man aber wohl Performance pro Watt hingeschrieben und nicht nur Performance. Ich denke hier geht es um die architekturbedingte Performance. Das muss ja keine Gesamtperformance sein, sondern kann sich durch Takt und Kerne noch erhöhen.
 
Sehr ärgerlich ;p Ich stelle fest, damals kostete der 1090T um 120€ und der Säbelzahn 175,- Was habe ich zu der Zeit gekauft? Das FX B(r)ett für 175. Heute überlege ich, doch einen 1090T zu nehmen und der bewegt sich inzwischen auf 150 zu *lol*

Kurze Off topic Frage, welche Version / Typennummer steht auf der Rechnung / Verpackung, hast Du da noch was?

Da gibts anscheinend 2 Versionen, sehe aber keinen Unterschied:

G0AAY00Z und G0EAY00Z

http://shop.amd.com/DE/_layouts/shop/ProductDetails.aspx?productID=90-MIBFN0-G0EAY00Z&region=de-de

http://shop.amd.com/DE/_layouts/shop/ProductDetails.aspx?productID=90-MIBFN0-G0AAY00Z&region=de-de

Irgendwie merkwürdig. Vielleicht ne erste Version mit nem alten BIOS?

Auf der Asus Seite gibts dazu natürlich nix. Urano hat beide im Angebot, 1 Euro Preisunterschied:
http://www.urano-shop.de/Shop/DE/Product/List/2165/-/ASUS+SABERTOOTH+990FX/-/-/1/0/2/0/-1/-1/-/True

Sehr komisch irgendwie. *noahnung*

Vielleicht das eine mit 5 Jahren Garantie, das andere nicht?

P.S: Wer mit dem Brett doch BD ausprobieren will, neuestes BIOS von gestern ist auf dem ftp:
ftp://ftp.asus.com.tw/PUB/ASUS/mb/SocketAM3+/SABERTOOTH_990FX/

Aber ohne BD sollte mans wohl bleiben lassen mit den komischen Optimierungsgerüchten bei denen ein K10 dann irgendwie schlechter läuft.
 
Zuletzt bearbeitet:
gruffi.

schaumal links auf der folie. da steht performance per watt.

die zusätzliche performance nennung bezieht sich auf piledriver.
 
AMD muss wohl bald ein neues Stepping bringen, wenn bereits im BIOS and Kernel Developer's Guide auf Seite 27 was von OR-B3 steht !


unbenannt49ee.png



Quelle : AMDs BKDG für Fam 15h Mdl 0-F - Seite 27
 
Zuletzt bearbeitet:
Der FX8170 wird wahrscheinlich das B3 Stepping haben, vielleicht gibt es dann auch mehr OC Potential.
 
AMD muss wohl bald ein neues Stepping bringen, wenn bereits im BIOS and Kernel Developer's Guide auf Seite 27 bereits was von OR-B3 steht !

Quelle : AMDs BKDG für Fam 15h Mdl 0-F - Seite 27

Lol, wenn das da steht, kommts natürlich garantiert ;-)

Danke für die Info. Hatte eigentlich gehofft, es kommt gleich C0, aber naja.

Ich hoff jetzt nur nicht, dass das schon die letzte Version für AM3+ ist ^^

Aja noch wegen der Sabertooth OT Geschichte von oben:
Hab jetzt nen Sammelthread dafür erstellt. Weitere Diskussionen bitte dort:
http://www.planet3dnow.de/vbulletin/showthread.php?p=4507019#post4507019

ciao

Alex
 
gruffi schrieb:
Habe ich in dem konkreten Fall etwa etwas anderes behauptet?
jup
gruffi schrieb:
Wenn die CPU entscheidend sein soll, sollte die Skalierung dann nicht ähnlich sein?
So wie du es ausdrückst, müsste das System mit der schnelleren CPU in GPU limitierten Szenen immernoch schneller sein, als ein System mit langsamer CPU (Die Skalierung sollte ja deiner These gemäß ähnlich/gleich sein...). Wie du bemerkt hast, ist es dies aber nicht, ergo hast du einen Denkfehler in deiner Argumentation ;)
Das eine Mal bremst die CPU das System auf einen Wert X, das andere Mal die GPU auf einen Wert Y. Wenn jetzt die CPUs unterschiedlich leistungsfähig sind, dann sind naturgemäß auch die absoluten Differenzen und damit die Skalierungs-Werte unterschiedlich. Der Wert Y bleibt ja jedes Mal gleich, der Wert X verändert sich aber...
Also die Skalierung zwischen CPU und GPU lastigen Szenarien kann! bei unterschiedlich leistungsfähigen Prozessoren gar nicht gleich/ähnlich sein.
 
Leider ist die Fehlerliste auch wieder sehr lang ....

siehe Rev. Guide
 
Hier ein ganz interessanter Test Bulldozer im Zusammenhang Battlefield3 beta..

http://www.hardocp.com/article/2011/10/11/amd_bulldozer_fx8150_gameplay_performance_review/1

Fraglich, wie seriös das ist..

Ich finde die Fazits von HardOCP insgesamt recht treffend. Vor allem auch, daß sie den OC Stromverbrauch plastisch dargelegt haben.

Allerdings das Hitlervideo ist gut. Sonst gingen mir die dubs dieser Szene ziemlich auf den Senkel, aber hier muss ich doch lachen ;D
 
Leider ist die Fehlerliste auch wieder sehr lang ....

siehe Rev. Guide

Lustige Liste ... kein einziger Bug wird gefixt. Wozu dann B3 ... *lol*

Apropos B3. Wenn das sowieso kommt, hätten sie B2 echt im Serversegment lassen können. Noch ein paar Monate mehr sind nun auch schon egal ^^
Wobei, wenns leistungstechnisch nicht viel bringt, wer das Schreien noch größer, allerdings meinte ja mal ne UK Quelle, dass das B3 "ganz toll" wäre ... merkwürdig.
 
Zuletzt bearbeitet:
Battlefield3 soll wie der Vorgänger bekanntlich gut mit vielen Kernen umgehen können, daher hat es mich etwas verwundert das es bei den meisten Tests mit berücksichtigt wurde,
das war beim X6 auch schon so, daß BFBC z.B von CB nicht gebencht wurde obwohl es zu der Zeit der meistgespiele Multiplayer Shooter war.

Was beim HardOCP Artikel jedoch auffällt ist, dass die beiden Intel CPU mit OC sogar langsamer werden, da kann doch was nicht stimmen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten