Bulldozer rollt an....

Status
Für weitere Antworten geschlossen.
Der Turbo ist afaik der maximale, also nicht der für alle Module.
 
3dCenter hat einen neuen Artikel veröffentlicht, nach dem Sisoft offenbar versehentlich interne Testergebnisse vom Bulldozer online gestellt hat. Es wird am Ende darauf hingewiesen, dass die schlechte Performance evtl. durch Beschränkungen der Test-Samples zu erklären ist und dass es einige Ungereimtheiten bezüglich der verglichenen Modelle gibt. Aber sollte das Performance/Watt-Verhältnis Sandy Bridge wirklich so hinterher hinken, wie die Tests suggerieren, wäre es enttäuschend.
 
Dieser "Test" wurde hier schon behandelt. Schade dass 3dcenter nicht darauf eingeht, dass sämtliche Ergebnisse aus einem älteren Test entnommen sind, bei dem der Turbo dauer-aktiviert ist und mit einem Nehalem verglichen wird.
 
Warum sollte es jetzt plötzlich anders sein.
Derjenige, der auf ein Hochtaktdesign setzen wollte, der hat schlichtweg die Lektion des Lottospielens nicht gelernt.
Seit Februar 2004 steht der Fertigungsprozess und der dazugehörige Takt für standard Wald und Wiesen Prozessoren bei unter 4GHz.
Im Februar 2004 wurde der erste Prescott mit 3,2GHz ausgeliefert.
Man kann es absolut knicken in den nächsten zwei Jahren einen Serienprozessor mit 4,5GHz kaufen zu können.
Und die AMD-Inegnieure wollten das aber nicht glauben und jetzt müssen sie die Suppe auslöffeln.
Ich tippe darauf, dass BDVer2 schon wieder etwas breiter wird, aber das was wir heute sehen liegt einfach daran, dass man in 2007 damit gerechnet hat, dass man in 2011 einen Prozessor mit 4,5-5GHz fertigen kann, was einfach nicht der Fall ist.

Hochtakt-Designs :]
Ich habe damals schon in Diskussionen rugenölt, dass es nicht schön ist sich an ein Hochtaktdesign ranzutrauen und jetzt felht der Takt.
Der Stromverbrauch im Verhältnis zum Takt verhält sich nunmal quadratisch.
 
Hallo zusammen,

ich würde das Pferd mal anders aufzeumen.
Stichwart Turbo und Cores, wenn ich eine Prozessor "Hirachie" erstelle dann mache ich das so das die kleinen 4 Cores zb. nicht dem Großen 8 Kernern ständig auf dem Hacken stehen, ergo ich splitte die Turbo so auf das auch in weniger Multicore freundlichen Applikationen ein Unterscheid bleibt.
Bsp. aus den Ph2 zeiten X3 Vs X4 warum wohl war der X3 nie so hoch getacktet wie die X4 weil er den X4 sonst zu oft die Show gestohlen hätte. Das mit dem TDP ist gemessen an dem was wir wissen doch auch erklärbar, wenn der 41XX wie vermutet auch "teildefekte" 4Module Bulli sein könnten, dann bleibt die TDP da auch etwas höher.

lg
 
Leistungsaufnahme steigt linear mit dem Takt, quadratish mit der Spannung. Noch nie was on Elektrotechnik gehört?

mfg memory_stick
 
Die HD 6950 ist auch "teilkastriert" und bietet mit die beste Leistung pro Watt. Die HD 5830 leidet schlicht unter dem hohen Takt und dies scheint auch beim FX-4170 der Fall zu sein.
Ok, ich hätte es anders formulieren sollen, stark teilkastrierte Chips. War mir eigentlich schon klar, dass du genau das Argument bringen würdest. Hatte aber irgendwie keine Lust, meinen Beitrag nochmal zu ändern. Bei der HD 6950 wurden nicht mal 10% der SPs deaktiviert. Sowas bauen andere auch schon mal als Reserve ein, siehe IBM. IIRC hatte der RV770 auch eine solche Reserve. Bei der HD 5830 wurden dagegen 30% der SPs kastriert, also fast ein Drittel. Das ist nochmal eine ganz andere Grössenordnung. Und von welchem hohen Takt sprichst du? Die HD 5830 hat den gleichen Takt wie die HD 6950. HD 5770 und HD 5870 haben einen noch höheren Takt und sind trotzdem vergleichsweise sparsam. Wie man sehen kann hat das also nichts mit dem Takt zu tun. Wie soll das auch gehen? Die Leistungsaufnahme steigt mit dem Takt linear. Da gibt's nicht plötzlich sprunghafte Anstiege. Wie schon gesagt wurde, man sollte eher bei der Spannung ansetzen. Bei dieser "Ausschussware" liegt die Spannung durchschnittlich meist höher.


Derjenige, der auf ein Hochtaktdesign setzen wollte, der hat schlichtweg die Lektion des Lottospielens nicht gelernt.
Nur weil Intel mit Netburst Mist gebaut hat, heisst das nicht, dass es andere auch machen. Siehe IBMs Power6.

Hochtakt-Designs :]
Ich habe damals schon in Diskussionen rugenölt, dass es nicht schön ist sich an ein Hochtaktdesign ranzutrauen und jetzt felht der Takt.
Bulldozer ist kein Hochtaktdesign. Hört doch endlich mal auf, diese ollen Märchen weiter zu verbreiten. :] Bulldozer ist ein Durchsatzdesign.
 
Zuletzt bearbeitet:
Hi

alleine schon um mögliche ausreisser abzudecken, in teildefekten umfeld wird die Spannung da konservativer gewählt. Nur wo ist den das problem? wenn der nun real bei 95watt steht und ne
125Watt TDP bekommt ist das doch relativ schnuppe.

lg
 
Warum sollte es jetzt plötzlich anders sein.
Derjenige, der auf ein Hochtaktdesign setzen wollte, der hat schlichtweg die Lektion des Lottospielens nicht gelernt.
Seit Februar 2004 steht der Fertigungsprozess und der dazugehörige Takt für standard Wald und Wiesen Prozessoren bei unter 4GHz.
Im Februar 2004 wurde der erste Prescott mit 3,2GHz ausgeliefert.
Man kann es absolut knicken in den nächsten zwei Jahren einen Serienprozessor mit 4,5GHz kaufen zu können.
Und die AMD-Inegnieure wollten das aber nicht glauben und jetzt müssen sie die Suppe auslöffeln.
Ich tippe darauf, dass BDVer2 schon wieder etwas breiter wird, aber das was wir heute sehen liegt einfach daran, dass man in 2007 damit gerechnet hat, dass man in 2011 einen Prozessor mit 4,5-5GHz fertigen kann, was einfach nicht der Fall ist.

Hochtakt-Designs :]
Ich habe damals schon in Diskussionen rugenölt, dass es nicht schön ist sich an ein Hochtaktdesign ranzutrauen und jetzt felht der Takt.
Der Stromverbrauch im Verhältnis zum Takt verhält sich nunmal quadratisch.

Einspruch euer Ehren!
Mit dem selben Argument hätte man nie die Ghz-Marke knacken können wenn nach mehreren Jahren immernoch keine Fortschritte in der Fertigung zu verzeichnen sind, dass man die Takte deutlich anheben kann.
Also die schlichte Tatsaceh dass man 2004 in 65nm das noch nicht konnte, impliziert keineswegs dass das 2 fullnodes später ebenfalls noch nicht geht. *noahnung*
Ausserdem, wir haben spekuliert das BD nach einem Hochtakt-Design aussieht, die Bestätigung dafür steht noch aus.
 
Hab doch gar nirgendwo bezweifelt, dass es über 4,2GHz offensichtlich schwierig wird. Man wird schlicht und ergreifend hohe Spannungen (1,35-1,4V?) brauchen, was immer bei 125W TDP (nicht Realleistungsaufnahme, die kann auch bei 96W liegen wohlgemerkt) landen wird, egal, ob jetzt 2, 3 oder 4 Module. Und sicherlich sind 100MHz mehr fürn Arsch (auf deutsch gesagt). Mir lag es auch fern, dir da was zu unterstellen. Das war nur meine Meinung zu dem Chip, sonst nix.
Kann ja sein, dass ein Modul auf 4,3GHz geht - es wäre ja selbst egal, wenn es auf 4,5GHz gehen würde ;). Aber mit Turbo verkauft sich nunmal besser als ohne, so einfach ist das ;). Das Marketingargument ist der Turbo an sich, nicht der hohe Takt.

MMn ist Rev.C eh Piledriver (rein spekulativ, ums mal ganz klar zu machen), also ein Orochi Rev.C mit Piledriver-Kernen und das wird nix vor Frühjahr, eher Frühsommer. Von daher glaube ich nicht mehr an eine relativ zeitige Rev.C. Aber einen B3 wird sicherlich noch geben zwischendurch. vllt. wird auch der Release schon B3, weil im B2 der Prefetcher kaputt ist ;D (jetzt wird wild).
 
Zuletzt bearbeitet:
Natürlich, mir ging es nur darum aufzuzeigen dass 2,4 % turboaufschlag bei 50% weniger kernen nicht wirklich als Skalierung betrachtet werden kann.
Ein Indiz dass hier nicht unmittelbar die TDP den Turbotakt begrenzt, sondern das Design/Eigenheiten der Fertigung
 
hi, wann soll der bulldozer amd3 denn kommen? oktober??
 
Natürlich, mir ging es nur darum aufzuzeigen dass 2,4 % turboaufschlag bei 50% weniger kernen nicht wirklich als Skalierung betrachtet werden kann.
Ein Indiz dass hier nicht unmittelbar die TDP den Turbotakt begrenzt, sondern das Design/Eigenheiten der Fertigung

Interessant wirds aus meiener Sicht erst, wenn aus irgendwelchen Gründen - ähnlich wie damals bei der ersten Generation des Nehalem - für den Miniaufschlag des Turbo Modus die VCore des Chips angehoben werden muss und dann der Stromverbrauch affig ansteigt - wegen 2,34% Mehrtakt ;D

Daher auch meine Frage ob man den Turbo nicht einfach biosseitig deaktivieren kann..Ich meine alleine ein Referenztaktanhebung im Rahmen der Messtoleranz (manche Boards laufen ja vom Hersteller schon bei 200.9 als Beispiel - hat bei Multiplikator 22 und so auch schon einen ähnmlichen Effekt mit 1,8% Mehrtakt *lol*

Naja - wie auch immer. Wenn man bedenkt, dass 4.0 Ghz in 65nm noch Extremoverclockingbereich waren und nur wenige hundert Menschen weltweit diesen Takt je bei einem 65nm Athlon/Phenom I/Sempron, etc. zu Gesicht bekommen haben, dann ist das schon OK wenn BD so hoch takten kann...

Von einem prinzipiellen Hochtaktdesign würde ich jetzt aber auch nicht sprechen wollen, dann wäre K10 mit 3,7 Ghz beim 980BE ja auch ein Hochtaktdesign (was man angesichts der 2,4 Ghz des B2 Steppings in 65nm wohl eher nicht vermuten würde ..)

@Opteron korrigiere mich bitte wenn ich beim Stepping wieder einen Verwechsler drinnen haben sollte ;)

Also auf Bulli gespannt bin wie ein Flitzebogen. Wenn der gut mit Kälte skaliert dann kenne ich mein Hobby für 2012 ...Auf 8Ghz unter Extremkühlung hoff ;D

MfG
.
EDIT :
.

hi, wann soll der bulldozer amd3 denn kommen? oktober??

Mein Stand war Paperlaunch im September, verfügbarkeit im Oktober, und "Ausmerzung" von Kinderkrankheiten mit etwas Glück noch vor Weihnachten - :)

MfG
 
Um welches Sicherheitsupdate soll es sich hierbei handeln? Kannst du das bitte mal verlinken?

Also es gibt sehr viele Kernel-Updates bei 7 / 2008r2

Wer 7sp1 hat kann es doch selbst mal vergleichen:
Explorer nach -> ?:\windows\system32 öffnen ( ? = c, d, ....)
Dateieigenschaften von ntoskrnl.exe anguggn was da bei Dateiversion steht:

Es sollte größergleich 6.1.7601.17640 (GDR) bzw. 6.1.7601.21755 (LDR) sein !!!
Patch zb http://support.microsoft.com/kb/2556532 ( 11-068 )

Mit diesem Stand sind auch Kinderkrankheiten bei mehr als 64 "Kernen" ein wenig behoben - immerhin kommen bald große 10Modul/20Fred Bulldozer - aufm Quadboard immerhin 80 Freds...
 
Zuletzt bearbeitet:
Nur weil Intel mit Netburst Mist gebaut hat, heisst das nicht, dass es andere auch machen. Siehe IBMs Power6.
Hast du gesehen, wie schlank schlank ein Power6 war? Der ist In-Order.
Das ist so als würde man einen Atom auf 5Ghz hochjubeln.

@Starrlight
Vielleicht kommt jetzt dann wirklich endlich mal die integrierte Wasserkühlung in die Workstations. Bei den Grafikkarten hat man ja auch schon Designs, die real 200Watt verbraten, warum dann nicht auch bei den Prozessoren.

Ich sehe es so, dass ein Interlagos (8Module, 16Threads) mit 2,6GHz deutlich mehr Durchsatz haben wird bei einer TDP von 125W als ein ein 4Modul 8Thread BD bei 3,8Ghz und 125W TDP.

Man wird den Desktop nicht zurückerobern, vielleicht aber Teile des Servermarktes.
Schade.

Und das meine ich mit Hochtakt-Design. Intel setzt von Conroe auf Nehalem auf Sandy Bridge auf eine gesteigerte "Overall-IPC". Und AMD-Fuzzis wollen mir auch gerade diesen schönen Begriff schwindelig reden.
Es ist erlaubt und gewünscht unterschiedliche Architekturen bei gleichem Takt zu Benchen und danach zu sagen - diese Architektur ist pro Takt besser in diesen Fällen und diese Architektur ist besser in diesen Fällen.

Man kriegt ja dann auch ein gespür für die Architektur - heute mit dem Turbo ist doch eh alles nur noch wischi waschi. Takt auf 2,6GHz festnageln und IPC austesten - fertig.
 
Die wollen doch garnicht dass du ein Gespür für die Arschitektur kriegst, sondern dass du ihr Produkt kaufst weil das was hinten rauskommt dir zusagt.
Ob sie das erreichen durch hohe IPC oder ob sie das mit rohem Takt schaffen kann dir als Kunde relativ egal sein wenn die Leistung und der Stromverbrauch dafür stimmen...
"Overall-IPC" ist nichts anderes als eine schöne Umschreibung für einen Schnelleren Chip bei Wald und Wiesen Code.
Man könnte auch anfangen das noch auseinander zu pflücken und von INT und FP-IPC zu reden, oder IPC bei Cachelastigen oder I/O-Limitierten Codestücken.
Wie wird die IPC erreicht? Prefetching? - Branch Prediction? - Intelligentes Decoding und Scheduling?
Als potenziellen Kunden (Und immerhin haben Marketing-Fuzzis das gesagt) kann es dir wurscht sein ob CPU xyz 2Ghz hat, oder nur ein drittel der IPC aber dafür 6Ghz... *noahnung*
Solange am Ende das selbe auf der Stromrechnung steht, und die Leistung die rauskommt die gleiche ist, interessiert der Weg dahin fast niemanden... ausser uns.
BDs Pipeline ist länger als die von K10, sicher. Aber das war die von Nehalem auch, und der war deswegen noch nicht per Se ein "Hochtakt Design"...
Also haben beide Seiten irgendwie recht...
JF hat mit dem Argument dahingehend recht, dass die IPC fürs Endprodukt irrelevant ist, wenn sie als alleinige Kenngröße betrachtet wird.
Andererseits ist die IPC aber auch nicht völlig egal, da es eben doch einige Leute interessiert wie der Chip aufgebaut ist und es beim Takt nunmal Grenzen gibt (bei der IPC allerdings auch...)

Schade dass wir nie erfahren werden welche Gedanken die Ingineure dazu bewogen haben BD so zu entwerfen wie er jetzt ist... Sowas fände ich hochgradig interessant. Welche Überlegeungen führen zu einer so direkten Abkehr von K10 und von den üblichen Pfaden (3-issue usw.)...
 
Ich frage mich ob dieser Post von JF eine Relevanz hat(in Bezug auf die Probleme die es gerüchteweise geben soll und die Performance beeinträchtigen könnten):


Originally Posted by Jaaanosik
Is MS going to prepare module aware OS for AMD?
Is this one of the issues that don't allow BD to be used to its full potential?

JF-AMD

No, that is not necessary. What is important is that we support SSSE3, SSE4.1, SSE4.2, AVX, XOP, AES-NI, etc.

Not updating to reflect these is where the impact will be not the modules.
http://semiaccurate.com/forums/showpost.php?p=132404&postcount=848

JF lässt hier ja relativ deutig anklingen, dass die von BD unterstützten Befehlssätze vom OS oder sonstigen Programmen nicht erkannt werden.
 
Es ist erlaubt und gewünscht unterschiedliche Architekturen bei gleichem Takt zu Benchen und danach zu sagen - diese Architektur ist pro Takt besser in diesen Fällen und diese Architektur ist besser in diesen Fällen.
Man kriegt ja dann auch ein gespür für die Architektur - heute mit dem Turbo ist doch eh alles nur noch wischi waschi. Takt auf 2,6GHz festnageln und IPC austesten - fertig.

Ne ziemlich dofe Aussage, da kommt dann hinten Erdbereis mit caramelsauce raus.
Mehr nicht, vorallem wenn dann die tatsächliche Takteunterschied im Endprodukt grösser ist als der Leistungsunterschied bei gleichem Takt. IPC interessiert kein vernünftiger Mensch, was bei den verwendeten Programmen hinten rauskommt hingegen schon.
 
[....]

@Starrlight
Vielleicht kommt jetzt dann wirklich endlich mal die integrierte Wasserkühlung in die Workstations. Bei den Grafikkarten hat man ja auch schon Designs, die real 200Watt verbraten, warum dann nicht auch bei den Prozessoren.

Ich sehe es so, dass ein Interlagos (8Module, 16Threads) mit 2,6GHz deutlich mehr Durchsatz haben wird bei einer TDP von 125W als ein ein 4Modul 8Thread BD bei 3,8Ghz und 125W TDP.

Man wird den Desktop nicht zurückerobern, vielleicht aber Teile des Servermarktes.
Schade.

Und das meine ich mit Hochtakt-Design. Intel setzt von Conroe auf Nehalem auf Sandy Bridge auf eine gesteigerte "Overall-IPC". Und AMD-Fuzzis wollen mir auch gerade diesen schönen Begriff schwindelig reden.
Es ist erlaubt und gewünscht unterschiedliche Architekturen bei gleichem Takt zu Benchen und danach zu sagen - diese Architektur ist pro Takt besser in diesen Fällen und diese Architektur ist besser in diesen Fällen.

Man kriegt ja dann auch ein gespür für die Architektur - heute mit dem Turbo ist doch eh alles nur noch wischi waschi. Takt auf 2,6GHz festnageln und IPC austesten - fertig.

Ja, das hast du anscheinend Recht..Das Konzept ist insgesamt durchaus kritikwürdig - hat aber auch interessante Möglichkeiten...Es sind einfach verschiedene Ansätze...

Ich habe den Eindruck als ob man den Weg geht (oder gehen wollte) den Ati seit Einführung der Radeon 2xxx Reihe auch gegangen ist..Nämlich die Packdichte erhöhen, Silizium einzusparen und damit einfach mehr Cores (Streeamprozessoren) auf eine Fläche bekommen. (VLIW Shader)
Das ist dann der "Serveransatz"....
Danach dann die Architektur weiter auf IPC optimieren wenn das "Grundgerüst" steht. Auf die Art und Weisse hatte ATI ja guten Erfolg...Aber die Rechnung wird so wahrscheinlich nicht aufgehen....... Man muss aber schon auch sagen dass INtels wesentlicher Vorteil jetzt nicht die Architektur als solche war /ist - sondern eben auch der Vorteil bei der Chipfertigung. Das Wichtigste an der ganzen Sache ist aus meiner Sciht also das GlobalFoundries einen Top 32nm Prozess zeitnah hinbekommgt der hohe Yieldrates abwirft und hiohe Takte bei niedrigem Stromverbrauch ermöglicht..Das kann aus meiner Sicht IPC Unterschiede bis zu 25% ohne weiteres kompensieren - bzw. lässt sich das dann auch gut über den Preis regeln..


Aus reiner Performancesicht und für Server kann man dann auch große Dies backen (wenn die Yieldrates hoch sind) oder eben zwei Dies zusammenkleben..
Also da gibt es viele Variablen und ich würde da JF schon auch zustimmen, dass IPC nincht alles ist. Ich habe aus dem grund auch einen Bogen um Sandy Bridge Quadcores gemacht und mir einen Hexcore Nehalem geklauft - der zwasr einen Tick langsamer in der IPC ist - dafür aber 50% mehr Threads bietet und mehr Cache hat - somit eben auch schon bei niedrigerem Takt mehr Performance bietet und dadurch effizient ist.. hab ich irgendwie mehr von *noahnung* (vorausgesetzt die IPC ist nicht unterirdisch) Hintergedanke ist, dass ich viele Terrabyte Videos encodieren möchte und da lohnt sich das...(mal abgeshen vom Spasseffekt und OC ;-) )

Sehe das also so ähnlich wie du...;)
Ok, vielleicht ist es sinnvoller die IPC mit dem direkten Vorgänger des Bulldozer zu vergleichen - also dem Phenom II

MfG
 
Zuletzt bearbeitet:
Die wollen doch garnicht dass du ein Gespür für die Arschitektur kriegst, sondern dass du ihr Produkt kaufst weil das was hinten rauskommt dir zusagt.
Ob sie das erreichen durch hohe IPC oder ob sie das mit rohem Takt schaffen kann dir als Kunde relativ egal sein wenn die Leistung und der Stromverbrauch dafür stimmen...
"Overall-IPC" ist nichts anderes als eine schöne Umschreibung für einen Schnelleren Chip bei Wald und Wiesen Code.
Man könnte auch anfangen das noch auseinander zu pflücken und von INT und FP-IPC zu reden, oder IPC bei Cachelastigen oder I/O-Limitierten Codestücken.
Wie wird die IPC erreicht? Prefetching? - Branch Prediction? - Intelligentes Decoding und Scheduling?
Als potenziellen Kunden (Und immerhin haben Marketing-Fuzzis das gesagt) kann es dir wurscht sein ob CPU xyz 2Ghz hat, oder nur ein drittel der IPC aber dafür 6Ghz... *noahnung*
Solange am Ende das selbe auf der Stromrechnung steht, und die Leistung die rauskommt die gleiche ist, interessiert der Weg dahin fast niemanden... ausser uns.
BDs Pipeline ist länger als die von K10, sicher. Aber das war die von Nehalem auch, und der war deswegen noch nicht per Se ein "Hochtakt Design"...
Also haben beide Seiten irgendwie recht...
JF hat mit dem Argument dahingehend recht, dass die IPC fürs Endprodukt irrelevant ist, wenn sie als alleinige Kenngröße betrachtet wird.
Andererseits ist die IPC aber auch nicht völlig egal, da es eben doch einige Leute interessiert wie der Chip aufgebaut ist und es beim Takt nunmal Grenzen gibt (bei der IPC allerdings auch...)

Schade dass wir nie erfahren werden welche Gedanken die Ingineure dazu bewogen haben BD so zu entwerfen wie er jetzt ist... Sowas fände ich hochgradig interessant. Welche Überlegeungen führen zu einer so direkten Abkehr von K10 und von den üblichen Pfaden (3-issue usw.)...

Ich finde nicht, dass beide Seiten Recht haben. IPC heißt maximaler Befehlsdurchsatz eines Kerns (nichts weiter!) unter Berücksichtigung von Thread und Takt (!). Das ist z.B. für Spiele, aber auch für viele andere Desktop-Sachen vollständig irrelevant, weil es hier mehr um Datenlatenzen und Threadsynchronisationen geht...
IPC wird oft benutzt um den Prozessordurchsatz zu beschreiben, den subjektiven natürlich. Das ist aber genau das, was IPC nicht ist! Ich kann schon gut verstehen, dass JF der Kragen platzt, bei den Schwachsinnsposts, die mit IPC um sich werfen... .

Das Konzept zum Moduldesign besteht ja wohl offenbar schon seit K7-Zeiten. Es wurd einfach Zeit dafür, weil ja jetzt doch sehr viel über Multithreading gesprochen wird. MMn hat Fusion was damit zu tun, dass BD so ist wie er ist. Die Zentralisierung der FPU lässt einen da aufhorchen finde ich.
 
Zuletzt bearbeitet:
Nach der Liste sind bei den 4-kernern alle Turbos mehr oder midner witzlos.
Von 3,9 Ghz auf 4,1 ist auch irgendwie ohne sinn...
2 Module = 3,9Ghz und wenn ein Modul schläft (also nur 50% der transistoren an der Leitung nuckeln) dann macht das nur 200Mhz Spielraum aus? *noahnung*
.
EDIT :
.



Der witz daran ist, dass ein 8-kerner, kaum sehr viel langsamer getaktet in der selben TDP-Klasse zu haben ist.
Der hat aber +100% Kerne.
Also was genau veranlasst die 2-Moduler dann dazu derart zu saufen? *noahnung*
Sind wohl schlechte Dice mit sehr hoher Spannung? ???
Der Turbo ist so klein, das wird wohl CoolSpeed sein, TurboCORE 2.0 wird nicht erwähnt.
Somit steht es offen, wieviel die FX4170 maximal mit nur 50% der Kerne takten. ;)

MfG
 
hehe, dann müßte aber auch der 8150 die 4,2 ghz als coolspeed haben ;)

in einer tabelle werden wohl kaum verschiedene obergrenzen angegeben.
 
was genau veranlasst die 2-Moduler dann dazu derart zu saufen?

Ich bin gespannt ob Du etwas genauer ausführen kannst was Du unter "derart" verstehst.

65W? 85W? 95W? Wieviel saufen die 2 Moduler?

Und wenn Du jetzt die TDP nennst dann sollen Dich 6 Wochen Dünnschiß ohne Klopapier heimsuchen.
 
hehe, dann müßte aber auch der 8150 die 4,2 ghz als coolspeed haben ;)

in einer tabelle werden wohl kaum verschiedene obergrenzen angegeben.


hi das ist so nicht gesagt, man könnte das schon bei den kleineren modulen eingrenzen.

lg
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten