Artikel Neuer Artikel: AMD FX - Die Zweite...

MusicIsMyLife

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.02.2002
Beiträge
15.579
Renomée
2.567
Standort
in der Nähe von Cottbus
  • QMC Race
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • BOINC Pentathlon 2020
<center><a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=4537045" target="_blank"><img src="http://www.planet3dnow.de/photoplog/file.php?n=16821&w=o" alt="Titelbild zum AMD FX - Codename Bulldozer" border="1"></a></center><br><br>Am 12. Oktober dieses Jahres stellte AMD die langersehnte Neuerung im Prozessor-Segment vor: Die FX-Prozessoren, basierend auf der Bulldozer-Architektur. An den neuen CPUs scheiden sich die Geister. Die Einen finden ihn einen großartigen Schritt nach vorn, da sein Konzept neu und in die Zukunft gerichtet ist und sich bei Verwendung der richten Software jede Konkurrenz fürchten muss. Die Anderen hingegen empfinden ihn als langsam, an der aktuellen Situation vorbeientwickelt und einen Schritt zurück. Auch im Fazit unseres Launch-Reviews fiel es uns nicht leicht, ein paar abschließende Sätze zum ersten Auftritt der neuen Technik-Generation zu finden.<br><br>Nach dem Launch am 12. Oktober haben wir uns verschiedene Reviews angesehen, viele Kommentare gelesen und natürlich weitere Tests durchgeführt, deren Ergebnisse wir in das heutige Review einfließen ließen.<br><br><b>zum Artikel:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=4537045" target="_blank">AMD FX - Die Zweite...</a><br><br>Viel Vergnügen beim Lesen!
 
vielen Dank Musik_
Wie gewohnt erstklassig recherchiert und getestet! Graz!
Was die Boards betrifft, könnte man sagen, dass das GB UD7 noch einen Tick geeigneter zu sein scheint für den BD, oder?:w_grins:
 
Was die Boards betrifft, könnte man sagen, dass das GB UD7 noch einen Tick geeigneter zu sein scheint für den BD, oder?:w_grins:

Soweit würde ich noch nicht gehen.

Aus Performance-Sicht ist es geeigneter, wenn man mit aktiviertem Turbo-Modus arbeitet. Wird dieser deaktiviert, so ist das UD7 im Prinzip gleich schnell bzw. manchmal einen Tick langsamer. Ist aber alles im Rahmen winziger Unterschiede.

Das UD7 hat aber noch ein paar Sachen, die ihm fehlen:

1. Eine Option zur LoadLine-Calibration.
2. Eine Option zur selektiven Abschaltung von Cores/Modulen.
3. Eine Option für DDR3-2133.

Das alles fehlt meiner Meinung nach (zumindest bis BIOS F6, mittlerweile gibt es ein neues Beta), weshalb es für OC noch nicht ganz ideal geeignet ist. Aber das werden wir insgesamt in einem Mainboard-Review sehen.
 
Mich würde ferner nochmal interessieren, wie die CPU z.B. auf einem ASrock 880G Pro abschneidet. Im Übrigen vielen Dank für das Review!
 
Vielen Dank für den informativen Test.

So schlecht sieht das gar nicht aus.

lg
Mike
 
410W ohne GPU Last ist mal ne Ansage dafür kann man 2-3 "Normale" Rechner mit Boinc Quälen.
 
Irgendwie muss man ja die restlichen Atomkraftwerke zum kollabieren bringen! *boinc einschalt*

;D
 
Mich würde nur mal interessieren, warum bei höhereren Auflösungen in manchen Spielen die FPS bei Intel sinken, bei AMD aber ansteigen?
 
Bäm! 410 Watt ohne Graka. Das mal ne Nummer. OK auch wenn im OC, aber das mal gesalzen. Da bei mir ein neues System ansteht, werde ich den X6 nehmen oder den i5/7. Auf BD2 kann ich leider nicht warten :]

Super Test! Danke!
 
Hm die hohen Leckströme könnten meine Verschwörungs-Theorie erhärten, dass BD ursprünglich ein ULK-Design war... Damit wird auch klar, warum die Ausbeute von hochgetakteten 8-Kernern und deren Verfügbarkeit beschissen ist, sie brauchen größtenteils einfach zuviel Saft.
Immerhin wird deutlich, dass Spiele von dem Win7-Patch evtl nicht unwesentlich profitieren könnten. 10% sind da sicher drin bei den Programmen die auf BD besonders langsam laufen, was den Prozessor doch enorm aufwerten dürfte. Natürlich ist Zambezi auch im optimierten Zustand nichtmal ansatzweise eine Konkurrenz für SB mit HT.
 
Zuletzt bearbeitet:
Was ist bitte ein ULK-Design? *noahnung* Sagt mir grade nischt.

mfg
 
Natürlich ist Zambezi auch im optimierten Zustand nichtmal ansatzweise eine Konkurrenz für SB mit HT.

In der Breite sicher nicht. Bei der ca. der Hälfte der getesteten Benchmarks schneidet er ganz ordentlich ab. Allerding sehe ich mehr Potential als bei Intel.
 
@Music
Danke für den guten Artikel, vor allem das mit den Leckstömen finde ich sehr interessant! ;)

Wäre zwar schön wenn es auch dabei gewesen wäre, allerdings ist das mit der Reproduzierbarkeit nicht so einfach.
Früher gab es noch einen 3D Mark Lauf wo die kWh ermittelt wurden, das fehlt heute leider.

Hm die hohen Leckströme könnten meine Verschwörungs-Theorie erhärten, dass BD ursprünglich ein ULK-Design war... Damit wird auch klar, warum die Ausbeute von hochgetakteten 8-Kernern und deren Verfügbarkeit beschissen ist, sie brauchen größtenteils einfach zuviel Saft.
Immerhin wird deutlich, dass Spiele von dem Win7-Patch evtl nicht unwesentlich profitieren könnten. 10% sind da sicher drin bei den Programmen die auf BD besonders langsam laufen, was den Prozessor doch enorm aufwerten dürfte. Natürlich ist Zambezi auch im optimierten Zustand nichtmal ansatzweise eine Konkurrenz für SB mit HT.
Nein, sie brauchen eben nicht zuviel Strom, oder sind unter 95W für einen 8 Kerner (zu)viel?
Hast du den Artikel überhaupt komplett gelesen?

Was ist bitte ein ULK-Design? *noahnung* Sagt mir grade nischt.

mfg
Ultra low k : http://de.wikipedia.org/wiki/Low-k-Dielektrikum

MfG
 
Interessanter Test. Zwei Anmerkungen:

1) Die Farbwahl bei den Balkendiagrammen. Die Werte der alten Prozessoren sind klar ersichtlich mit einem vollfarbigen Balken für aktiviertem Turbo und einem gebleichten Ton für deaktiviertem Turbo. Die neuen Daten sind aber entweder beide in Rotvarianten oder einmal schweinchenrosa und irgendso ein Beige.
Etwas schwer zu erraten, was denn genau was darstellen soll.

2) Stimmt die Grafik der Leistungsaufnahem bei LinX mit beiden Gigabyte auf 214W ? Seltsam da Asus dort 20W auseinander zu sein scheint. Bei den Idle-Messungen scheint GB mit dem Turbo auch C&Q anzuschalten, anders sind die mehrfachen 87W nicht zu erklären.

Falls Ihr den Corsair 1333er Speicher noch habt, wie wirkt sich der auf die Leistungsaufnahme und ggf ein paar synthetische Benches aus? Der Vergleich zu den eher suboptimalen Timings der Ripsaw wäre auch interessant.
 
Hallo,
das Problem mit der auf 3,3GHz sinkenden Taktrate bei Volllast scheint sich durch ein Deaktivieren des "AMD APM Master Mode" im BIOS beheben zu lassen. Stellt sich allerdings die Frage, ob dadurch C&Q auch deaktiviert wird...könnt ihr das noch überprüfen?

Das 890FXA-UD5 könnte bereits FX BIOS Support haben, allerdings nicht offiziell und nur in den neuesten Beta BIOSen (am besten vom Support). Habt ihr das mal probiert?
M.f.G.
 
Mal ne blöde Frage, aber wieso schmeißen alle "namhaften" Hersteller nur mit Beta-Versionen um sich, während ASRock schon seit 2 Monaten eine Final-Version draußen hat, die die AM3+ CPUs wunderbar unterstützt? Und das auch auf der 800er-Serie...

@MusicIsMyLife
Grandioser Test, wie immer. Vielen vielen Dank. :)
 
1_fxpmax.jpg

Ich weiß ja nichts über die Testanordnung (Quellen-Link fehlt!), aber als Gedanke: Wenn ich die CPU-Spannung der 1,2375er Exemplare anhebe, steigt dann die gemessene Maximallast auf der Prozessorschiene an? Könnte ja auch sein, dass sich die Spannungsversorgung zunehmend über den ATX-Stecker versorgt. Ist natürlich spekulativ.
 
Cool, endlich hab ich eine Erklärung, warum mein PhenomII 945 trotz 95W TDP mit 1,4V ausgeliefert wurde, während manch 125W-Kandidat mit 1,3x vor sich hin brutzelt.

Aber was ist in diesem Bild Pmax? Der 8150 nimmt doch reale 120-130W auf, wenn ich an die Messungen von Ht4u denke.

...Wenn ich die CPU-Spannung der 1,2375er Exemplare anhebe, steigt dann die gemessene Maximallast auf der Prozessorschiene an? Könnte ja auch sein, dass sich die Spannungsversorgung zunehmend über den ATX-Stecker versorgt. Ist natürlich spekulativ.
Du sprichst in Rätseln. Welcher ist denn bei Dir DER ATX-Stecker? Das sind alles ATX-normgerechte Stecker am Netzteil.
Ich wette sogar, daß die CPU-VRM sich aus allen 12V-Leitungen gleichzeitig versorgt, die auf dem Mainboard münden.
 
Zuletzt bearbeitet:
Super Test!

Aber auch hier wird nur wieder bestätigt, dass der FX nicht wirklich überzeugend ist. Betrachtet man den Strom-Verbrauch in Verbindung mit der Leistung, so gibt es hier kaum eine Verbesserung gegenüber dem alten PII X6 und im Vergleich zum i7-2600K ist der FX ein einziges Desaster.
Schade dass ich mir im Sommer ein AM3+ Board extra für den Bulldozer gekauft habe, war wohl diesmal eine gründliche Fehlentscheidung. (und dass sage ich, der seit ca. 16 Jahren nur AMD gekauft und verbaut hat)
Dasselbe Geld in ein i7-System wäre hier augenscheinlich deutlich besser angelegt.
 
Super Test!

Aber auch hier wird nur wieder bestätigt, dass der FX nicht wirklich überzeugend ist. Betrachtet man den Strom-Verbrauch in Verbindung mit der Leistung, so gibt es hier kaum eine Verbesserung gegenüber dem alten PII X6 und im Vergleich zum i7-2600K ist der FX ein einziges Desaster.
Schade dass ich mir im Sommer ein AM3+ Board extra für den Bulldozer gekauft habe, war wohl diesmal eine gründliche Fehlentscheidung. (und dass sage ich, der seit ca. 16 Jahren nur AMD gekauft und verbaut hat)
Dasselbe Geld in ein i7-System wäre hier augenscheinlich deutlich besser angelegt.

Das fehlende ULK würde zu mindestens den hohen Stromverbrauch die hohen Leckströme etc. erklären. Mit ULK sollte der BDv2 einen um ca. 40% niedrigeren Stromverbrauch haben, falls er denn mit ULK kommt...
 
Du sprichst in Rätseln. Welcher ist denn bei Dir DER ATX-Stecker? Das sind alles ATX-normgerechte Stecker am Netzteil.
Ich wette sogar, daß die CPU-VRM sich aus allen 12V-Leitungen gleichzeitig versorgt, die auf dem Mainboard münden.
Es gibt den alten ATX-Stecker mit um die 20 Pins (12 V, 5 V, 3,3 V,...) sowie neuderdings einen bei mir vierpoligen Stecker (bei neueren MB wohl auch mehr) mit 12 V zur CPU-Versorgung. An letzterem haben einige die den Strom gemessen und so auf die Leistungsaufnahme der CPU geschlossen. Die CPU könnte sich teilweise aber auch über den 20-poligen Stecker versorgen und möglicherweise verschiebt sich das Verhältnis mit der Versorgungsspannung der CPU.

Ich kann die Interpretation des Diagramms jedenfalls nicht nachvollziehen. Insbesondere der Abfall von PMax mit steigender VID ergibt keinen Sinn.
 
Mich würde ferner nochmal interessieren, wie die CPU z.B. auf einem ASrock 880G Pro abschneidet. Im Übrigen vielen Dank für das Review!

Leider kann ich dir diese Frage nicht beantworten. Denn derzeit haben wir weder ein ASRock 880G Pro noch irgendein anderes AM3-Mainboard, welches den FX unterstützt, und auch den FX musste ich im Team weiterleiten, weil er einer anderen Bestimmung zugeführt wurde.

Aber keine Sorge, ein neuer ist auf dem Weg und soll für weitere Tests herhalten. :) Und vielleicht haben wir auch irgendwann ein AM3-Mainboard mit FX-Unterstützung.


Mich würde nur mal interessieren, warum bei höhereren Auflösungen in manchen Spielen die FPS bei Intel sinken, bei AMD aber ansteigen?

Diese Frage habe ich mir auch schon öfter gestellt. Das Verhalten tritt eigentlich immer dann auf, wenn das Verhältnis von CPU- und GPU-Leistung nicht so recht passt. Dann scheint es so, als würde die CPU etwas entlastet werden, weil die Grafikkarte mehr zu leisten hat, was letztendlich in höheren FPS resultiert.

Ich habe aber leider keine genaue Erklärung dafür, nur eben diese Vermutung. Möglicherweise ist das aber auch der Grund, warum AMD den FX für das High-Resolution-Gaming vermarktet.



Interessanter Test. Zwei Anmerkungen:

1) Die Farbwahl bei den Balkendiagrammen. Die Werte der alten Prozessoren sind klar ersichtlich mit einem vollfarbigen Balken für aktiviertem Turbo und einem gebleichten Ton für deaktiviertem Turbo. Die neuen Daten sind aber entweder beide in Rotvarianten oder einmal schweinchenrosa und irgendso ein Beige.
Etwas schwer zu erraten, was denn genau was darstellen soll.

Über die Farbwahl der Diagramme haben wir auch intern schon diskutiert. Und ja, sie ist nicht optimal, eine bessere Lösung hatte ich aber nicht in petto. Hintergrund ist, dass im ersten Schritt AMD und Intel getrennt sein sollen, dann natürlich ob Turbo oder nicht, AMDs FX muss auf den ersten Blick ersichtlich sein (um ihn geht es schließlich), Turbo oder nicht muss getrennt werden und in diesem speziellen Fall musste das ASUS noch mit dem Gigabyte vergleichbar sein. Da kommen leider zu viele Farben zusammen, wenn man alles trennen will.

Diese Farbkombination wird aber zukünftig nicht mehr vorkommen. Bei kommenden Mainboard-Tests wird es vier Farben geben:

- hellgrün: Vergleichswert ohne Turbo
- dunkelgrün: Vergleichswert mit Turbo
- hellrot: aktueller Testkandidat ohne Turbo
- dunkelrot: aktueller Testkandidat mit Turbo



2) Stimmt die Grafik der Leistungsaufnahem bei LinX mit beiden Gigabyte auf 214W ? Seltsam da Asus dort 20W auseinander zu sein scheint. Bei den Idle-Messungen scheint GB mit dem Turbo auch C&Q anzuschalten, anders sind die mehrfachen 87W nicht zu erklären.

Ja, die Grafik stimmt. Denn: Während das ASUS nur auf 3,3 GHz heruntertaktet, wenn der Turbo aktiviert ist, so taktet das Gigabyte unter Last sowohl mit als auch ohne Turbo auf 3,3 GHz herunter. Das heißt also, dass beim UD7 in beiden Fällen 3,3 GHz mit identischer VCore anliegen, was in identischen Ergebnissen resultiert.

Das mit der Idlle-Leistungsaufnahme riecht in der Tat stark nach Cool’n’Quiet, wenngleich mir CPU-Z keine Verringerung angezeigt hat.



Falls Ihr den Corsair 1333er Speicher noch habt, wie wirkt sich der auf die Leistungsaufnahme und ggf ein paar synthetische Benches aus? Der Vergleich zu den eher suboptimalen Timings der Ripsaw wäre auch interessant.

Bei den Corsair Vengeance handelt es sich um DDR3-1600 mit 9-9-9. Die schaffen aber keinen so hohen Takt wie die G.Skill, weshalb ich die Vengeance nicht verwendet habe. Weitere Tests mit den Corsair wird es nicht geben, dafür habe ich bereits andere RAMs hier, die ich auf Herz und Nieren prüfen werde.

Die Leistungsaufnahme dürfte mit vier Riegeln á 1,5 Volt gegenüber zwei Riegeln á 1,65 Volt sogar noch zulegen. Man spricht ja von ca. 5 Watt pro Speicherriegel und quadratischem Anstieg der Leistungsaufnahme. Bei diesen Vorraussetzungen komme ich auf 12,1 Watt für die Ripjaws und 20 Watt für die Corsair (bei gleichem Takt wohlgemerkt).

Die von dir als suboptimal bezeichneten Timings sind relativ egal. Solange man nicht den ganzen Tag packt/entpackt, merkt man davon quasi nichts. Ein weiterer Grund, weshalb ich da keine Energie mehr reinstecken werde.



Hallo,
das Problem mit der auf 3,3GHz sinkenden Taktrate bei Volllast scheint sich durch ein Deaktivieren des "AMD APM Master Mode" im BIOS beheben zu lassen. Stellt sich allerdings die Frage, ob dadurch C&Q auch deaktiviert wird...könnt ihr das noch überprüfen?

Das ist korrekt und ich kann es so bestätigen. Da gibt es jedoch einen Haken: Ohne diesen Modus funktioniert zwar der Turbo-Modus, jedoch nur bis 3,9 GHz auf dem FX-8150. Wer den vollen Turbo-Takt haben will, der muss diese Option aktiviert lassen.

Hinzu kommt, dass es diese Option beim UD7 (noch) gar nicht gibt.



Das 890FXA-UD5 könnte bereits FX BIOS Support haben, allerdings nicht offiziell und nur in den neuesten Beta BIOSen (am besten vom Support). Habt ihr das mal probiert?
M.f.G.

Ich habe bereits vor dem Launch für das 890FXA-UD5 ein BIOS erhalten, welches angeblich mit dem FX arbeiten soll. Tut es aber nicht, der Monitor bleibt schwarz. Meine Nachfrage hat ergeben, dass Gigabyte angeblich keine Kompatibilität mehr mit Board garantiert. Ich habe nämlich Revision 3.0, welche offiziell kein BD kann, wobei es vorher hieß, dass es auch funktionieren wird.


Mal ne blöde Frage, aber wieso schmeißen alle "namhaften" Hersteller nur mit Beta-Versionen um sich, während ASRock schon seit 2 Monaten eine Final-Version draußen hat, die die AM3+ CPUs wunderbar unterstützt? Und das auch auf der 800er-Serie...

Tja, die Frage kann ich dir leider nicht beantworten. Eine Vermutung ist jedoch, dass die großen Hersteller oftmals eigene Wege bei ihren Boards gehen und die Spezifikationsgrenzen von AMD ausreizen. Wenn dann minimale Änderungen seitens AMD kommen, kann das Design der Mainboards vielleicht außerhalb der Toleranzen liegen.

Auch das ist nur eine Vermutung, dort kann aber ein Körnchen Wahrheit drin stecken.



Cool, endlich hab ich eine Erklärung, warum mein PhenomII 945 trotz 95W TDP mit 1,4V ausgeliefert wurde, während manch 125W-Kandidat mit 1,3x vor sich hin brutzelt.

Ja, dieses Verhalten ist nicht neu. Besonders die TWKR hatten sehr niedrige VIDs, haben die Vorgabe zur Leistungsaufnahme aber gleichzeitig gesprengt. Wobei das beim Bulldozer aufgrund der Größe sehr starke Auswirkungen hat.



Aber was ist in diesem Bild Pmax? Der 8150 nimmt doch reale 120-130W auf, wenn ich an die Messungen von Ht4u denke.

Zu den Umständen, wie diese Werte zustande gekommen sind (also welche Rahmenbedingungen), gibt es keine Infos. The_Stilt hat aber versichert, dass die Bedingungen für alle CPUs gleich waren, mit Ausnahme der VCore.



Ich kann die Interpretation des Diagramms jedenfalls nicht nachvollziehen. Insbesondere der Abfall von PMax mit steigender VID ergibt keinen Sinn.

Wenn du zwei Prozessoren hast, wovon einer hohe Leckströme aufweist, beide aber in die TDP-Klasse von 125 Watt passen sollen, dann musst du die VID der CPU mit hohen Leckströmen niedrig halten. Leckströme sind ungewollte Ströme in einer CPU, die in keinen Schaltvorgängen (und damit Leistung) resultieren, dafür aber die Energiebilanz und die Temperatur verschlechtern. Will ich diese CPU dennoch verkaufen, muss die Default-Spannung halt runter, andernfalls würde dieser Prozessor die Spezifikation nicht einhalten. Dies kann auf Seiten der Leistungsaufnahme oder sogar bei der Betriebstemperatur passieren.

Die Gefahr an einer niedrigen VID: Die CPU kann unter Umständen die angestrebte Taktrate nicht mehr erreichen und muss dann als niedriger getaktetes Modell verkauft werden.

Beim FX ist es offensichtlich so, dass es CPUs gibt, die enorme Leckströme aufweisen und deshalb selbst mit (sehr) niedriger VID noch eine schlechtere Energiebilanz aufweisen als ihre Kollegen mit höherer VID. Andersrum könnte man, sofern CPUs mit niedrigen Leckströmen genügend Potenzial zur Verringerung der VID aufweisen, entsprechende CPUs bei geringer VID als 95-Watt-Prozessoren verkaufen.
 
Ohne den neuen Prozessor in Schutz nehmen zu wollen, glaube ich dennoch, daß diesem auf der einen Seite gern Unrecht getan wird, und auf der anderen Seite, diesem mehr abverlangt wird, als dieser leisten soll.

So wie ich dies verstehe ich es eine CPU mit 4 Modulen, welche die Intel-Idee aufgreift, und somit einen Konkurrenten für 4-Kerner darstellen soll. Unter dieser Prämisse sehen die Werte dieses Prozessors recht ordentlich aus! Sieht man von der Leistungsaufnahme ab, ist es eine recht gelungene CPU. Die Frage ist daher nicht, ob diese nun die schnellste im Hause ist, sondern wie sie sich gegen andere 4-Kerner bei gleicher Taktung schlägt!

Meiner Meinung nach wurde diese CPU aus diesem Blickwinkel bisher nirgendwo getestet, was schade ist! Auch ist aus meiner Sicht die Tatsache schwer nachvollziehbar, warum man im Jahre 2011 immer noch die Leistung einer CPU testet wie zu Zeiten der Einkerner.

Realistische Tests wären meiner Meinung nach, wenn die CPU durch alltägliche Aufgaben belastet ist, und neben dessen einen Benchmark durchlaufen muß. Schließlich ist es die primäre Aufgabe von Mehrkernprozessoren: komfortables Arbeiten trotz mehrerer Anwendungen. Und wenn wir ehrlich sind, arbeitet heute niemand mit nacktem Windows und einer einzigen gestarteten Anwendung.
Bsp:
- Rechner mit mehreren Monitoren
- es laufen viele Anwendungen (Antivirus, Firewall, Browser, E-Mail-Client, Messenger, diverse Gadgets, Textverarbeitung, Tabellenkalkulation, ...)
- bei solchen Bedingungen der CPU einen Auftrag erteilen: Video-Wiedergabe, Spiel, Video-Schnitt, Bildbearbeitung ... oder ... oder ... oder ...
 
Ein sehr aufwändiger Test *greater*

Das Ergebnis sehe ich nicht als positiv, aber immerhin wurden meine Meinungen bestätigt.

Der Zambezi ist für mich immer noch ein Desktop-Fail.

Der Stromverbrauch ist für die gebotene Leistung viel zu hoch; die 410W ist selbst für die deutliche Übertaktung viel zu hoch.
Der Verbrauch wird mit einem kleinen 970-Board zwar etwas niedriger sein aber immer noch um Welten höher als bei schnelleren Intel-CPUs.

Das Asus-Board ist nicht schuld am Ergebnis. Auch wenn man allerorten diesem Board die Schuld am Abschneiden des Zambezis die Schuld gab. Fast hätte ich es auch geglaubt, aber letztlich hielt ich es doch wieder für Fanboy-Propaganda. Schließlich waren Asus-Boards meist sparsamer als ähnlich ausgestattete Gigabyte.


AMD, so gewinnt ihr kein neue Kunden. Ein Desktop-CPU sollte auch schnell bei Desktop-Anwendungen sein.
 
Zurück
Oben Unten