AMDs Dual-Core Opteron ab heute verfügbar

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Wie gestern bereits <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1114010695">angekündigt</A> hat AMD heute wie erwartet seinen neuen Opteron Prozessor mit Dual-Core Technologie vorgestellt. Aktuell sind die Prozessoren nur in der 800er Serie verfügbar und hören auf die Namen 865, 870 und 875. Sie sind mit 1,8, 2 und 2,2 GHz getaktet. Der 1000er EK-Preis beläuft sich auf 1514, 2149 beziehungsweise 2649 Dollar.

Wie bereits im Vorfeld mehrfach <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1097044433">berichtet</a> verfügen die neuen Dual-Core Opterons pro Kern über 1 MByte L2-Cache. Verbunden werden die beiden Kerne mithilfe der integrierten Northbridge (genau genommen dem System Request Interface SRI), welche schon in heutigen Opteron und Athlon 64 CPUs fähig ist, zwei Prozessorkerne anzusprechen. Dank 90 nm SOI-Technologie soll die maximale Leistungsaufnahme bei lediglich 95 W liegen. Wie versprochen sollen die CPUs daher auf aktuellen handelsüblichen Sockel 940 Mainboards lauffähig sein; BIOS-Update zur CPU-Erkennung vorausgesetzt.

AMD startet das Abenteuer Dual-Core damit im wenig volumenträchtigen High-End Servermarkt. So ist der Schaden weniger groß, sollten in letzter Sekunde noch irgendwelche Bugs entdeckt werden und ein Rückruf gestartet werden müssen. Die kleinen Server-Prozessoren der 200er Serie sollen Ende Mai verfügbar sein. Richtig interessant wird es allerdings erst im Juni. Dann soll auch der Athlon 64 als Dual-Core CPU verfügbar sein. Diese Varianten werden ein "X2" im Namen tragen, um von den herkömmlichen Athlon 64 Versionen unterscheidbar zu sein. Der Athlon 64 X2 kommt als 4200+, 4400+, 4600+ und 4800+ auf den Markt. Die Modelle 4200+ und 4400+ arbeiten beide mit 2,2 GHz und unterscheiden sich lediglich anhand der L2-Cache Größe. Das kleinere Modell muss mit 512 KB Cache je Kern auskommen, das größere darf mit 1 MB L2 je Kern arbeiten. Auch der 4600+ beziehungsweise 4800+ unterscheiden sich durch die Cache-Größe, sind aber mit 2,4 GHz getaktet.

Billig wird das Dual-Core Unterfangen für den Kunden allerdings nicht. Zwischen 537 Dollar über 581 Dollar bis 803 und 1001 Dollar verlangt AMD für die Athlon 64 X2 4200+ bis 4800+. Den Sonderling <a href="http://www.planet3dnow.de/artikel/hardware/fx53cg/index.shtml">Athlon 64 FX</a> sollen die Dual-Core CPUs übrigens nicht ablösen. Er bleibt vorerst weiterhin parallel im Angebot, was Sinn macht, da der als Enthusiast-CPU deklarierte Prozessor meist für Spiele eingesetzt wird, wo SMP derzeit noch kaum genutzt wird.
Danke neax für den Hinweis
 
Zuletzt bearbeitet:
So ist der Schaden weniger groß, sollten in letzter Sekunde noch irgendwelche Bugs entdeckt werden.

öhm ne klar , wenn ne ServerCPU Bugs hat ist das garnicht schlimm ;D
Wenn man gerne Harakiri macht magst du mit der Aussage recht haben ...
 
dualXPlosion schrieb:
öhm ne klar , wenn ne ServerCPU Bugs hat ist das garnicht schlimm ;D
Wenn man gerne Harakiri macht magst du mit der Aussage recht haben ...
Es geht um Rückrufaktionen mit großen Stückzahlen. 300 Server-CPUs sind schneller und ungleich günstiger von der Hand voll Integratoren-Partnern im Serverbereich zurückgerüfen, als 800.000 Desktop-CPUs aus unzähligen Distributionskanälen. Auch in anderen Sparten wird dieses Prinzip oft angewandt. Neue Technologien werden zuerst dort eingesetzt, wo man die Stückzahlen noch überschauen kann.
 
Hi,

kann man Spiele überhaupt SMP fähig programieren. Ich denke da vor allem an die allseitsbeliebten 3D-Baller Spiele. Schließlich müssen die 3D-Objekte in einer bestimmten Reihenfolge berechnet werden. Wenn das nicht eh die Graka macht. Und im vorhinein kann ich doch auch nix berechnen, da die Bewegung des Spielers nicht vorhersagbar ist.

Ciao Jens
 
Zuletzt bearbeitet:
Nero24 schrieb:
Es geht um Rückrufaktionen mit großen Stückzahlen.
Da wär ein BIOS-Fehler wahrscheinlicher, als einer beim Dual-Core.
Und bei der langen Herstellungszeit vom Waferstart bis fertiger CPU kann eh nichts mehr abgeändert werden.

Im übrigen hat AMD die DC ja schon seit Januar'05 bei den OEMs, die sicherlich zig Benchmarks und Dauertests gefahren haben.

AMD dürfte einfach die Waferstarts erst Zug um Zug erhöhen, was eben erst Mai bzw. Juni die nötigen Stückzahlen für den 265-275, 165-175 und X2 ermöglichen wird.
Hat AMD z.B. März/ April die fertigen DIEs aus den ersten Serien-Waferstarts in Händen gehabt und die Yieldrate in der Praxis getestet und dann 'massiv' die Waferstarts erhöht kommen eben erst Mai/Juni die fertigen nächsten Wafer aus der Fab30.

AMD muss sich beim Zeitplan einfach an das kleine 1*1 der CPU-Herstellung halten.
-----

Problematisch aber die hohen DC-Preise -Intel machts für die Hälfte ab Mitte 2005 (http://www.hartware.net/news_37600.html).
Und will Millionen an Smithfield noch 2005 verkaufen (http://www.xbitlabs.com/news/cpu/display/20050420075027.html), während AMD bei den Preisen deutlich unter 500.000 Stück/ Quartal liegen dürften, vielleicht 250.000 incl. Opteronen.

Vielleicht erweitert AMD aber im Sommer/Herbst die DC-Produktlinie noch nach unten ('echter' 2* 512k Core ?!), also X2 3800+ und X2 3400+ (2* 2,0 /1,8 GHz / 2* 512k) für dann ebenfalls ca. $315 / $240 wie der 2* 3,0/ 2,8 GHz Smithfield von Intel.
Wenn man bedenkt, daß AMD heute (intakte) Winnies zu Sempronen degradiert und für deutlich unter $100 /Stück verschleudert würde AMD bei preiswerten DC viel mehr Umsatz und Ertrag erlösen können. Natürlich kommt es auch darauf an, ob die Kundschaft doch eher zu Takt statt DC für den gleichen Preis greift.

Zumindest in der Preisklasse >$500 ist die Kundenzahl klein und AMD kann nicht viel an Umsatz erwarten. Aber den Hochpreisfehler machte AMD schon Juni '04 mit den Wucherpreisen für den So.939, der dann auch nur verzögert am Markt ankam.
 
Zuletzt bearbeitet:
da werden schon genug prozesse parallel ausgeführt werden müssen um smp-fähigkeit umzusetzen glaub ich.

bei der formulierung muss ich dualxplosion recht geben. auf den ersten blick vielleicht etwas unglücklich formuliert auch wenn sich einem der sinn bei doppeltem nachdenken erschließt ;)
 
Nero24 schrieb:
Es geht um Rückrufaktionen mit großen Stückzahlen. 300 Server-CPUs sind schneller und ungleich günstiger von der Hand voll Integratoren-Partnern im Serverbereich zurückgerüfen, als 800.000 Desktop-CPUs aus unzähligen Distributionskanälen. Auch in anderen Sparten wird dieses Prinzip oft angewandt. Neue Technologien werden zuerst dort eingesetzt, wo man die Stückzahlen noch überschauen kann.


Und ich wollt damit eher sagen das es einen totalen Image-Verlust für AMD hervorrufen würde wenn ausgerechnet die hochpreisigen ServerCPUs verbuggt wären . Dabei spielt es keine Rolle mehr wieviele CPUs zurückgerufen werden müßten.
 
jensibensi schrieb:
kann man Spiele überhaupt SMP fähig programieren. Ich denke da vor allem an die allseitsbeliebten 3D-Baller Spiele. Schließlich müssen die 3D-Objekte in einer bestimmten Reihenfolge berechnet werden. Wenn das nicht eh die Graka macht. Und im vorhinein kann ich doch auch nix berechnen, da die Bewegung des Spielers nicht vorhersagbar ist.
Ciao Jens

Bei einem Prozessor gilt: meherere Threads machen nur dann Sinn, wenn sie unterschiedliche Ressourcen benötigen. Um die CPU also nicht auf die HDD warten zu lassen, kann ein Einlesevorgang parallelisiert werden.

Mit 2 CPUs gilt das so nicht mehr. Hier gilt, dass man Berechnungen, die nicht aufeinander angewiesen sind, parallel ausführen kann. Wenn man das intelligent macht, d.h. die Aufgaben in etwa so verteilt dass die Ergebnisse etwa zur selben Zeit vorliegen, zieht man ernorme Vorteile aus einem solchen System. Da das aber bei einem Spiel nicht direkt funktioniert könnte man auch dazu übergehen, mehrere kleinere Threads aufzumachen, die dann durch den Scheduler verwaltet und verteilt werden. Dann muss man diese aber wieder aufsynchronisieren, da der Scheduler unter Win kaum (gar nicht?) zu beeinflussen ist - ausser durch Prioritätsverwaltung, aber das ist ein zu extremes Werkzeug.
Der Ansatz der Programmierer, so weit ich das gelesen habe, ist es, eine CPU als Physik-CPU zu verwenden und eine als CPU für den Rest des Spiels. Das bringt dann bessere Physik-Engines, aber nicht unbedingt enorm viel Leistung. Vielleicht sollte man die KI auslagern, die sicherlich auch einiges an Rechenzeit verschlingt. Auf alle Fälle wird man wohl von dem einfachen Schema alles in einem seriellen Zyklus durchzurechnen abkommen müssen. Und ich denke dass viele Programmierer noch mit dieser Methode arbeiten.

exr
 
Was ich aber immer noch nicht so recht nachvollziehen kann, ist, inwiefern Taktfrequenz und L2-Cachegröße das Rating beeinflussen. Das ist mir insbesondere schon bei einigen Sempron-Modellen aufgefallen (wo der Cache ja auch noch deutlich geringer ist und das Rating selbstverständlich nicht direkt mit Athlon 64 vergleichbar ist).

2,2 GHz und 512 KB = 4200+

512 KB mehr Cache = 4400+ (also entsprechen 512 KB mehr Cache ca. 200 Ratingpunkten)

Nun wird dem 4600+ der halbe Cache wieder "geklaut" (sprich 200 Ratingpunkte müssten futsch sein) und er bekommt 200 MHz spendiert.
Wenn man nun 4600+ und 4800+ vergleicht, zeigt sich, dass auch 200 MHz eine Steigerung um 200 Ratingpunkte rechtfertigt...
Demnach sollte der 4400+ (2,2 und 1 MB) dem 4600+ (2,4 und 512 KB) von der Leistung bzw. dem Rating her entsprechen (außer natürlich bezogen auf den Dualcore-Bonus)...

Dies deckt sich auch mit den Erfahrungen und AMDs Vorgehen beim Athlon 64 3000+, denn den gab es ja auch in zwei Varianten, wo fehlende 200 MHz durch 512 KB Cache "wiedergutgemacht" wurden.

Natürlich hängt die effektive Leistung von den Applikationen ab, aber mittlerweile weiß man ja, dass sich in vielen (alltäglichen?) Anwendungen das Mehr an Takt besser bemerkbar gemacht hat, als mehr Cache (insbesondere bei Spielen).

Daher ist die Rating-Politik und die MHz/Cache-Schieberei bei AMD eine ziemliche Augenwischerei...
 
Azzrael schrieb:
Was ich aber immer noch nicht so recht nachvollziehen kann, ist, inwiefern Taktfrequenz und L2-Cachegröße das Rating beeinflussen.

2,2 GHz und 512 KB = 4200+

512 KB mehr Cache = 4400+ (also entsprechen 512 KB mehr Cache ca. 200 Ratingpunkten)

Nun wird dem 4600+ der halbe Cache wieder "geklaut" (sprich 200 Ratingpunkte müssten futsch sein) und er bekommt 200 MHz spendiert.
Wenn man nun 4600+ und 4800+ vergleicht, zeigt sich, dass auch 200 MHz eine Steigerung um 200 Ratingpunkte rechtfertigt...
Demnach sollte der 4400+ (2,2 und 1 MB) dem 4600+ (2,4 und 512 KB) von der Leistung bzw. dem Rating her entsprechen (außer natürlich bezogen auf den Dualcore-Bonus)...
???
2.2GHz 2x512kB = 4200+
2.2GHz 2x1024kB = 4400+
2.4GHz 2x512kB = 4600+
2.4GHz 2x1024kB = 4800+

512kB Cache pro Core sind 200 Punkte wert und 200MHz 400 Punkte bei DualCore. Wo ist Dein Problem?
Am besten Du vergißt das Rating, das ist doch sowieso nur für das Marketing bzw. die DAUs.

Gipsel
 
dualXPlosion schrieb:
Und ich wollt damit eher sagen das es einen totalen Image-Verlust für AMD hervorrufen würde wenn ausgerechnet die hochpreisigen ServerCPUs verbuggt wären . Dabei spielt es keine Rolle mehr wieviele CPUs zurückgerufen werden müßten.
Wieso, das ist doch völlig normal, dass die CPUs ebenso wie Chipsätze total verbuggt sind, sowohl bei AMD, als auch bei Intel. Guckst Du hier:
Neue CPU-Fehler in Opteron und Athlon 64 gelistet (Update)
Nun auch Intel mit PCI-Bug
Intel zieht Pentium 4 3.0 GHz wegen "Anomalie" zurück
Intel ruft i9x5 Grantsdale- und Alderwood-Chipsätze zurück

Die Frage ist immer nur, ob die Fehler schlimm genug sind, dass ein Rückruf notwendig ist. Die meisten Bugs werden per BIOS-Update umgangen, in dem die fehlerhafte Funktion einfach deaktiviert wird. Manchmal jedoch ist der Fehler nicht per BIOS-Update zu fixen, wie etwa damals beim Memory Translator Hub, beim FPU-Bug des Pentium oder bei der ersten Revision des Alderwood-Chipsatzes. Bei letzterem hatte Intel etwa 10.000 Chipsätze ins Werk zurückzurufen. Da freuen sich die Hersteller doch, wenn sie lediglich ihre Server-Partner anzurufen brauchen, dass ihre 5 bisher produzierten aber noch nicht ausgelieferten Server zurück in die "Werkstatt" müssen...
 
dualXPlosion schrieb:
Und ich wollt damit eher sagen das es einen totalen Image-Verlust für AMD hervorrufen würde wenn ausgerechnet die hochpreisigen ServerCPUs verbuggt wären . Dabei spielt es keine Rolle mehr wieviele CPUs zurückgerufen werden müßten.
Wenn AMD in solch einem Falle sofort und kostenlos eine Umtauschaktion starten würde, würde sich der Imageverlust in Grenzen halten. Ja ich würde sogar sagen, dass sie mit solch einem guten Support Pluspunkte sammeln könnte.

Aber hätte, könnte, wenn und aber - alles zu spekulativ! Wollen wir doch erstmal schaun, wie sich die DualCore-CPUs wirklich schlagen. ;)
 
jensibensi schrieb:
Hi,

kann man Spiele überhaupt SMP fähig programieren. Ich denke da vor allem an die allseitsbeliebten 3D-Baller Spiele. Schließlich müssen die 3D-Objekte in einer bestimmten Reihenfolge berechnet werden. Wenn das nicht eh die Graka macht. Und im vorhinein kann ich doch auch nix berechnen, da die Bewegung des Spielers nicht vorhersagbar ist.

Ciao Jens

Ich denke, das kommt auf's Spiel an, was möglich ist. Ich könnte es mir so vorstellen:
- Echtzeit-Strategie: Pro NPC-Partei ein Thread
- Ballerspiele, Rollenspiele, Sportspiele, Rennspiele: wieder je einer für KI, Grafik und Physik
- Simulationen: kommt wohl auf die Simulation an. Renn- oder Kampfflugzeugsimulationen könnten sicher wieder je einen für KI, Grafik und Physik gebrauchen, evtl. sogar für jedes Renn- oder Feindfahrzeug ein eigener Physikthread. Beim MS Flight Simulator fiele das natürlich weg.
- Adventures: ??? da wird's wohl wirklich schwierig

Also ich denke schon, dass bei vielen Spielen mehrere Threads möglich währen. Die, bei denen es nicht geht, fallen wohl zum großen Teil in die Kategorie "reizt einen aktuellen PC schon lange nicht mehr aus".
 
Hmm... Hartware.net schreibt in der entsprechenden News folgendes:
Gleichzeitig mit der heutigen Vorstellung von AMDs Dual-Core CPU-Serien hat Microsoft übrigens die Verfügbarkeit der 64bit-Ausgaben von Windows Server 2003 und Windows XP Professional verkündet. Diese werden von den bisherigen Versionen durch das Anhängsel ''x64 Edition'' unterschieden.

Warum berichtet sonst keiner davon?
Und vor allem - wo gibt's die Versionen schon?! Schließlich ist ja von "Verfügbarkeit" die Rede.
 
Das ist mir auch klar, nur wenn Hartware.net von "Verfügbarkeit" redet, müssen sie das ja auch irgendwo her haben. ???

Ende April hieß es ja seit dem RTM, aber als ich dann das gelesen habe, dachte ich mir nur "Toll, schon früher".

Naja, wie auch immer. *noahnung*
 
na, bei den preisen würden wohl auch kaum massenweise dual-core cpus im desktop markt verkauft werden, oder?
der aufwand, möglicherweise 10.000 cpus aus dem desktop-markt zurück zu rüfen, dürfte wenig größer sein, als der aufwand, dies im server-markt zu machen. aber der image-schaden wäre definitiv viel größer.

die tatsächlichen gründe für amds strategie, erst den server-markt zu bedienen, sind doch nicht befürchtungen, etwas könne schief gehen, sondern vielmehr:

1. hier werden die verlangten preise verlangt
2. hier macht dual-core für viele anwendungen sinn

beides gilt bei intel "lustigem" weg nicht, vor allem nicht, wenn sie tatsächlich mobile dual-cores als nächstes bringen.

was sehr störend ist an dem tecchannel bericht: warum testen die überhaupt software, von der man genau weiß, daß sie nur single-threaded arbeitet? krassestes beispiel ist die verwendung von spec_int anstatt spec_rate... lächerlich! ist doch klar, daß da der xeon gewinnt, aber dann müßte man auch den höchst-getakteten opteron/athlonfx entgegen setzen.

ist aber ein guter tag für amd, denn sie haben nicht einfach nur ihre position im x86-server markt gefestigt, sondern mit den neuen produkten die tür weit aufgestoßen, um ihren marktanteil sehr zu erhöhen. denn intel hat hier mindestens ein halbes jahr nichts aber auch gar nichts entgegen zu setzen...
 
Sicherlich ist Neros Aspekt nicht zu vernachlässigen, jedoch gilt bei der Einführung des Dual Core auch dessen Zielsetzung zu beachten.
AMD wählt als Schwerpunkt Produktsektoren aus, welche bisher von professionellen und privaten Anwendern (Prosumer) angesprochen werden, welche höherwertigere Multimedia Anwendungen nutzen. Dieser Bereich wird mit dem Athlon 64 X2 abgedeckt.
Der Opteron - Dual Core hingegen setzt auf den Servermarkt, da dort bereits sehr viele Multithreaded Anwendungen zu finden sind, bei denen man durch den Dual Core eine noch höhere Performance ausspielen kann.

Im Spielesektor zeigt sich jedoch bisher, dass dort Multithreaded Anwendungen eher in der Minderheit sind und demzufolge hier eine Einführung des Dual Core wenig Sinn gemacht hätte.
Daher setzt AMD im Pro-Gaming Bereich auch noch auf den bewährten Athlon 64 FX. Der Athlon 64 FX-55 bleibt, voraussichtlich bis zum Q3 noch das Spitzenmodell.

Intel hingegen setzt mit dem Dual Core voll und ganz auf den Prosumer und Pro-Gamer Bereich. Ob das letztendlich wirklich effizient ist, wird sich noch zeigen.
Technologisch gesehen ist dieser Weg jedoch weniger effizient, als der von AMD. Das liegt aber mitunter auch daran, weil sich der Intel DC den gesamten Bus teilen muss. Hierbei sind AMD64 Prozessoren durch den HyperTransport Bus im Vorteil.

So gesehen ist es auch aus diesem Grund nachvollziehbar, dass AMD einen anderen Schwerpunkt für die Dual Core Prozessoren sieht.
 
Überschrift sinngemässe Wiedergabe eines Zitates von AMD-Chef Hector Ruiz während der Vorstellung der Dualis
Hi,

AMD rockte zur Vorstellung richtig ab ;D ;)

Quelle heise.de

"...Mit 70 Partnern zum Start der neuen Prozessoren konnte AMD die Vorstellung der Doppelkern-Opteron-CPUs in New York so richtig feiern. Zu den Firmen, die AMD mit ins Rampenlicht holte, zählten zahlreiche Hochkaräter der Serverszene wie IBM, HP und Sun.

IBM nutzte die Gelegenheit, um eine Dualcore-taugliche Workstation vorzustellen. Die Intellistation A pro 6217 unterstützt zwei Prozessoren mit insgesamt vier Cores, PCI-Express (16x für Nvidia und 3DLabs 2/3D-Grafik) und bis zu 16 GByte DDR400-Speicher. Ferner präsentierte IBM einen Blade-Server für zwei Opteron-Prozessoren und zwei 2,5-Zoll-Harddisks, der sich aber aus Platzgründen auf zwei DIMM-Speicherriegel pro Prozessor beschränkt und so derzeit maximal mit 8 GByte Speicher bestückt werden kann. Sobald die 200er-Serie der Prozessoren verfügbar ist (vorgesehen Mitte Mai) sollen Workstations (ab 3259 US-Dollar) und Blade-Server auf den Markt kommen.

Auch Boardhersteller Supermicro, bislang mit Intel "verheiratet", ist jetzt mit dem AS 1020A T-Server bei AMD dabei. Das 1U-Rackmount-System bietet Platz für zwei Opteron-Prozessoren, hat zwei PCI-X 133/100-Steckplätze, unterstützt ZCR Raid 5 und soll bis zu 32 GByte Speicher (PC2100 und PC2700) aufnehmen können.

Unter anderem zeigte die Firma Alienware neben ihrem noch unbenannten Next-Generation-Digital-Home-Entertainmentsystem auch ein Notebook für den Athlon 64 X2.

Cray stellte die Supercomputerlösungen XDI und XT3 aus, NewIsys den Enterprise-Class-Server 4300 E, Boxx ein Dual-Board mit Nforce-4-Chipsatz und SLI sowie Angstrom beispielsweise den OctaBlade 16.

AMD-Chef Hector Ruiz, der zu Feier des Tages auch selbst zu einer Hymne auf AMD 64 die Gitarrensaiten zupfte (...)

"Heute bringen wir zum zweiten Geburtstag des Opteron-Prozessors einen Zweifach-Prozessor, was werden wir wohl zu seinem vierten Geburtstag präsentieren?" "

Greetz
neax :)
 
Zurück
Oben Unten