2x2,4 GHz bei nur 95 W?

mtb][sledgehammer

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.375
Renomée
30
Standort
Alphaquadrant der Milchstraße, Erde (kleiner blaue
Vor gut 3 Monaten <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1097044433">berichteten</a> wir bereits über die ersten offiziellen Performance Angaben zu AMDs Dual-Core Prozessoren. Damals gingen wir noch von einem Dual-Core Spitzenmodell mit lediglich 1,8 GHz aus. Dieses sollte nach den Angaben von AMD einem 2,4 GHz Single-Core Opteron bereits um um bis zu 55% überlegen sein.

Im derzeit aktuellen <a href="http://www.heise.de/ct/05/02/018/" target="b">Prozessorgeflüster</a> der C't sind nun ein paar aktuellere Zahlen zu den kommenden Dual-Core Opteron Prozessoren zusammengefasst, welche in den letzten Wochen im Internet an die Öffentlichkeit durchgesickert sind. Demnach soll das Dual-Core Opteron Spitzenmodell x80 ganze 2,4 GHz aufweisen und das ganze bei einem TDP von 95 W, also annähernd die selbe thermische Leistungsgrenze, die AMD bereits allen bisherigen Opteron Prozessoren gesetzt hat.

Auf der anderen Seite der Produktpalette will demnach AMD seine Linie der Low Power Opteron Prozessoren fortsetzen - ein x30 Modell soll trotz immernoch recht beachtlicher 1,6 GHz wie die heutigen EE Prozessoren lediglich 30 W verbrauchen. In jedem Fall versprechen diese Zahlen enorme Rechenleistungen bei relativ geringen elektrischen Leistungen.
 
Zuletzt bearbeitet:
Immer her damit! :D
 
AMD weiter auf dem Erfolgskurs, wie? ;D
 
Das hört sich echt toll an! Die Frage ist nur, wie erschwinglich das werden wird. :]
Von Preisen ist aber noch lange keine rede, oder? Das sind ja auch alles nur "Insiderinformationen", oder?
 
schau mal die heutigen Opteron Preise an ;D

Interessant wird es wen Customer PC mit Dual-Core kommen. Aber bitte keine 130Watt Monster. 100Watt müssen einfach reichen.
 
Original geschrieben von unununium
Das hört sich echt toll an! Die Frage ist nur, wie erschwinglich das werden wird. :]
Das war noch nie eine Frage! Wer wirklich Rechenleistung braucht, weil bei ihm Rechenzeit echtes Geld darstellt - also ein Investitiongut - dem ist der Preis egal, weil
a) steuerlich akiviert
b) im Verkaufspeis umgelegt.

Einzig die Zocker werden mit schmerzverzerrten Gesicht gesichtet. :P
 
Naja das war ja imho irgendwie klar. Ein Winchester verbraucht bei 2GHz ca. 40Watt und die VCore kann man auch noch senken. Bei mir schafft er 1,15V bei 2GHz und ich habe nicht das Übertakterwunder (schafft 2,6GHz bei 1,6V halbwegs stabil). 2,4GHz sind mit 1,4V bei fast allen Winchestern drin und wenn die Fertigung besser wird, dann kann man noch locker runter auf 1,3V oder sogar 1,2V bei einigen Exemplaren. Dual Core macht auch wenig Sinn, wenn die CPUs dafür gleich 600MHz weniger Takt haben. Preislich werden die CPUs eher im höheren Preissegment zu finden sein denn Server CPUs sind immer teuer. Ich sehe da schon eine Aufspaltung in zwei Leistungsklassen. Die Server bekommen Dual Core Opterons, die Multimediaanwender bekommen normale Dual Core CPUs für den Desktop und der Rest der Anwender bekommt Single Core CPUs. Somit ist man in jedem Bereich deutlich vor Intel weil die können bei Spielen sowieso nicht mithalten und beim Rest können sie nicht so schnell sein weil sie keinen Dual Core Prescott liefern können der so hoch wie die Spitzenmodelle getaktet ist. Das würde kühlungstechnisch einfach nicht gehen. Beim Pentium M wird Dual Core auch nicht sinnvoll sein, weil davon hauptsächlich die Anwendungen profitieren, die die größten Schwächen des Pentium M darstellen (z.B. Video Encoding).
 
95 Watt sind recht viel ...

aber für den Anfang !

AMD packe heute 35 Watt bei 2,0 GHz und wohl 1,35V, sowie auch für den neuen 90nm Dual-Opteron in der Flüstertüte.
Jetzt noch besseres Stepping 'E', die 'DSL' Fertigung und und bei 2* 2,4 GHz hat man noch ein gutes Polster bis 95 Watt TDP.

Interessant sind eher die Gerüchte zu 2* 2,0 bzw. etwas später 2* 2,2 GHz bei 55 Watt TDP und noch geringerer Vcc.
Natürlich müssen dies Selektionen sein, ebenso wie das heutige 35 Watt A64 mobil Modell. Aber eigentlich in Reichweite, oder ?

Intel hat ja wohl auch die 95 Watt schon im Visier.
Der x20 und wohl x30 packen diesen Wert ja auch.
Wenn auch Netburst 2* 2,8/3,0 und mit sicherlicher bescheidener Dual-Leistung im Mittel.


Bem:
sorry, aber die 2* 1,8 GHz und dabei 95 Watt sind bei der 35 Watt Vorlage des heutigen mobilen eh unrealistisch gewesen.
AMD hätte ja noch extra Heizdrähte auf dem DIE anbringen müssen !

---

[Ironie] 8)
Wahrscheinlich wird diese CPU und ein SLI-System wohl Minimalstandard für 'Longhorn' und Office sein.
Für Gamer wird wohl ein Octa-Netburst der 350er Klasse sinnvoll sein, oder ?
[/Ironie]
 
Zuletzt bearbeitet:
Die 95Watt sind TDP. Real werden es um die 60Watt sein was für 2 Kerne nicht so viel ist vor allem bei 2,4GHz. Du kannst das auch nicht mit Intel vergleichen weil 95Watt bei Intel ca. 150Watt TDP bei AMD entsprechen. Ich denke jedoch dass selbst dann Intel noch arge Probleme haben wird auf 3GHz zu kommen in der Serienfertigung.
 
Bezieht sich das auf die TDP oder auf die Probleme bei der Serienfertigung.

Zur TDP ein paar Werte als Anhaltspunkt:

Newcastle real ca. 60Watt (bei 2 GHz) TDP 89Watt sind 50% mehr
Winchester real ca. 40Watt TDP 67Watt (bei 2 GHz) sind fast 70% mehr

Man kann also locker mit 50% bei Intel drauf rechnen oder eben 33% bei AMD weg.
 
Original geschrieben von Allfred
Das war noch nie eine Frage! Wer wirklich Rechenleistung braucht, weil bei ihm Rechenzeit echtes Geld darstellt - also ein Investitiongut - dem ist der Preis egal, weil
a) steuerlich akiviert
b) im Verkaufspeis umgelegt.

Einzig die Zocker werden mit schmerzverzerrten Gesicht gesichtet. :P


Natürlich ist das ne Frage des Geldes, die Entwicklung zielt doch auf den Mainstream Markt. Wem das Geld egal ist, der bekommt auch heute schon Rechenleistung, wo AMD mit seinen Popel-CPUS meilenweit von entfernt ist.
 
Original geschrieben von Talos
Natürlich ist das ne Frage des Geldes, die Entwicklung zielt doch auf den Mainstream Markt. Wem das Geld egal ist, der bekommt auch heute schon Rechenleistung, wo AMD mit seinen Popel-CPUS meilenweit von entfernt ist.
Ähm... und woher bekommt er die?
 
Original geschrieben von andr_gin
Bezieht sich das auf die TDP oder auf die Probleme bei der Serienfertigung.

Zur TDP ein paar Werte als Anhaltspunkt:

Newcastle real ca. 60Watt (bei 2 GHz) TDP 89Watt sind 50% mehr
Winchester real ca. 40Watt TDP 67Watt (bei 2 GHz) sind fast 70% mehr

Man kann also locker mit 50% bei Intel drauf rechnen oder eben 33% bei AMD weg.
Auch wenn es in gewissen Fällen stimmt, ist diese Verallgemeinerung nicht zulässig. Bei AMD ist es eine Gruppenangabe, die die maximale Belastbarkeit der Mainboardkomponenten sowie der Kühlung angibt, wobei dies nicht zwingend heißt, dass es einen Prozessor gibt der diesen Wert erreicht. Vor allem die niedriger getakteten Modelle liegen deutlich darunter. Die Topmodelle können vermutlich unter Labor-Bedingungen bis an die TDP Grenze gebracht werden. In der Praxis liegt man dann noch ein wenig darunter.
Bei Intel gibt die TDP mehr oder weniger den genauen Energieverbrauch des Prozessors an (ok, es gibt auch mehrere Modelle, die die gleiche TDP haben). Intel hat allerdings ein anderes Verständnis von TDP (ok, bei DEN Werten auch verständlich ;D ).
 
Musst du mal bei IBM gucken :o

Und wem das Geld egal ist, den interessieren auch keine Wattangaben oder Verlustleistungen .
 
Original geschrieben von Talos
Musst du mal bei IBM gucken :o

Und wem das Geld egal ist, den interessieren auch keine Wattangaben oder Verlustleistungen .

Das stimmt nicht.
Es wird schon eine niedrigere Verlustleistung angestrebt, der Earth Simulator z.B. in Japan hat einen immensen Verbrauch, da spielen schon die Stromkosten eine Rolle.
Unter anderem hängt davon auch die Betriebssicherheit von Computern ab.

uban
 
Original geschrieben von Registered
Jetz übertreibst aber schon arg


nein, er meitn das intels TDP auch das ist was die CPU's haben, bei AMD ist es das maximum.

siehe A64 clawhammer, hat als max 89W, aber ist real bei nichtmal 65W angekommen.
 
Original geschrieben von Talos
Musst du mal bei IBM gucken :o

Und wem das Geld egal ist, den interessieren auch keine Wattangaben oder Verlustleistungen .

Ob IBM jetzt stellvertretend für RISC CPUs steht stelle ich mal in Frage aber Wärmeentwicklung spielt schon einen Rolle. Die Racks müssen entprechend der BTUs bestückt werden und die Klimaanlage dimensioniert werden.
 
bin ich ja mal gepsannt ob die dann auf die regulären 939 Boards draufgehen werden........

wie z.B. mein Asus a8n sli
 
Original geschrieben von Talos
Musst du mal bei IBM gucken :o

Und wem das Geld egal ist, den interessieren auch keine Wattangaben oder Verlustleistungen .

Es geht hier außerdem nicht nur um den Energieverbrauch (der spielt hier zugegebenermaßen eine nicht so große Rolle) sondern um die Kühlung. Wenn Intel einfach zwei stinknormale Prescotts auf einen DIE packt dann wird sich die Verlustleistung je nach Modell zwischen 200 und 250Watt bewegen was so gut wie nicht mehr abgeführt werden kann erst recht nicht bei 65nm wo die Fläche wesentlich kleiner wird. Mit Luftkühlung ist da nichts mehr zu machen wenn man auch z.B. im Sommer bei 30Grad stabile Systeme liefern will. Mit einer Wasserkühlung würde schon mehr gehen aber das ist erstens nicht als Standardlösung zu realisieren und zweitens wird es auch hier ganz schön knapp weil es ja schon einmal ein großes Problem ist die Wärme überhaupt vom DIE zu schaffen. Außerdem gibt es (fast) niemandem für den der Preis eines Geräts keine Rolle spielt. Es gibt aber viele Firmen für die es wichtigere Kriterien gibt z.B. Ausfallssicherheit, Support etc. und die dafür auch gerne 1.000 Euro mehr zahlen für ihren Server wenn man nicht an jedem heißen Sommertag fürchten muss, dass alles steht. Da entstehen gleich Schäden von 100.000 Euro und mehr wenn die Buchhaltung von einem großen Betrieb ein paar Tage steht.
 
Da entstehen gleich Schäden von 100.000 Euro und mehr wenn die Buchhaltung von einem großen Betrieb ein paar Tage steht.

Was mal eher ne unwichtigere Abteilung und damit auch eher kostengünstig ist. Da wo es teuer wird laufen keine 32 Bit Intel CPUs...
 
Zurück
Oben Unten