"Red Storm" wird mit Quad-Core AMD Opterons aufgerüstet

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.368
Renomée
9.694
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Der in der letzten Top500-Liste auf Platz 6 geführte "Red Storm" Supercomputer Sandia National Laboratories wird nach einer Meldung von Cray auf eine Rechenleistung von 284 TeraFlops ausgebaut.

<blockquote>"This is another significant step in the evolution of this important system," said Peter Ungaro, president and CEO of Cray. "Initially a 40 teraflops machine, this is its second major upgrade, adding in Cray XT4(TM) technology to take Red Storm to seven times its original performance level. Cray's entire line of MPP systems is built to be uniquely expandable and upgradeable, and Sandia has substantially leveraged their original investment while achieving the Department of Energy's NNSA program's ambitious computational goals. This new performance level will allow researchers to tackle even larger computational problems including calculations that have never been successfully completed before."</blockquote>

Ab dem Sommer wird Cray dem System AMD Quad-Core Opterons hinzufügen, wobei "Red Storm" mit der angepeilten Leistung auf Platz 2 der momentanen Top500 vorrücken würde.

Damit verbliebe der momentan schnellste mit AMD Prozessoren ausgestattete Supercomputer als Reputation für High Performance Computing mit AMD, nachdem unbestätigten <a href="http://www.theinquirer.net/gb/inquirer/news/2008/01/29/amd-loses-largest-asia" target="b">Meldungen</a> zur Folge ein neuer Supercomputer auf Grund von Verzögerungen nicht mehr mit "Barcelona" Quad-Cores ausgestattet werden soll.

<b>Zur Pressemitteilung:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3504912#post3504912"> Cray and Sandia Announce Agreement to Upgrade "Red Storm" Supercomputer to 284 Teraflops</a>
 
Hi,

schöne Meldung an sich...wenn
Damit verbliebe der momentan schnellste mit AMD Prozessoren ausgestattete Supercomputer als Reputation für High Performance Computing mit AMD, nachdem unbestätigten Meldungen zur Folge ein neuer Supercomputer auf Grund von Verzögerungen nicht mehr mit "Barcelona" Quad-Cores ausgestattet werden soll.
...nicht wäre.

Greetz
neax;)
 
Aus zwei mach vier
das rat ich Dir ;)

Schön zu hören, dass es tatsächlich zum Austausch von Dual- durch Quad-Prozessoren kommen kann.
 
Naja, wenn Intel mit dem Nehalem um die Ecke kommt wird AMD erstmal das Nachsehen haben, d.h. die jüngeren Supercomputer werden dann sicher in erster Linie auf Nehalem-CPUs basieren.
 
Naja, wenn Intel mit dem Nehalem um die Ecke kommt wird AMD erstmal das Nachsehen haben, d.h. die jüngeren Supercomputer werden dann sicher in erster Linie auf Nehalem-CPUs basieren.

Vermutlich, denn dieses QPI/QuickPatchInterface ist rein technisch (auf dem Papier) leistungsfähiger als HT3.0. Wie im Artikel zu lesen ist, sind die Latenzen leider der Tod jeder MassPar Anwendung (MPI oder PVM/MPI). Wenn man den schicken Diagrammen, die Intel jüngst veröffentlicht hat, Glauben schenken darf, so ist QPI wesentlich flexibler zu handhaben als HT 3.0. Mehrere zentrale Chipsätze lassen sich bequem zusammenlegen, je nach Bedarf. Was auf einem Mainboard durch den Hersteller statisch gemacht werden kann, je nach Bedarf, könnte durch flexible Stecker dynamisch auch in einem Bladesystem zur Herstellung eines massiv parallelen Supercomputers realisiert werden, so wie man das ja bei AMD einmal mit dem gerade verstorbenen HTX Interface tun wollte. AMD hat immer sehr schicke Innovationen auf den Markt geworfen, leider haben andere, meist die Konkurrenz Intel, aber die nötige Weitsicht entwickelt, um diese Technik nutzen zu können.

Zur Zeit kann ein Phenom Cluster mit 16 oder 32 Kernen locker einen XEON Cluster mit ebensovielen CPUs ausbooten, Dank geringerer Speicherlatenzen und skalierendem Speicherdurchsatz (auch wenn der Durchsatz der Einzel-CPU bescheiden ist). Allerdings wird richtig in einer Bemerkung zum Artikel erwähnt, daß es sich hierbei um Prestigeobjekte handelt. Geld wird mit kleineren Servern (1 - 2 Sockel) verdient und hier ist Intel mitlerweile an AMD vorbeigezogen. QPI-basierte Nehalem-Systeme werden wohl die AMD-Feste vollends bis auf die Grundmauern erschüttern und weiteren großen Schaden anrichten - wenn nicht sogar dieselbigen zum Einsturz bringen.
Schade, schade. Mitlerweile muß man die Szene nicht mehr kennen müssen, um AMDs schlechte und niedergehende Position im High-End-Bereich erkennen zu können.
 
Das ist aber auch ein recht gutes Zeichen. Es sagt ja das man keinen neuen Supercomputer bauen muss sondern lohnend aufrüsten kann. Sonst würde es ja nicht gemacht. Und ich denke das auch kleine Server über die günstige Aufrüstoption nachdenken werden.

Morpheus
 
Vermutlich, denn dieses QPI/QuickPatchInterface ist rein technisch (auf dem Papier) leistungsfähiger als HT3.0.

Quick Patch Interface ;) Das hört sich eher nach Windows an. QPI steht für Quick Path Interconnect.

Wie im Artikel zu lesen ist, sind die Latenzen leider der Tod jeder MassPar Anwendung (MPI oder PVM/MPI). Wenn man den schicken Diagrammen, die Intel jüngst veröffentlicht hat, Glauben schenken darf, so ist QPI wesentlich flexibler zu handhaben als HT 3.0.

Ich denke da liegt das Problem, bis vor kurzem hatte Intel ja auch mal geplant QPI (das damals noch Common System Interface hieß) auch für Desktop CPUs zu verwenden. Das ist nun erst mal vom Tisch. Warten wir also erst mal ab wie sich QPI in der Praxis bewährt. Bis dahin sollten ja auch Opterons mit HT 3.0 auf dem Markt sein

Mehrere zentrale Chipsätze lassen sich bequem zusammenlegen, je nach Bedarf. Was auf einem Mainboard durch den Hersteller statisch gemacht werden kann, je nach Bedarf, könnte durch flexible Stecker dynamisch auch in einem Bladesystem zur Herstellung eines massiv parallelen Supercomputers realisiert werden, so wie man das ja bei AMD einmal mit dem gerade verstorbenen HTX Interface tun wollte.

HTX tot, wie kommst du darauf?

Allerdings wird richtig in einer Bemerkung zum Artikel erwähnt, daß es sich hierbei um Prestigeobjekte handelt. Geld wird mit kleineren Servern (1 - 2 Sockel) verdient und hier ist Intel mitlerweile an AMD vorbeigezogen.

Auch im Supercomputer-Bereich, lag Intel, was die Zahl der Systeme angeht, stets weit vor AMD. Das der Inquirer jetzt einen Dammbruch herbeiredet ist also etwas übertrieben.

Grüße
 
Quick Patch Interface ;) Das hört sich eher nach Windows an. QPI steht für Quick Path Interconnect.

Ups, Tipp- und Denkfehler, es war spät und mein Geist schon schwach ...


Ich denke da liegt das Problem, bis vor kurzem hatte Intel ja auch mal geplant QPI (das damals noch Common System Interface hieß) auch für Desktop CPUs zu verwenden. Das ist nun erst mal vom Tisch. Warten wir also erst mal ab wie sich QPI in der Praxis bewährt. Bis dahin sollten ja auch Opterons mit HT 3.0 auf dem Markt sein

Deine Aussage impliziert, daß QPI NICHT für den Desktop erscheinen wird. Den letzten meldungen zufolge aber wird mit den Nehalem-Prozessoren QPI Standard, also auch für den Desktop. Intel plant Ende 2008 erst die Einführung dieser Architektur für die Server (Xeon), dann für Frühjahr 2009 neue Desktop-Prozessoren. Haben die dann nicht QPI? Ich denke doch ...

HTX tot, wie kommst du darauf?

... weil Pathscale wohl als letztes Unternehmen, das HTX-Karten hergestellt hat (InfiniBand) die Weiterentwicklung dieser eingestellt hat. Ansonsten wird HTX nicht mehr auf neueren Mainboards im Midrange-Serverbereich angeboten und Coprozessorkarten gibt es ebenfalls kaum nennenswerte Produkte, die, wenn überhaupt, noch in Progression wären.


Auch im Supercomputer-Bereich, lag Intel, was die Zahl der Systeme angeht, stets weit vor AMD. Das der Inquirer jetzt einen Dammbruch herbeiredet ist also etwas übertrieben.

Grüße

Quantitativ magst Du recht haben. Allerdings war in den drei Hoch-Jahren des Opterons ein steter Anstieg der Opteron-Systeme zu verbuchen. Ich möchte nicht ins Horn des Inquirer stoßen, aber das einstige Alleinstellungsmerkmal AMDs, nämlich eine überragende, flexible und zukunftssichernde Architektur anbieten zu können, wird mit Intels Vorstoß bzw. Abkupfern dieses Konzeptes (und Verbesserung dessen) stark gefährdet, wenn nicht sogar gebrochen. HT ist, ob nun 2.0 oder 3.0, eine feine Sache, aber dieser Bus bedarf der Pflege, Weiterentwicklung, verbesserung etc. AMD ist zu spät mit HT 3.0 und, wie ich finde, wird diese Architektur nicht ausreichend konsequent genutzt, um ihre Leistungsfähigkeit unter Beweis zu setzen. Die bsiherigen Opteron auf K8-Basis litten darunter, bei mehr als vier Sockeln nicht über ausreichende HT Links zu verfügen, so daß eine CPU, die auf den Speicher der 'graphisch' am weitesten entfernten CPU zugreifen wollte, den Umweg über eine andere CPU nehmen mußte. Das hat man jetzt erst mit dem Phenom behoben. Aber: Faktisch ist Phenom bzw. Barcelona nicht funktionierend vorhanden und wenn AMD HT 3.0 und (vielleicht) einen funktionierenden Server-Chipsatz parat hat, wird es Ende 2008 bzw. Anfang 2009 - und dann steht die Konkurrenz in den Startlöchern und offeriert Besseres(?).
Du hast ja selber lesen können, daß man vielerorts anstelle AMD nun Intel vorzieht - wenn es darum geht, Neuanschaffungen zu tätigen. Es geht hierbei oft um dreistellige Millionenbeträge, gerechnet über einige Jahre, nicht um Kinderzimmer-PCs zum Spielen. AMD verliert den müsam, und zu recht, erfochtenen Boden nun schneller, als man ihn gewann. ich befürchte, in einem Punkt hat der Inquirer recht: AMD hat sich zu lange auf Lorbeeren ausgeruht und zu lange profite abgeschöpft, ohne an die Zukunft und Progression zu denken.
 
Aller Voraussicht nach setzen Desktop Prozessoren künftig auf das Direct Media Interface das Zur Zeit schon als MCH/ICH Link dient.

Siehe: http://www.heise.de/newsticker/meldung/101381/

Ich meine mich an diese Meldung erinnern zu können. Ich interpretiere dies so, daß Intel wohl im unteren Server- und oberen Desktopbereich zu einer 'Zweiklassen'-PC-Gesellschaft tendiert. Die 'besseren' Chips können QPI nutzen, die günstigeren Systeme verwenden weiterhin DMI.
Allerdings muß ich meine Gedanken revidieren, ähnlich wie bei AMD genießt die Nehalem-Architektur Vorteile durch den in die CPU integrierten Speicher-Controller, nebst den anderen genannten Funktionseinheiten.
An dieser stelle wird allerding auch wieder einmal deutlich, wie modern AMDs Design gegenüber Intels Silizium konzeptionell ist/war. Allerdings war das Ende der 80iger, Anfang 90iger Inmos mit einen Transputer-Chips und deren seriellem Interface auch.
 
...ähnlich wie bei AMD genießt die Nehalem-Architektur Vorteile durch den in die CPU integrierten Speicher-Controller...
Scheinbar müssen darauf die ersten Desktop Prozessoren wohl ebenso verzichten, wie auf das QuickPath Interface:

http://www.theinquirer.net/en/inqui...ther-integrated-or-external-memory-controller

Scheinbar plant Intel in alle Nehalem Ableger einen Controller für Fully Buffered DDR2/3-SDRAMs zu integerieren und anfangs nicht zweigleisig zugleich mit Unbuffered DDR3-SDRAMs fahren zu wollen. FB-DIMMs wäre jedoch im Desktopeinsatz verfehlt wegen der zusätzlichen Kosten für den Advanced Memory Buffer auf jedem Modul, den erhöhten Stromverbrauch durch diesen und allein durch den Punkt, dass die Speicherbandbreite völlig überdimensioniert wäre. Außerdem müsste Intel dadurch die Vielseitigkeit der Plattform opfern und sich vor allem die Mehreinnahmen nehmen lassen, die durch den separaten MCH zustande kommt, solange keine Single Chip Lösung in Sicht ist. Dem scheint Intel dadurch entgegentreten zu wollen, dass man den integrierten Speichercontroller des Nehalem bei den Desktop Modellen einfach brach liegen lässt. So grenzt man zugleich auch die Extreme Editions hervorragend von den konventionellen Desktop Modelle ab, die sich sicher mehr an den Workstation Ablegern orientieren werden, wie man schon jetzt an der Skulltrail Plattform sehen kann. Insofern ist es gut möglich, dass sich bei Intel auch mit dem Nehalem nicht soviel auf einmal an der Infrastruktur im Rechner ändert, wie vielleicht von manchen erhofft. Aber ich muss noch einmal darauf hinweisen. Das sind alles Spekulationen, genaues wird man erst wissen, wenn entsprechende Prozessoren am Markt sind.
..., die günstigeren Systeme verwenden weiterhin DMI.
Was heißt weiterhin. Der MCH/ICH Link soll den FrontSideBus ablösen. Das ist schon eine ganz schöne Umstrukturierung.
 
Zuletzt bearbeitet:
@ SPINA:

Es würde allerdings (die Umstrukturierung) langfristig Sinn machen. Intel ist ein Monster, was Kapital betrifft (in jeder Form). Allerdings kann ich mir nicht vorstellen, daß Chipzilla nicht ohne große Anstrengungen gegen AMD angeht (Preiskrieg, Entwicklungsschub/-druck). Wie man dem Artikel entnehmen kann, müssen nach Einführung der 45nm Chips die verbliebenen 65nm Fabrikationsanlagen ausgelastet werden - die Handhabung eines größeren logistischen Aufwandes und differenter Technikbasen (DMI/QPI etc) ist wohl günstiger als die instantane Ümrüstung der Fab(s). Nur ein Gedanke. Wir wissen, daß Intel 'alte' Technik ohne starken Konkurrenzdruck jahrelang verhökern kann.

Die wirtschaftlichen und profitablen Aspekte waren schon oft Tod des Besseren. AMD konnte seine 64Bit Erweiterung nur deshalb auf den Markt bringen, weil Intel zu sehr mit seiner Titanium-Todgeburt beschäftigt war. Und wenn AMD die Gunst der Stunde nicht genutzt hätte, wären wir heute wohl noch immer mit 32Bit Standardprozessoren 'gesegnet' - man braucht für Windows nicht mehr.

Was mich heute noch wundert ist, daß AMD zwar in fast allen Opteron und Athlon64 CPUs den HT 2.0 implementiert hat, bei Barcelona/Phenom aber auf eine verzögerte Umstellung setzte. Wäre es so viel teurer gewesen gleich alle HT-Links auf HT 3.0 zu setzen, sowohl als auch? Dann wäre es dem Computerhersteller überlassen gewesen, ob er zum alten Standard kompatible Hardware zur Aufrüstung bereithält oder gleich leistungsfähigere Maiboards inkl. CPU. Vorausgesetzt die Kosten sind identisch und AMD hat nicht schon viel früher vom TLB-Bug gewußt, der vielleicht auch mit einem schnelleren HT und vielen CPUs wesentlich schneller auftritt (dieses Szenario hat noch keiner in Betracht gezogen), wäre es gewiß ein Signal gewesen, was vielen Einkäufern Leistungsbewußtsein signalisiert hätte? Nun, wirre Spekulation.

Heute frage ich mich, ob das Patentaustauschabkommen mit Intel AMD nicht mehr geschadet als genutzt hat.
 
... Was mich heute noch wundert ist, daß AMD zwar in fast allen Opteron und Athlon64 CPUs den HT 2.0 implementiert hat, ...
Wo steht das? Ich kenne keinen Hinweis darauf.

... bei Barcelona/Phenom aber auf eine verzögerte Umstellung setzte. Wäre es so viel teurer gewesen gleich alle HT-Links auf HT 3.0 ...
Es scheint in der Tat verwirrend, wenn AMD auf der Serverseite HyperTransport 1.0 bei ihren K10 "Barcelona" auf die Fahnen schreibt ... aber mit gleichem Atemzug bei dem K10 "Phenom" HyperTransport 3.0 zubilligt.

... Heute frage ich mich, ob das Patentaustauschabkommen mit Intel AMD nicht mehr geschadet als genutzt hat.
Man kann darüber jammern wie man will ... abgesehen davon, dass Niemand die eigentlichen Details dazu kennt.

Das Patentaustauschabkommen ist die Geschäftsgrundlage von AMDs Prozessorengeschäft. Jeder Verdacht, AMD hätte kein Recht mehr x86-Prozessoren zu produzieren, oder der Verzicht auf x86-Kompatibilität, hätte AMD vermutlich sehr sicher das Genick gebrochen.

MFG Bobo(2008 )
 
Wo steht das? Ich kenne keinen Hinweis darauf.
Da herrscht oft Verwirrung. Folgt HT2000 nun dem HyperTransport 2.0 Standard oder noch den äteren 1.0 Spezifikationen?

Das HyperTransport Konsortium zitiert dazu einen AMD Mitarbeiter in einer Pressemitteilung wie folgt:
"HyperTransport technology is the backbone of AMD64 technology with Direct Connect Architecture," said Ben Williams, vice president for enterprise and server/workstation business for AMD's Computation Products Group. "It enables system designers to directly connect AMD64 processors with each other and to high-bandwidth I/O peripherals. The result is an efficient, extremely low latency, and balanced single platform architecture for high-performance systems. We will be implementing HyperTransport 2.0 technology in a range of AMD Opteron™ and AMD Athlon™ 64 processors, starting with the AMD Athlon 64 processors 3000+ and 3200+, which are available today."
Quelle: http://www.hypertransport.org/consortium/cons_pressrelease.cfm?RecordID=70

Ein Nachweis für HyperTransport 2.0 sind bei Servern wohl die HTX Slots, diese wurden erst mit der Neuauflage eingeführt.
 
Zuletzt bearbeitet:
Da herrscht oft Verwirrung. Folgt HT2000 nun dem HyperTransport 2.0 Standard oder noch den äteren 1.0 Spezifikationen?
Was ist HT? Was ist HT2000?

Ich kenne HyperTransport 2.0 und ich kenne Taktfrequenzen von 800 MHz im DDR-Verfahren, 1000 MHz im DDR-Verfahren.

Ich stimme dir zu, dass das verwirrend ist. ULi war seinerzeit sehr forsch mit HyperTransport 2.0 und der PR zum 1695-Chipsatz. Genau das bewarben sie seinerzeit.

Das HyperTransport Konsortium zitiert dazu einen AMD Mitarbeiter in einer Pressemitteilung wie folgt:Quelle: http://www.hypertransport.org/consortium/cons_pressrelease.cfm?RecordID=70

Ein Nachweis für HyperTransport 2.0 sind bei Servern wohl die HTX Slots, diese wurden erst mit der Neuauflage eingeführt.
Ja das kann man auch als Indiz für HyperTransport 2.0 nehmen... nur wo sind dann die damals angekündigten höheren Takfrequenzen von 2x 1.4 GHz abgeblieben?

Ich meine, dass damals die Spezifikationen auch bis 2x 2 GHz gingen. Die aktuellen PDFs listen dort interessanterweise die Version 2.0 Revision B auf ...

MFG Bobo(2008 )
 
Zurück
Oben Unten