Supercomputer mit 400 Intel Xeon CPUs in Paderborn

AMD-Hammer

Grand Admiral Special
Mitglied seit
05.10.2003
Beiträge
2.760
Renomée
123
Standort
Bornheim (Rheinland)
Am 21. Juni ist es soweit! Das Institut, Paderborn Center for Parallel Computing, der Universität in Paderborn, drückt dann den Startknopf für den mit über 400 Intel Xeon CPUs ausgestatteten Supercomputer. Dieser soll nach Angaben der Universität eine Rechenleistung von 2 TeraFlops/sek im Linkpack-Benchmark erreichen, was einer Rechenleistung von zwei Billiarden Rechenanweisungen pro Sekunde entspricht. Der Supercomputer mit dem Namen "hpcLine" von Fujitsu Siemens gehört damit zu den 500 schnellsten Rechnersystemen weltweit.

Die Prozessoren dieses Monsters sind mit Wasserkühlern versehen, um die enorme Abwärme in den Griff zu bekommen. Der Supercomputer ist ebenfalls mit den neuen PCIe Schnittstellen versehen, was ihn nicht nur als reines Rechenwerk, sondern auch als Spielerechner eignen sollte. Allerdings ist es unwahrscheinlich, dass sich jemals Spiele auf diesen Rechner verirren werden, da seine Einsatzgebiete die Optimierung von robusten störungsfalltoleranten Planungen in der Informatik, die Erforschung amorpher Halbleiter, Gläser und Keramik, sowie die Simulation chemischer Prozesse sein sollen.

<b>Links zum Thema:</b>
<a href="http://www.pressetext.de/pte.mc?pte=050615050" target="b">Pressemitteilung</a>
<a href="http://wwwcs.uni-paderborn.de/pc2/" target="b">Homepage der Universität Paderborn</a>
 
AMD-Hammer schrieb:
aus diesem Posting

Am 21. Juni ist es soweit! Das Institut, Paderborn Center for Parallel Computing, der Universität in Paderborn, drückt dann den Startknopf für den mit über 400 Intel Xeon CPUs ausgestatteten Supercomputer. Dieser soll nach Angaben der Universität eine Rechenleistung von 2 TeraFlops/sek im Linkpack-Benchmark erreichen, was einer Rechenleistung von zwei Billiarden Rechnenanweisungen pro Sekunde. Der Supercomputer mit dem Namen "hpcLine" von Fujitsu Siemens gehört damit zu den weltweit 500 schnellsten Rechnensystemen.
Die Prozessoren dieses Monsters sind mit Wasserkühlern versehen um die enorme Abwärme in den Griff zu bekommen. Der Supercomputer ist ebenfalls mit dem neuen PCIe Schnittstellen versehen, was ihn nicht nur als reines Rechenwerk sondern auch als Spielerechner eignen sollte. Allerdings ist es unwahrscheinlich, dass sich jemals Spiele auf diesen Rechner verirren werden, da seine Einsatzgebiete die Optimierung von robusten störungsfalltolernaten Planungen in der Informatik, die Erforschung amorpher Halbleiter, Gläser und Keramik sowie die Simulation chemischer Prozesse seien sollen.

<b>Links zum Thema:</b>
<a href="http://www.pressetext.de/pte.mc?pte=050615050">Pressemitteillung</a>
<a href="http://wwwcs.uni-paderborn.de/pc2/">Homepage der Univeristät Paderborn</a>

Wahrscheinlich renovieren die grad ihre Gebäude und haben sich jetzt nach einer möglichst starken Heizmöglichkeit umgeschaut... jetzt können sie die Zimmer gleich mit der CPU Abwärme beheizen. Im Winter wenigstens, wies im Sommer aussehen soll, ist mir n Rätsel.

Könnte mir vorstellen, dass die Kühlprobleme bekommen.. die müssen ja riesen Raids haben^^

cya
 
ne, das is die versorgungseinheit für die mensa. die abwärme wird direkt in den backofen umgeleitet, bzw die auf 19" breite normierte backbleche in die racks eingeschoben ;D
 
Compute and Visualization Cluster,
400 processors 64-bit Intel Xeon,
16 processors 64-bit AMD Opteron,
8 nVidia Quadro FX 4400 PCI-e,
2.6 TFLOPS peak performance,
900 GByte DDR-2 main memory

;D

um genau zu sein ...
 
BLJ schrieb:
aus diesem Posting

Wahrscheinlich renovieren die grad ihre Gebäude und haben sich jetzt nach einer möglichst starken Heizmöglichkeit umgeschaut... jetzt können sie die Zimmer gleich mit der CPU Abwärme beheizen. Im Winter wenigstens, wies im Sommer aussehen soll, ist mir n Rätsel.

Könnte mir vorstellen, dass die Kühlprobleme bekommen.. die müssen ja riesen Raids haben^^

cya

erst lesen dann schreiben : die CPU`s werden WASSERGEKÜHLT

aber ist ja einfacher sobald irgendwo Intel steht einfach draufloszublubbern ... *gääähn*
 
Und für was sind jetzt die Opterons zuständig? Bestimmt für die Datenverteilung auf die verschiedenen Xeon's... Da sieht man mal, wer der Hahn im Stall ist ;)
 
dualXPlosion schrieb:
aus diesem Posting

erst lesen dann schreiben : die CPU`s werden WASSERGEKÜHLT

aber ist ja einfacher sobald irgendwo Intel steht einfach draufloszublubbern ... *gääähn*
... und was fließt durch ne Heizung?????????? ;)
 
intel dominiert afaik die top500 der supercomputer ohnehin. von daher ist die meldung sicher keine sensation ;)

http://www.heise.de/ct/04/24/022/default.shtml

Top-Finish
Spannendes Finale bei der 24ten Top500-Liste der Supercomputer

So spannend war der Endlauf bei der traditionellen Top500-Liste - präsentiert auf der SC2004 in Pittsburgh - wohl noch nie: Auf der Zielgeraden überspurtete IBM doch noch den Rivalen Intel mit einem in höchster Eile aus über 32 000 Prozessoren zusammengesetzten BlueGene/L-System.


...

Xeon-Power

Intel muss sich aber nicht grämen, denn trotz IBMs Prestigeerfolg dominiert der Prozessorhersteller inzwischen klar die Top500-Welt der Supercomputer: Waren im November 2000 gerade mal elf Systeme mit Intel-Prozessoren in der Liste verzeichnet, so sind es jetzt überwältigende 318, das sind 64 Prozent aller Systeme. In Performance ausgedrückt ist die Dominanz kaum weniger erschlagend: 55 Prozent der Top500-Gesamtleistung erbringen Intel-Prozessoren. Den Löwenanteil halten hierbei mit 232 Installationen allerdings nicht die dicken Itanium-Systeme, sondern größere Xeon-Cluster, die sich vor 84 Itanium-Kollegen behaupten konnten.

Die aggregierte Leistung aller Rechner in der Top500-Liste überschritt mit 1127 TeraFlop/s jetzt erstmalig die PetaFlop/s-Schwelle mit einer Steigerung von 38 Prozent gegenüber der Juni-Liste mit 815 TeraFlop/s. Das ist die übliche halbjährliche Steigerungsquote, quasi das Mooresche Gesetz der Supercomputer. Die Einstiegsleistung - also die Leistung des Systems auf Platz 500 - wuchs dabei in ähnlicher Größenordnung von 624 auf 850 GigaFlop/s. AMDs Opterons konnten sich gegen die Intel-Attacke nicht ganz behaupten, die Anzahl der damit bestückten Supercomputer in der Liste fiel von 34 auf 31 Systeme zurück. IBM Power/PowerPC mit 62 (Juni: 77) und HP-PARISC/Alpha mit 50 (Juni: 57) Rechnern mussten gegenüber Intel ebenfalls Rückschläge einstecken.

IBM dominiert allerdings weiterhin als Systemhaus - schließlich liefert IBM neben Power- auch zahlreiche Xeon- und Itanium-Server. Mit 216 Rechnern und 50 Prozent (557 TeraFlop/s) der Leistung liegt Big Blue deutlich an der Spitze, gefolgt von Hewlett-Packard mit 173 Rechnern und 21 Prozent der Leistung. Die restlichen Computer verteilen sich auf 25 Hersteller, bei denen SGI mit 20, Dell mit 14, NEC mit zwölf und Linux Networks mit elf Systemen vertreten sind.
 
Bisschen sinnfrei ist das schon einen Rechner mit derartigen Ausmassen mit Wasser zu kuehlen, wer will das warten?

Warum nehmen die denn keine CPUs die weniger Strom verbrauchen, scheinbar ist das Cluster genauso gut wie das Paderborner Bier. *drooling*
 
menno, dann ist wieder stromausfall hier in HH weil die 400 dinger das AK komplett leersaugen.... ;D
 
dualXPlosion schrieb:
aus diesem Posting

erst lesen dann schreiben : die CPU`s werden WASSERGEKÜHLT

aber ist ja einfacher sobald irgendwo Intel steht einfach draufloszublubbern ... *gääähn*


lül. Wie schon gesagt: Was fliesst denn durch Heizelemente?

Was 'fliegt' durch den Radi?

Was sind das überhaupt so für dinger da im Zimmer wo jeweils das "wissen wir nicht genau" durchfliesst und das Zimmer erwämen?

nicht etwa Radiatoren, die die Wärme des Heizwasser abgeben?

aber wahrscheinlich gibt's heute einfach zu viele Kiddies die in der sponge-bob unterwasserwelt leben, und du hast gedacht, ich würde das Wasser gleich so innen Raum leiten, oder wie?^^

ach egal...

zuerst lesen, dann überlegen, dann posten. V.a. wenn man andere leute anmachen will^^

cya
 
Architecture of the ARMINIUS cluster


* System Configuration
o 400 processors 64-bit INTEL Xeon
o 16 processors AMD Opteron
o 2.6 TFLOPS peak performance
o 900 GByte main memory
* Compute Node Configuration (200 nodes)
o Dual INTEL Xeon 3.2 GHZ EM64T
o 4 GByte main memory
o 80 GByte local disk
o InfiniBand HCA PCI-e
* Visualization Node Configuration (8 nodes)
o Dual AMD Opteron 2.2 GHz AMD64
o 8 GByte main memory
o nVidia Quadro FX 4500 PCI-e
o InfiniBand HCA PCI-e
* Infiniband Switch Fabric Configuration
o 216 port InfinIO 9200
* Disk Storage Configuration
o 5 TByte Fibre Channel RAID
o 10 TByte parallel file system
* Software Configuration
o 64-bit Linux Redhat AS 4
o GNU Tools
o INTEL Compiler C/C++, Fortran
o Message Passing Interfaces
+ Scali MPI-Connect
+ NCSA MPICH-vmi
+ OSU MvAPICH
+ INTEL MPI
o Scientific libraries
+ INTEL MKL
+ ATLAS
+ Goto Lib
o Scientific Visualization
+ AMIRA
steht alles auf der homepage der paderborner :)
 
finde den rechenr auch ein bischen nutzlos
wer zahlt denn dafür überhaupt?


das pcie in den news ist auch sinnlos
da es wohl wirklich in keinster weise auf diesen ankommt um schneller zu rechen oder sonst irgendwas

das ist wie wenn man sagen würde: michaela schaffrath kann schön schreiben :D
 
warum haben die nich einfach auf die neue playstation 3 gewartet?...soll die nich auch eine rechenleistung von 2 teraflops/sek haben????!!! 8) *mal fragend in die runde guck*
Die hat zwar kein PCIe...aber mit der kann man mit sicherheit auch zocken ;D
 
Das bezahlt größtenteils FSC (als Werbesponsoring, die Uni hätte eh kein Geld dafür über), und deswegen stehen da keine PS3, ganz einfach.
 
Die PS3 würde im Linpack niemals 2 Teraflop pro Sekunde schaffen.

Es ist ein riesiger Unterschied, ob man über die theoretisch maximale Rechenleistung spricht, das ist einfach nur was durch die Ausführungseinheiten geht. Da dürfte der Opteron in dem System bei 2.2GHz auch 6.6GFlop machen, die Graphikkarten mit teilweise über 100GFlop stünden auch ziemlich gut da (wenn man SSE2 oder 3DNow mit einrechnet, kommt der Opteron auch deutlich höher).

Die Frage ist, was davon in der Praxis übrig bleibt. Und da kann man solche Architekturen wie GPUs oder auch die PS3 nicht gebrauchen, weil man damit nicht das rechnen kann, was man will - nicht, ohne massenweise Leistung zu verschenken. GPUs sind extrem auf Graphik ausgelegt und bei fast allen anderen Dingen nicht wirklich zu gebrauchen, bei der PS3 sieht es nicht viel anders aus - da wird bei Graphik noch vergleichsweise wenig Leistung verschenkt.

Ergo machen sich CPUs da einfach am besten, weil die bei vielen Anforderungsprofilen hohe Leistung liefern. Und desswegen gibts da auch einen Linpack Benchmark, über den die Rechenleistung ermittelt wird.
 
gut gut....aber der cell prozessor ist keine gpu, sondern eine cpu wie der xenon auch...man kann ihn auch für allgemeine rechenleistungen heranziehen, sowie die playstation ja auch generell in der lage ist auch andere dinge zu vollziehen als nur konsolenspiele auf einen bildschirm zu generieren. und wen mich mein gedächtnis nicht täuscht, dann gibt es sogar auch rechencluster, die auf playstion2,s basieren (weil sie so vergleichsweise billig sind).
ich will damit ja auch garnet behaupten das die playstation 3 nun so schnell sei wie ein superrechner, aber es zeigt doch auch, welch maßloses marketinggeklingel bei derartigen zahlen hintersteckt....und bisher wurde da auch nicht sonderlich kritisch drauf eingegangen.
 
Der Cell ist eben nicht mit normalen CPUs vergleichbar, es gibt haufenweise Sachen die man mit dem Cell nicht oder nur sehr langsam machen kann. Die PS3 bezieht ihre Leistung bei den normalen Sachen wahrscheinlich vorwiegend aus den Power Kernen der Cells, nicht aus den SPUs.

Und die PS2 ist eine völlig andere Architektur, die hat rein garnix mit der PS3 gemeinsam. In der PS2 sitzt auch noch eine normale CPU drinnen.
 
ich glaub nicht das du jetzt schon sagen kannst was ein cell prozzi vermag oder auch nicht.....es sei den du hast einen direkten draht zur ibm-entwicklungsabteilung. außerdem paßt deine these auch überhaupt nicht zur meldung, das mit der ps3 ein vorinstalliertes linux mit ausgeliefert werden soll. wenn das stimmt, dann ist der cell auch eine vollwertige cpu, den mir ist noch nicht zu ohren gekommen, das jemand mit nem geforce oder radeon chip ein betriebssystem angefeuert hätte.... :-*
http://www.infoweek.ch/news/NW_single.cfm?news_ID=11065&sid=0
http://www.golem.de/showhigh2.php?file=/0503/37222.html&wort[]=playstation&wort[]=linux
 
Guck dir den Cell-Thread an, da haben wir ausführlich über das Desing vom Cell diskutiert.

Der Cell besitzt einen abgespeckten Power-Kern (der SMT kann, Heise hat desswegen fälschlicherweise von 2 Kernen gesprochen) und viele kleine SPUs (Anzahl variabel). Der Power Kern ist für die normalen Sachen zuständig, die SPUs (ansich nur eine überdimensionale Recheneinheit) bekommen kleine Instruktionsblöcke (Apulets genannt).
Die hohe Rechenleistung auf dem Papier ergibt sich durch die SPUs, der Power Kern selbst hat nur eine moderate Rechenleistung. Das Problem ist, dass die SPUs keine vollwertigen CPUs sind - also alles was irgendwie mit komplizierteren Bedingungen zusammenhängt muss vom Power Kern erledigt werden, dummerweise ist es von da aus ein ziemlich langer Weg zu den SPUs - also mal eben den Power Kern fragen geht auch nicht.
Dann gibts noch diverse Einschränkungen durch das Timing der SPUs, das ist nötig damit spätere (schnellere) Cells die geschriebenen Programme ohne Modifikation ausführen können.

Viel ausführlicher im Cell Thread. Ich denk mir das aber nicht einfach aus, sondern hab schon meine Gründe für meine Meinung ;).
Wenn du den Cell mit bereits existierenden Sachen beschreiben wolltest: Viele kleine VPUs (Vektorprozzis), und eine CPU die den VPUs sagt, was diese rechnen sollen. Zusätzlich allerdings mit einigen Einschränkungen.

Der Cell ist sehr gut geeignet für parallele Datenverarbeitung, wo einfache Algorithmen auf riesige Datenmengen angewendet werden müssen (auch der Bereich in dem VPUs zum Einsatz kommen - früher bestanden übrigens ganze Superrechner aus so in der Größenordnung von 8 VPUs, die teilweise andere Systeme mit 1000 CPUs weit hinter sich ließen). Wird es aber ein kleinwenig dynamisch (und dynamischer als im Desktop-Bereich gehts kaum) verliert der Cell massiv an Leistung.

Der Unterschied zwischen dem Cell und einer VPU ist der Preis: VPUs sind riesige Dinger (mal was banales: Die aktuellen von NEC haben ~5000 Pins) die aus einem Guss sind. Da sitzen auch riesige Register auf dem DIE (so in der Größenordnung von 10 bis 100 mal so breit wie beim x86er), und die Speicheranbindung ist auch nicht ohne (40GB/s sind kein Problem).

Der Cell ist dynamisch aufgebaut (man kann 2, aber auch 8 SPUs anbauen) und setzt auch wesentlich billigere Technologien. Dazu ist die Rechenleistung bei dynamischen Sachen höher (aber soviel höher nicht, an eine CPU kommt's bei weitem nicht ran). Und desswegen ist der Cell deutlich billiger.

Du könntest in eine PS3 wahrscheinlich auch 3 VPUs stopfen, wäre im Endeffekt wahrscheinlich nicht so viel anders - nur um Dimensionen teurer.
 
Zu den NEC Vektor Prozessoren habe ich noch eine kleine Ergänzung: AFAIK benötigt solch ein Rechencluster immer zusätzlich ein Front End System mit normalen CPUs, wie z.B. der neue Cluster am HLRS:
http://www.hlrs.de/hw-access/platforms/sx8/
Und auch der Vorgänger dieses Systems (hatte noch den SX6? Prozessor) am HLRS hatte ein Itanium 2 Frontend.

Auf alle Fälle scheinen die Profis nicht davon überzeugt zu sein, dass bald der billige Cell die Wunderwaffe gegen alles wird. Sonst würde man nicht überall solche "Wuchercluster" bauen.
 
ohje, jetzt wirds kompliziert.....wenngleich ich nicht soviel ahnung habe um da jetzt adäquat zu reagieren. aber halten wir mal fest was ich verstanden habe: der cell prozessor IST eine cpu, aber keine cpu mit 8 gleichwertigen kernen. eher vergleichbar wie ein orchester: ein dirigent, und lauter kleine musiker die machen was der dirigent vorgibt. es ging ja auch garnicht um die frage ob der cell nun ein 8 core prozzi sei, und ob er unter allen bedingungen die 2 teraflops schafft. aber ist das bei superrechner überhaupt notwendig??! der earth simulator wurde auch nur gebaut um wetter oder erdbebenprognosen? zu erstellen...also im grunde sehr spezielle rechenoperationen....
 
Naja, nicht ganz so.

Der Vergleich wird zwar etwas blöd, passt aber recht gut: Stell dir vor, eine normale CPU ist ein Durchschnittsbürger mit IQ 100, der mit allen Problemstellungen gleich gut zurrechtkommt.
Der Cell besteht dann aus einem Chef, der zwar auch alles kann, aber nur einen IQ von 60 hat (-> deutlich langsamer ist). Dafür hat der Chef noch bis zu 8 Mathematiker-Fachidioten an der Hand, die zwar super kopfrechnen können (in dem Bereich einen IQ von 130), sich dafür aber bei allen anderen Sachen nicht zurrechtfinden (müssen immer erst den Chef fragen - der muss denen auch erst sagen was gerechnet werden soll).

Wenn der Chef den Mathematikern nur 1mal sagen muss, was diese tun sollen (zB. immer auf die ankommenden Werte 10 draufrechnen, das mit 23 multiplizieren und das Ergebnis mit 2.345 potenzieren) läuft die Sache recht effizient ab. Der Chef muss von nun an nur noch die Daten zu den Mathematikern schaffen, und die Ergebnisse abholen (lastet den Chef auch ganz gut aus).

Wenn aber immer was anderes gerechnet werden muss, darf der Chef jedem jedesmal neu erklären was er eigentlich tun muss - und bei Fachidioten kann das eine Weile dauern. In dem Fall läuft die Sache extrem lahm ab, da wäre der Durchschnittsbürger mit IQ 100 viel schneller (muss nicht erst zu den Mathematikern laufen und denen das erklären, sondern kann die paar Rechnungen selbst in angemessener Geschwindigkeit machen).

Und wie so oft: Zuviele Köche verderben den Brei, also 2 Mathematiker können nicht an der selben Aufgabe rechnen - immer nur einer. Und natürlich existiert auch ein Schichtsystem - neue Daten werden nur alle 4 Stunden geliefert, und da werden auch die Ergebnisse abgeholt. Ist ein Mathematiker nach 2 Stunden fertig, hat er die nächsten 2 Stunden nix zu tun - auch wenn sich der Chef vor zu berechnenden Daten nicht mehr retten kann.


Der Cell ist aber auch nicht auf ein Aufgabengebiet zugeschnitten, sondern soll in sehr vielen Bereichen als Billigchip zum Einsatz kommen. Beispiele wären da DVD Player und so weiter - das sind zwar keine idealen Arbeitsbedingungen, aber ein Video abzuspielen ist ja auch nicht so schwierig, das schafft man trotz der hohen Leistungseinbußen durch die nicht passenden Anforderungen.


E: So ganz passt die Sache noch nicht. Im mathematischen Bereich soll der Chef mal einen IQ von 33 haben, dann dürfte es besser hinkommen.
 
so wie du das darstellst müßte man glauben sony hätte ein auto mit 5 rädern gebaut...das eine 400 euro konsole wohl kaum eine rechenleistung wie ein millionenteurer superrechner haben kann, das wird trotz marketinggedöns wohl jedem einleuchten. aber irgendwie müssen die 2 teraflops doch auch zustandekommen. so wie du es darstellst bräuchte der cell 8 powerpc einheiten die den 8 spu,s zur seite stünden damit die leistung entfaltet werden kann. aber das wäre dann ja so als würde ich behaupten: ich bin millionär....wenn ich eine million hätt...oder halt: der cell kann 2 teraflops, wenn er anders aufgebaut wäre wie er eigentlich ist. ich konnte in allen artikeln aber einhellig lesen: uii..toll...ps3 doppelt so schnell wie xbox..das is der knüller. das is wirklich sehr verwirrend das ganze *noahnung*
 
Zurück
Oben Unten