Optimierte MilkyWay@home Applikation

Jungs ich habe hier im Forum mal was von ner App gelesen die auf ATI Karten läuft gibts da was genaueres dazu wollte jetzt nicht den ganzen Thread lesen...
Die letzten 2 Seiten oder so würden vielleicht reichen :P

Ja, die gibt es als Testprojekt für 3800er und 4800er Serien. Ist sozusagen noch im Alpha-Stadium, aber läuft zumindest inzwischen ganz passabel, solange man nicht GPU-Z startet *noahnung*
Wegen dem Testcharakter, gibt es die erstmal auch nur für 64Bit Windows. Außer der Freude über die schnell durchrauschenden WUs ist die für creditorientierte Crunch3r *buck* (noch?) nicht geignet, da durch die verschiedenen Limits bei MW die Credits wirklich lausig sind (man bekommt nur 0,27credits/WU oder so mit einer HD4870, mit der offiziellen App für die gleiche WU um die 27 credits/WU, außerdem nur 300WUs pro Tag und Kern, macht also bei einem Quad ein bißchen über 300 credits am Tag *buck*).
Dann hat MW gerade neue WU-Typen eingeführt, die die GPU-App noch nicht kennt, die werden momentan noch konventionell auf der CPU berechnet.

Aber dank Emploi kann jeder einen Eindruck vom Speed bekommen.
 
Ich habe es unter WIn 7 beta 64 mit einer Radeon 4670 versucht. Hat leider nicht geklappt. Die WUs wurden mit Fehlermeldung abgebrochen.
Bonic Manager ist auch 64 bit.
Schade.
Aber trotzdem eine Spitzenleistung die Gipsel hier abliefert.*great*
 
es geht langsam voran mit AMD/ATI Boinc (siehe http://forums.amd.com/devforum/messageview.cfm?catid=328&threadid=107681&enterthread=y )

kleine Frage an Gipsel:
sollten die ATI Radeon 46xxer nicht mittels Software (etwas langsamer aber schneller als CPU) auch Double-Preci schaffen - nVIDIA machts doch teilw. auch so?

intern können die ATIs der 4xxxer doch alle mit 128Bit Float rechnen - also auch 64 Double-Preci; auch wenn letzteres softwareseitig (BIOS undoder Treiber) deaktiviert wurde ?
 
Ich habe es unter WIn 7 beta 64 mit einer Radeon 4670 versucht. Hat leider nicht geklappt. Die WUs wurden mit Fehlermeldung abgebrochen.
Bonic Manager ist auch 64 bit.
Schade.
Aber trotzdem eine Spitzenleistung die Gipsel hier abliefert.*great*
Wenn Du magst, dann probiers mal spasseshalber mit den alten CAL Libraries:
http://ati.amd.com/technology/streamcomputing/sdkdwnld_previous.html

1.2.1 oder 1.1 sollte genügen, da ist die 4670 laut AMD Entwickler noch nicht dabei.
Einfach runterladen, installieren (dabei das Verzeichnis nicht in den SuchPfad aufnehmen lassen (ist ja nur zum testen), und dann die amdcal*.dlls in das Verzeichnis mit gipsels GPU App kopieren.
Wenn Du noch sicher gehen willst, dass die 8.12 CAL.dlls wirklich nicht genommen werden, dann benenne die noch zeitweise um, oder kopier sie in ein Verzeichnis außerhalb des Suchpfad um.

Ist nur ne vage Vermutung, dass das an CAL liegen könnte, vielleicht liegts auch am Treiber selbst, aber ich würde es mal interessehalber probieren :)

ciao

Alex
 
Gibt es denn aktuell noch WUs die mit Gipsels GPU App. berechnet werden können?

Aah, dann weiß ich, was da schief läuft. Schau mal in die Task details von so einer langsamen WU. Die werden auf der CPU berechnet. Die sind momentan noch nicht kompatibel mit der App. Die hatte ich erstmal weggelassen, da es bisher keine WUs mit mehr als einem Stream gab.
Dann muß ich wohl nochmal an den GPU-Code ran :-[

Das ausprobieren sollte kein Problem sein da ich Win 7 als Testplattform auf einer separaten Festplatte installiert habe.
 
Ich habe jetzt die letzten 5 Seiten überflogen aber kein Hinweis auf Test WUs gefunden. Wo finde ich die?
 
So neue Version rein ,alte hat immer mit Anzeigetreibern abgebrochen und es läuft halbwegs ;D 5-9Sekunden aber iwie baur er grad Humburg mal gucken :]
So Problem da die GPU rechnet nimmer -.-
Auch nach Boinc neustart .
 
Zuletzt bearbeitet:
So neue Version rein ,alte hat immer mit Anzeigetreibern abgebrochen und es läuft halbwegs ;D 5-9Sekunden aber iwie baur er grad Humburg mal gucken :]
So Problem da die GPU rechnet nimmer -.-
Auch nach Boinc neustart .

Das dürfte daran liegen das es keine passende WUs für die GPU App. gibt.
Für mich Laien ist das hier zu kompliziert.:-[
Ich müsste jetzt wieder Fragen wo ich den source-code runter laden kann um an die Test-WUs zu kommen.
Die alten CAL Libraries (Opteron) sind installiert aber ich gebe zu das mich das überfordert.
 
Das dürfte daran liegen das es keine passende WUs für die GPU App. gibt.
Für mich Laien ist das hier zu kompliziert.:-[
Ich müsste jetzt wieder Fragen wo ich den source-code runter laden kann um an die Test-WUs zu kommen.
Die alten CAL Libraries (Opteron) sind installiert aber ich gebe zu das mich das überfordert.
Test Wus gibts hier:
http://milkyway.cs.rpi.edu/milkyway/download/code_release/

Die CAL DLLs sollten direkt ins F@H Verzeichnis kopiert werden.

Schnapp Dir irgendein zip file, die WUs sind im Unterverzeichnis:
milkyway_release_0.11.zip\milkyway\bin\test_files

Aber wenn Du Dich nicht soo gut auskennst, musst Dus nicht machen, wahrscheinlich bringts ja eh nix, dachte nur es wäre mal interessant, es auf die Schnelle zu probieren. :)

ciao

Alex
 
Ich habe es nun noch mal versucht.
Ergebniss:
-mit den alten CAL Libraries die Test WUs mit Client error abgebrochen
-mit neuen 9.1 CAL Treibern die Test WUs mit Client error abgebrochen

siehe hier

<core_client_version>6.4.5</core_client_version>
<![CDATA[
<message>
Unzul?ssige Funktion. (0x1) - exit code 1 (0x1)
</message>
<stderr_txt>
7 Stream Allocation : Double precision not supported on underlying hardware
Stream Allocation : Failed to create buffer
Stream Allocation : Double precision not supported on underlying hardware
Stream Allocation : Failed to create buffe

Aber mit den neuen 9.1 Cat Treibern hat sich beim Boinc Manager was geändert.

29.01.2009 18:28:58||Starting BOINC client version 6.4.5 for windows_x86_64
29.01.2009 18:28:58||log flags: task, file_xfer, sched_ops
29.01.2009 18:28:58||Libraries: libcurl/7.19.0 OpenSSL/0.9.8i zlib/1.2.3
29.01.2009 18:28:58||Data directory: C:\ProgramData\BOINC
29.01.2009 18:28:58||Running under account Windows7

Für mich bedeutet das dann erstmal das meine Grafikkarte leider nicht unterstützt wird.

Edit: Ich sehe gerade das diese Meldung schon mit Cat 8.12 angezeigt wird.
 
Zuletzt bearbeitet:
kleine Frage an Gipsel:
sollten die ATI Radeon 46xxer nicht mittels Software (etwas langsamer aber schneller als CPU) auch Double-Preci schaffen - nVIDIA machts doch teilw. auch so?

intern können die ATIs der 4xxxer doch alle mit 128Bit Float rechnen - also auch 64 Double-Preci; auch wenn letzteres softwareseitig (BIOS undoder Treiber) deaktiviert wurde ?
Ganz so einfach ist das leider nicht, da normalerweise schon in 32Bit-Paketen (singles) gerechnet wird. Die Verschaltung von vier einzelnen 32Bit Einheiten zu einer (MAD, MUL) oder zwei (ADDs) 64Bit Einheiten ist ein wenig aufwendiger, da die Operationen deutlich über die Grenzen von 32Bit-Paketen hinweg ausgeführt werden müssen. Das softwaremäßig zu emulieren erfordert ein Multipass-Verfahren, das höchstwahrscheinlich grottenlahm ist. Bei bestimmten Sachen wüßte ich auch erstmal gar nicht, wie man die überhaupt halbwegs effizient umsetzt. Wenn das gut gehen würde, hätte nVidia das ja beim GT200 mit den 240 skalaren 32Bit-Einheiten gemacht und keine 30 extra double Einheiten eingebaut. Das Thema hatten wir hier schon mal kurz.

Und was das Austauschen der CAL libraries angeht, so würde ich da meine Hoffnung eher auf eine neue Version setzen, als auf ältere. Die mit dem Cat 8.12 ausgelieferte Version kennt ja die HD4670 schon und erzeugt auch Code dafür, obwohl das offiziell noch nicht supported ist (und es auch nicht läuft). Aber ich glaube irgendwo eine Ankündigung gelesen zu haben, daß die RV730 von einer späteren Version des Stream SDK (und dem dazugehörigem Cat 9.x mit den entsprechenden CAL Bibliotheken) unterstützt werden soll. Also vielleicht läuft es mit zukünftigen Versionen.
.
EDIT :
.

Gibt es denn aktuell noch WUs die mit Gipsels GPU App. berechnet werden können?
Gerade mal geschaut, also heute waren etwas mehr als die Hälfte noch kompatible WUs für die GPU-App. Aber keine Ahnung, wie sich das in Zukunft entwickelt. Werde die App bei Gelegenheit mal anpassen, daß die auch die neuen WUs auf der GraKa rechnet.
 
also die CAL Version 1.3.158 ausm 9.1 Catalyst reicht noch nicht für die 46XXer für DB; evtl. CAL 1.4.x wenns überhaupt noch kommt (wegen alles auf OpenCL & DX11)
 
Die App läuft immer noch, auch mit aktuellen WU... (Außer den o.g. Ausnahmen)


(neues Video)
 
Die App läuft immer noch, auch mit aktuellen WU... (Außer den o.g. Ausnahmen)


(neues Video)
Es betrifft wie gesagt nur die WUs mit mehr als einem Stream. Aber Ich denke übers Wochenende rüste ich das nach. Ich habe schon bei Travis mal angefragt, mit wie vielen Streams man denn maximal rechnen muß.

Zu dem Video: Nett, bißchen mehr Werbung als das erste, oder? ;)

Falls irgendwer hier ein Triple Crossfire mit 4870ern laufen hat (oder gar drei oder vier 4870X2 in einem Board hat *buck*, also im Prinzip die Kiste von der Startseite von GPUGrid, nur mit vier 4870X2s) würde ich mir sogar mal anschauen, wie man das Scheduling auf mehrere GPUs ausdehnt.

4 x 4870X2 = 8 GPUs = 6400(!) Streamcores = 1280 VLIW Einheiten = 1,92 TFlops double precision Peakleistung = alle 1,2 Sekunden eine WU fertig = 72.000 WUs am Tag.
Das würde noch ein schönes Video geben! :D
Außerdem saugt die Kiste dann ganz allein den MW-Server leer *buck*

PS: Was bräuchte man da eigentlich für ein Netzteil? :-X
 
Sehr schön, die Mucke ist n bissl gewöhnungsbedürftig ^^ Wie wäre es mal mit dem Imperial March? :-D

Was du hier baust Gipsel finde ich wirklich beeindruckend, die Zahlen überwältigen einfach... Weiter so, hoffentlich erntest du auch ein paar Früchte für die ganze Arbeit!

Wieviel mal schneller (längere WUs eingerechnet) ist die GPU app nun schon als die originale App vom Projekt von vor ~6 Monaten? Ich kann mich schon fast nicht mehr erinnern wie lange das damals gedauert hat, ne Stunde? Dann wäre die GPU app 400 x schneller :o

edit:

400x wäre wohl ohne längere WUs, also noch viel schneller wenn man annimmt die waren 2-3x länger (hab ich alles vergessen :-( )
 
Wieviel mal schneller (längere WUs eingerechnet) ist die GPU app nun schon als die originale App vom Projekt von vor ~6 Monaten? Ich kann mich schon fast nicht mehr erinnern wie lange das damals gedauert hat, ne Stunde? Dann wäre die GPU app 400 x schneller :o

edit:

400x wäre wohl ohne längere WUs, also noch viel schneller wenn man annimmt die waren 2-3x länger (hab ich alles vergessen :-( )
Die heutigen WUs würden mit der 1.22 App von vor ein paar Monaten auf einem 3GHz Core2 ziemlich genau einen Tag benötigen (86.400s). Davon liefen dann natürlich auf einem Quad vier Stück gleichzeitig, so daß man auf einen Durchsatz von 4 WUs pro Tag kommen würde. Jetzt sind wir bei 9,5s pro WU auf einer HD4870, also ~9.000 (oder 9.100) WUs am Tag, das ist also fast 2.300 mal so schnell. Kann man aber wegen CPU <-> GPU schlecht vergleichen.
Aber selbst auf einer CPU (65nm Quad@3GHz) benötigt das jetzt nur noch etwa 325s oder so, das sind also auch schon über 1.060 WUs am Tag, also etwa 265 mal so schnell.
 
Zuletzt bearbeitet:
...
Zu dem Video: Nett, bißchen mehr Werbung als das erste, oder? ;)
...

Ein bisschen Werbung darf doch auch sein... Das erste Video wurde zu schnell verbreitet, sollte ja nur ein Internes sein (nach dem ersten Tag hatte es schon 200 views).

...
4 x 4870X2 = 8 GPUs = 6400(!) Streamcores = 1280 VLIW Einheiten = 1,92 TFlops..
...
Ist sowas noch händelbar? *noahnung* Zumindest der CPU dürfte dann auch ganz schön beschäftigt sein.

Ich hab mir jedenfalls nach meinen 1900XT CF (700 €) Combi gesagt, nein danke. Spieleleistungstechnisch nicht wirklich brauchbar und einige Probleme. Was man auch heute noch in den jeweiligen Treiberreports lesen darf. Dualmonitoring war damals auch nicht möglich... Auf das ich nicht mehr verzichten will.

Sehr schön, die Mucke ist n bissl gewöhnungsbedürftig ^^ Wie wäre es mal mit dem Imperial March? :-D...

Das war noch das zivilste durchschnitts Liedgut was ich auf Lager hatte (es hätte auch schlimmer kommen können (z.B. die russische Version a la "Robot" der selben Musikkapelle z.B. die mir sehr gut gefällt)), ich wollte auch nicht die Leute verschrecken (hab lange mit mir gerungen). Aber t.A.T.u ist doch nett. ;)
 
Zuletzt bearbeitet:
Danke euch beiden ;-)
Ob CPU oder GPU ist egal, ich wollte nur mal schauen wie so ungefähr der Fortschritt ist gegenüber der 1.22er... Vergleichbar ist was hinten raus kommt, unter SETI@home zb ist meine 9800GT nur 5-6 schneller als der CPU-Client den das Projekt ausliefert, bzw, 2-3 mal schneller als die optimierten Drittanwendungen...
 
PS: Was bräuchte man da eigentlich für ein Netzteil? :-X
Als Minimum sowas:
http://geizhals.at/eu/a382762.html
Das war noch das zivilste durchschnitts Liedgut was ich auf Lager hatte (es hätte auch schlimmer kommen können (z.B. die russische Version a la "Robot" der selben Musikkapelle z.B. die mir sehr gut gefällt)), ich wollte auch nicht die Leute verschrecken (hab lange mit mir gerungen). Aber t.A.T.u ist doch nett. ;)
Baah... englische Version, Orginal rulezz (oder wie die Trolle das immer schreiben *lol*)
http://www.youtube.com/watch?v=FPPm4y3s_58

@Fränki´s Welle:
Danke fürs Testen, da ist die Sperre (so vorhanden) wohl schon im BIOS eingebaut. Dass da noch mit späteren Versionen was nachgeschoben wird, glaube ich eher nicht. Die Leute bei techreport werden schon ein paar offizielle / gültige Aussagen bekommen haben.

ciao

Alex
 
Das reicht nie. Wir reden hier über vier mal HD4870X2, d.h. 8 GPUs die versorgt werden wollen. Die Kiste von der GPUGrid -Seite hat das Ding drin.
Thermaltake ToughPower 1500W Cable Management ATX 2.2
140mm Lüfter • aktive PFC • Anschlüsse (abnehmbar): 1x 24/20-pin, 1x 8/4-pin ATX12V, 1x 8-pin EPS12V, 4x 8-pin PCIe, 4x 6-pin PCIe, 8x SATA Power, 8x IDE Power, 2x Floppy • +3.3V: 30A • +5V: 30A • +12V1: 20A • +12V2: 20A • +12V3: 40A • +12V4: 40A • -12V: 0.8A • +5VSB: 3.5A • durchschnittliche Effizienz: 87%
Das dürfte vielleicht gerade so reichen *lol*
 
Zurück
Oben Unten