SETI@Home Wow Event 2017

O.K., etwas Wirkung ist doch da, seit gestern Abend bin ich 11 Plätze nach oben gerutscht. :D
 
Bei meinem FX musste ich die Erfahrung machen dass der Bedarf an CPU Leistung bei den GPU WUs falsch berechnet wird.
6 GPU WUs für die Radeons erzeugen bei dem FX-8350 eine CPU Last von 30-60%. Gehe ich anch der Angabe in BOINC (0.187 CPU pro GPU) müssten alle auf einen Kern passen.
Seit die CPU WUs ausgelaufen waren scheinen auch die GPU WUs besser zu laufen. Einen Kern pro GPU würde ich also sicherheitshalber abstellen.
Ich denke nicht, dass diese Angabe irgendwas mit Berechnung zu tun hat. Das ist in meinen Augen genau so eine grobe Schätzung wie bei der Restlaufzeit.
Da hilft gucken, wie viel es wirklich braucht.

--- Update ---

@MagicEye04

Ich habe ein paar Daten zusammengestellt :
1. https://setiathome.berkeley.edu/results.php?hostid=8311417
2. WUs seit 17.08.2017 ab ca. 2:55:00 Uhr CEST auf einem Athlon 5350 bei STD-MHz (2050)
3. Auf der GTX 750Ti laufen keine WUs parallel, nur je 1 WU zu einer Zeit
4. Im Paket "CUDA80-APP" für die Nvidia-GPUs gibt es auch eine App für CPU-WUs !
Ob und wie gut die CPU-APP optimiert ist - keine Ahnung, da könnte man auch mal einen Blick drauf werfen !

Wenn Du Zeit und Lust hast, schau einfach mal rein.
Zu 2. Die WUs vor dem Zeitpunkt scheinen eh schon gelöscht zu sein.

Wow, ich suche die ganze Zeit noch, ob ich einen Fehler eingebaut habe.
Aber die GTX750ti@CUDA80 kann mal eben mit meiner GTX970@OpenCL mithalten: 17k cr/d
Dat muss ich unbedingt nächste Woche auch mal testen.

Beim 5350 habe ich 4 Kerne angenommen - oder lässt Du einen frei? Damit wäre er deutlich schneller (2500 cr/d) als mein X4 (1800cr/d) bei gleichem Takt. Bei 3 genutzten Kernen wäre er gleich schnell, was in Anbetracht des Stromverbrauchs immer noch sehr gut ist (ich freu mich schon auf meinen 5350. :D )

Anbei noch das Tabellenblatt, was ich mit zum Auswerten gebastelt habe. Die ersten 3 Zeilen sind immer fix, darunter kopiere ich dann seitenweise direkt die Zeilen vom Seti-Server (ohne Tabellenkopf) im englischen Datenformat, sortiere noch nach CPU und GPU und ggf. Datum. Je nachdem, wie viele Datenzeilen es sind, muss man dann aber noch die Felder anpassen, wo Median (sagt meiner Meinung nach am meisten aus), Mittelwert (bei der CPU sieht man schön, warum der eigentlich völlig unbrauchbar ist) und ganz Unten die Summenwerte sind (kann man auch nehmen als Hochrechnung)
Anhang anzeigen seti_5350_gtx750tiCUDA80.xlsx_rename-me.txt
 

Anhänge

  • seti_5350_gtx750tiCUDA80.xlsx_rename-me.txt
    17,2 KB · Aufrufe: 17
Bin gerade erst wieder gekommen ...

Aha, die APP scheint etwas zu taugen !
Bei dem 5350 habe ich keine Kerne freigegeben, weil es ja nicht OpenCL ist.
Außerdem, selbst wenn ich OpenCL-WUs rechne gebe ich keinen Kern frei, weil der eine Kern sich dann maßlos langweilt.

Den 2. 5350 versuche ich auch auf CUDA80 umzustellen, wobei nur die CPU-App aktiv sein wird, weil dort keine Nvidia drinsteckt.
Ob die HD8400 dann noch mitspielt und munter weiterknabbert, weiß ich nicht, mal sehen.
Dein Tabellenblatt habe ich heruntergeladen - das sehe ich mir morgen an.

Wenn Du auch auf CUDA80 umstellst, vergiß nicht den einen Parameter anzupassen. Dort steht 12 in einer mitgelieferten Datei.
Für die GTX 750Ti mußte ich den Parameter auf 5 (Anzahl CUs) anpassen.
Deine GTX 970 hat 7 CUs (?), dann dort 7 eintragen !
Die anderen Parameter, die man dort auch noch ändern kann, habe ich so gelassen, weil ich nicht genau verstehe was ich dabei ändere.

--- Update ---

Die 2 Version 8.0-Libs herunterladen und in die Seti-Subdir mit hineinkopieren !!!
 
Zuletzt bearbeitet:
Nur noch mal für Dummies: Das geht nur unter Linux!? Kein Cuda80-Win-App?
Bei mir läuft die eine GTX 750Ti unter Cuda32 (geht das überhaupt noch älter...) die andere nutzt openCL.

Ich habe nur die Laufzeiten überhaupt noch nicht verglichen. Mach ich im Laufe des Tages mal.
Aber 17k schaffe ich vermutlich nicht einmal in der Summe. :-/
 
Ja, also diese Version geht nur unter Linux, weil die mitgelieferten APPs und die 2 CUDA-V8.0-Libs sind für Linux.

Daß bei Dir CUDA32-WUs für Deine 750Ti ausgewählt werden, könnte daran liegen, daß Deine Grafiktreiber möglicherweise schon
älter ist. Einen neueren Grafiktreiber bei Nvidia heraussuchen, herunterladen und zu installieren sollte üblicherweise kein Problem
unter Win darstellen - ich hatte eigentlich nie Probleme damit.

Bei neueren Treibern, hat mir Seti meistens CUDA50,55 und 60 zum Berechnen angeboten (die gehen alle bei ner 750Ti).

Ob ein älterer Boinc-Manager Dich mit CUDA32-WUs absichtlich versorgt - keine Ahnung -
ein Update des Boinc-Managers sollte im Win auch einfach gehen.
 
Zuletzt bearbeitet:
BM und Treiber sind aktuell, also kann es nur noch an Lunatics liegen, das ist alt.

Der zweite, der kein Lunatics (mehr) drauf hat, zieht ja auch die open-CL-Wuzen.

--- Update ---

O.K., ich hätte mal lieber nicht nachrechnen sollen oder eben viel früher.

Cuda32 geht gar nicht. Die Karte liegt irgendwo bei < 3k/d
Unter openCL liegt die zweite GTX 750Ti bei ~ 10k/d.

(Die beiden HD7790 liegen unter openCL irgendwo bei knapp 9k/d)

O.K., ich schmeiße jetzt Lunatics runter von dem PC.

--- Update ---

Erledigt, aber runterschmeißen war ja nur die halbe Miete.

Ist Lunatics Beta 0.45 das aktuelle?
Ich frage nur, weil es immer noch die Auswahl von Cuda zulässt. Habe jetzt allerdings Cuda50 ausgewählt.

So, jetzt ein paar Stunden laufen lassen und neu vergleichen, dann ggf. den zweiten auch umstellen oder eben Lunatics wieder runter nehmen. *noahnung*

--- Update ---

Wow. Jetzt fetzt er die Wuzen in weniger als 600s durch. (3 Stück bisher)

Aber: Für Cuda braucht es verhältnismäßig viel CPU-Power, geschätzt 1/4 Kern(Thread)
Ich habe deshalb und weil die iGPU ja auch noch openCL rechnet, 2 Threads dafür freigeräumt. CPU-Last jetzt gesamt bei 95%. Das sollte passen.

Leider sehe ich noch nicht, was die neuen Wuzen bringen an Credits.

--- Update ---

Super: 10 Wuzen durch und alle beim Lagerverwalter... ich will doch nur sehen, was die bringen oder eben auch nicht. *motz*
 
Wäre meine HD 7870 XT nicht beim Testlauf über den Jordan gegangen würde doch einiges mehr auf meinem Konto sein.

Irgendwie gibt es momentan nichts von AMD was Preis-Leistungsmäßig und überhaupt im Preisbereich 200-240€ ein würdiger nachfolger wäre.
 
Ich verstehe gar nicht, wie ihr so einen hohen Output erzeugt.
Der Lagerverwalter ist bei mir auch gerade nicht unter 50. Zum Teil sogar noch WUs von Dienstag drin.

Wie stellt ihr denn "so einfach" von CUDA auf OpenCL um? Auch mit in der app_config?
 
So, ich fahre noch mein WU Lager leer und bau die Kiste dann um. Wenn er fertig ist dürfte ich das recht leicht merken denn der Propeller von dem Boxed Kühler der derzeit drauf ist lärmt mit ca. 7000 rpm vor sich hin. )((
Ich hoffe nur das der Rückbau der vierten Karte glatt gelaufen ist.
 
Bei mir waren in Windows sowohl CUDA32 als auch CUDA50 ähnlich lahm.
CUDA80 kann ich leider erst Montag probieren.
 
.................
Wie stellt ihr denn "so einfach" von CUDA auf OpenCL um? Auch mit in der app_config?

Das geht hier über Lunatics und das bastelt eine app_info.xml und bringt die Apps gleich mit.

--- Update ---

Bei mir waren in Windows sowohl CUDA32 als auch CUDA50 ähnlich lahm.
CUDA80 kann ich leider erst Montag probieren.

Sieht auch hier so aus, eine Wuze ist jetzt durch (550s und 45 Cr) und wenn ich die hochrechne (ich weiß, das geht bei einer eigentlich gar nicht) -
dann komme ich auch so nicht über 7k/d und dann ist openCL der Gewinner.
 
Das geht hier über Lunatics und das bastelt eine app_info.xml und bringt die Apps gleich mit.

--- Update ---



Sieht auch hier so aus, eine Wuze ist jetzt durch (550s und 45 Cr) und wenn ich die hochrechne (ich weiß, das geht bei einer eigentlich gar nicht) -
dann komme ich auch so nicht über 7k/d und dann ist openCL der Gewinner.
ist doch gar nicht so schlecht! meine rx480 knuspert in der zeit 2 davon weg.

da7.png
 
Zuletzt bearbeitet:
Ja, aber 7k/d unter Windows/Cuda50 gegen 17k/d unter Linux/Cuda80 (Olle Kalesche) - das ist dann schon wieder grrrrrrrrrrrr. *motz*

Das kommt davon, wenn man die Zeit nicht findet, alles mal umzumodeln.
Na, im Moment kann ich eh nix ändern, also laufen lassen.
 
Zuletzt bearbeitet:
17k hört sich aber auch komisch an wo soll die Performance herkommen ?! es kann ja nicht sein das eine alte GTX 750Ti morderne karten basht Oo
es ist eh komisch das es für seti zich verschiedene apps gibt.
 
Ich hab auch eine 750Ti, aber die macht so ca 6...7k Da muss ich diese CUDA80 App mal probieren. Das wäre dann ja so viel wie eine Tahiti schafft.
 
6...7K wäre ja O.K., da komme ich mit Cuda50 auch hin.

Im Moment läuft alles so einigermaßen. Also laufen lassen.
2x GTX 750Ti + 2x HD7790, wobei die NVidias leicht im Vorteil sind, obwohl sie nicht ausgelastet werden, nur bei ca. 70%

Wenn ich mutig genug wäre, in der app_info.xml rumzupfuschen, würde ich mal auf 2 WU parallel umstellen.
 
Meine Pause dauert gerade deutlich länger als erwartet denn das neue Board scheint die Radeon Pro Duo überhaupt nicht zu vertragen. Sobald eine davon aktiv ist schafft es noch nicht einmal bis zum Post. Ich probiere zwar noch ein paar Sachen auch aber im Moment sieht es mit dem System sehr schlecht aus.
 
Ach Mist:
Code:
<stderr_txt>
Cuda error 'Couldn't get cuda device count
' in file 'cuda/cudaAcceleration.cu' in line 152 : CUDA driver version is insufficient for CUDA runtime version.
Mit der CUDA80 App. Mal schauen, ob ich auf Debian Stretch upgraden kann.
 
17k hört sich aber auch komisch an wo soll die Performance herkommen ?! es kann ja nicht sein das eine alte GTX 750Ti morderne karten basht Oo
es ist eh komisch das es für seti zich verschiedene apps gibt.
Ich hab mich ja auch gewundert. Aber wenn es alle 10 Minuten 100cr gibt, dann guckt man nur noch verdutzt.
Seti war halt früher außer auf der CPU nur mit CUDA möglich.
Irgendwann wurde mal OpenCL eingeführt, um auch AMD eine Chance zu geben. Und dann hat man auch noch Nvidia mit OpenCL zugelassen, weil CUDA ja angeblich am Aussterben ist.
Die Ausbeute ist in all den Jahren eigentlich immer weiter runtergegangen.
Mit der optimierten OpenCL-App bin ich jetzt da, wo ich früher mal mit CUDA war.
Also wenn CUDA nun endlich auch mal wieder auf die neuen Nvidias optimiert wurde (750 zähle ich mal als neu, weil sie die erste Karte der 900er Reihe war und die hat ja einen enormen Sprung gemacht), dann kann ich mir schon vorstellen, dass es da wieder mehr Punkte gibt.
Dass es so viele (CPU)Apps gibt, ist doch eigentlich sinnvoll. Das Projekt selbst macht ja nicht wirklich viel Optimierung, da kann man doch froh sein, wenn einige begeisterte User mit Programmierkenntnissen eine App für die vielen Spezialbefehle optimieren.
 
Ja, das sind dann solche Sachen, an denen ich gewiss scheitern würde.
Deshalb also leider weiterhin Win10_64.
 
Also Leute, die 750Ti ist sicherlich nicht schneller (besser) als eine GTX 9xx - das ist mal ganz klar !

Die Berechnungen für Seti sind vom "Erfinder/Konstrukteur" der CUDA80-APP offensichtlich so gut verstanden worden,
daß er Berechnungoptimierungen einbauen konnte, so daß diese APP nur so flutscht - und die 750Ti maximal effektiv nutzt.
Das gaht natürlich auch für andere GTXe >750Ti.

Ich habe auf dem 5350 ein Ubuntu 17.04 MATE laufen mit nvidia 375.66 und der CUDA80-APP.
Das könnt Ihr auch. Ihr müßst nur wissen, wieviele CUs Eure GPU hat - das wird als Parameter benötigt.
Also, wer Linux kann (ich kann Linux nicht besonders gut und habe es doch geschafft), hat in 1h das Betriebssystem auf einer
z.B. externen HDD erstellt (evtl. Win-HDD vorher abstöpseln), dann noch Boinc und Seti installiert und zuletzt noch die CUDA80-APP auf die HDD geschoben und Eure GTX 970 oder was auch immer bringt mehr Durchsatz !
Nicht vergessen : Auch die Version 8.0-Libs in die Seti-Dir kopieren !!!
Auch die mitgelieferte CPU-APP ist nicht von der Hand zu weisen !

Mit etwas Ehrgeiz habt Ihr auch die CUDA80 am Laufen !!!

Los geht's !
 
Zuletzt bearbeitet:
Ich bin fürs erste aus dem Rennen und rechne nur noch mit meinem Schleppi etwas mit.
Die Support Anfrage an MSI ist raus aber wer weiss wie lange eine Lösung für mein Problem dauert. :(
 
Jap, den Rückstand werde ich wohl nicht wieder aufholen können. :(
 
So, hab den Rechner auf Debian Stretch mit NV 375.66 Treiber gezogen - ging, wie gewohnt, problemlos.
Für die cmdline Parameter geht mit der neuen App Version auch "-unroll autotune", damit wird der Wert automatisch ermittelt.
Hab meine eigene, alte app_info verwendet und modifiziert. Alleine weil die CPU Apps neuer als die mitgelieferten waren.
Und das ist echt abenteuerlich, wie diese CUDA80 App hier los sprintet! Von einer Stunde Laufzeit auf weniger als 3 Minuten?! Muss mal die Credits abwarten.

@Sompe: dann klatsch da doch irgend eine popelige Graka drauf und lass den Threadripperrrrrrrrr! per CPU mit Crunchen.
 
Zurück
Oben Unten