Seti V8 was ist neu !

Das hat nix mit der GPU zu tun. Sobald man mittels einer app_info.xml eine "Anonyme Plattform" definiert, wird die auch verwendet. Und die braucht man halt überall da wo abweichend vom Projekt angepasst werden muss.
 
ja dann war ich halt irgendwie neben der Spur und hab da wohl paar Sachen durcheinander gebracht aber trotzdem danke für die Aufklärung
 
Ich bin ja nun mit meiner GTX750ti auf Ubuntu umgestiegen.
Neben CUDA60 WUs werde ich neuerdings auch mit OpenCL-WUs für V8 bombardiert.
Vorher mit WIndows hatte ich immer nur CUDA5x oder Astropulse.
Die OpenCL haben allerdings den gravierenden Nachteil, dass sie die Grafikausgabe des Rechners arg bremsen. Damit macht das Arbeiten keinen Spaß.
Kann ich die V8-OpenCL irgendwie aussperren?
 
Über die Einstellungen auf der SETI@home Seite geht das leider nicht, du könntest höchstens die OpenCL WUs automatisiert abbrechen.
Da kann ich gern mit nem Einzeiler für Cron behilflich sein...
 
Die machen aktuell ca. 95% aller WUs aus. Das wäre arg doof, die alle abzubrechen.
In Windows habe ich die wahrscheinlich nicht bekommen, weil ich da noch mit einem recht alten Grafiktreiber unterwegs war oder weil ich die optimierte app hatte.
 
Eine app_info.xml für die CUDA60 app wäre auch eine Möglichkeit. Da du keine andere App spezifizierst, bekommst du auch keine anderen WUs...
 
Das könnte klappen. Aber ich fürchte, da muss ich die exakten Namen und Versionen der CUDA-App kennen und auch noch korrekt eintragen.
Wenn ich das Beispiel anschaue, was ich von einer optimierten App gefunden habe, dann sieht das doch recht komplex aus:

PHP:
<app_info>
    <app>
        <name>setiathome_enhanced</name>
    </app>
    <file_info>
        <name>AK_v8_win_SSE3.exe</name>
        <executable/>
    </file_info>
    <app_version>
        <app_name>setiathome_enhanced</app_name>
        <version_num>517</version_num>
        <file_ref>
            <file_name>AK_v8_win_SSE3.exe</file_name>
            <main_program/>
        </file_ref>
    </app_version>
    <app_version>
        <app_name>setiathome_enhanced</app_name>
        <version_num>527</version_num>
        <file_ref>
           <file_name>AK_v8_win_SSE3.exe</file_name>
            <main_program/>
        </file_ref>
    </app_version>
    <app_version>
        <app_name>setiathome_enhanced</app_name>
        <version_num>528</version_num>
        <file_ref>
           <file_name>AK_v8_win_SSE3.exe</file_name>
            <main_program/>
        </file_ref>
    </app_version>
</app_info>
 
Das Beispiel ist unnötig umfangreich durch die drei Versionsnummern für die gleiche App...

Code:
<app_info>
    <app>
        <name>setiathome_v8</name>
    </app>
    <file_info>
        <name>setiathome_8.10_x86_64-pc-linux-gnu__opencl_nvidia_SoG</name>
        <executable/>
    </file_info>
    <app_version>
        <app_name>setiathome_v8</app_name>
        <version_num>810</version_num>
        <file_ref>
            <file_name>setiathome_8.10_x86_64-pc-linux-gnu__opencl_nvidia_SoG</file_name>
            <main_program/>
        </file_ref>
    </app_version>
</app_info>

Das hab ich eben mal fix probiert, die erstbeste von SETI angebotene app genommen und eingepflegt. Habe anschließend 2 WUs bekommen, 24no10ag.26609.2525.12.39.24_1 und blc5_2bit_guppi_57451_19631_HIP62472_OFF_0004.18958.831.17.26.241.vlar_2

Das ist nun nicht die CUDA60 Anwendung, aber dann schaust einfach mal in das SETI Projektverzeichnis und änderst version_num, file und file_name ab...
 
Zuletzt bearbeitet:
Das scheint zu funktionieren. Danke!
Dann lag es also nur an den Versionsnummern, die das Ganze so aufgebläht haben.

Mal schauen, ob die Guppis unter Linux besser laufen.
 
Mist, hat doch nicht funktioniert, er hat wohl gestern gar nicht die app_info.xml eingelesen im laufenden Betrieb.
PHP:
<app_info>
    <app>
        <name>setiathome_v8</name>
    </app>
    <file_info>
        <name>setiathome_8.01_x86_64-pc-linux-gnu__cuda60</name>
        <executable/>
    </file_info>
    <app_version>
        <app_name>setiathome_v8</app_name>
        <version_num>801</version_num>
        <file_ref>
            <file_name>setiathome_8.01_x86_64-pc-linux-gnu__cuda60</file_name>
            <main_program/>
        </file_ref>
    </app_version>
</app_info>

Heute beim Start wurden alle cuda60-WUs abgebrochen und es gibt keine Neuen.

Fr 15 Jul 2016 09:50:40 CEST | SETI@home | Found app_info.xml; using anonymous platform
Fr 15 Jul 2016 09:50:40 CEST | SETI@home | [error] No application found for task: x86_64-pc-linux-gnu 801 cuda60; discarding
...
Fr 15 Jul 2016 09:51:39 CEST | SETI@home | Your current settings do not allow tasks from this project. To fix this, you can change Project Preferences on the project's web site.

Die WUs sind praktischerweise bis September haltbar gewesen und der Boinc-Manager hat dem Projekt nicht gesagt, dass er sie abbricht. Da werden einige Wingmans sich aber wundern, dass die ewig nicht abgearbeitet werden.

Edit: Jetzt habe ich das Projekt mal zurückgesetzt. Da gab es wieder neue WUs.
Die GPU-Auslastung von 4-10% ist irgendwie ein Witz.
 
Zuletzt bearbeitet:
Über die Einstellungen auf der SETI@home Seite geht das leider nicht, du könntest höchstens die OpenCL WUs automatisiert abbrechen.
Da kann ich gern mit nem Einzeiler für Cron behilflich sein...
Also ich würde doch gern mal auf das Angebot zurückkommen.
Die Guppis wirken sich trotz CUDA genau so katastrohal auf die Benutzbarkeit des Rechners aus.
Somit bleibt nur Abbrechen aller unerwünschten WUs, bis das Projekt die einzelnen Berechnungen besser trennt.

Edit: mir fällt gerade ein, dass ich sowas ja auf dem C2 schon mal eingerichtet habe, um die 10er WUs abzubrechen.
Aber dummerweise funktioniert es nicht. Hab nicht aufgepasst und ganze 4 WUs von der Sorte treiben nun schon seit 24 Stunden ihr Unwesen.

Hier mal die Übersicht des angelegten Jobs, ich bin da irgendwelchen Anleitungen gefolgt. DA ist er, aber bewirkt nix.
sudo crontab -u root -l
[sudo] password for odroid:
# Edit this file to introduce tasks to be run by cron.
# ...
# m h dom mon dow command

00 00 1 * * boinccmd --get_tasks | grep universe_bh_[0-9]*_10_ | awk '/ name:/ { print "boinccmd --task http://universeathome.pl/universe/ "$2" abort" }' | bash
 
Zuletzt bearbeitet:
Ich hab für die GPU App auch erst WUs bekommen nachdem ich CPU Berechnung zugelassen habe, allerdings sind die bei mir aktuell im Status "Postponed: Can't read CL file"... Egal, hatte nicht vor SETI zu rechnen ;-)

Denke durch den app_info Mechanismus weiß der Client oder Server womöglich nicht wie (CPU/GPU) die Berechnung von statten geht. Da gibts sicher noch ein paar Informationen die man extra ablegen könnte, evtl. könnte die korrekte plan class helfen...

Der Universeeintrag für die _10_er WUs gilt so ähnlich natürlich auch für SETI:

0 * * * * boinccmd --get_tasks | grep _guppi_ | awk '/ name:/ { print "boinccmd --task http://setiathome.berkeley.edu/ "$2" abort" }'

...der würde dann immer zur vollen Stunde laufen und die Guppis abbrechen.

Ist ein RPC Passwort gesetzt, muss auch dieses boinccmd übergeben werden...
 
Mal schauen, ob der Job für Seti besser funktioniert als auf dem C2.
 
Wenn du ihn für Universe mit Zeitvorgabe "00 00 1 * * " hinterlegt hattest, dann läuft er jeweils nur um 00:00 am ersten Tag des Monats. Das dritte Feld ist "day of month". Einmal pro Monat ausgeführt bleiben natürlich noch reichlich Chancen sich weitere _10_er einzufangen...
 
OK, dann hatte ich die Syntax falsch verstanden.
Es sollte jeden Tag werden.
Aber jede Stunde ist eh sinnvoller.
Jetzt muss ich erstmal warten, bis die fertig sind. nach 23 Stunden Berechnung brech ich sie natürlich nicht mehr ab.
 
So richtig scheint der cronjob nicht zu funktionieren. die Guppis sind immer noch da.

Im Logfile steht nicht viel Nützliches:
Jul 16 13:17:01 X4-M56S-S3 CRON[18662]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Jul 16 14:17:01 X4-M56S-S3 CRON[19200]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Jul 16 15:17:01 X4-M56S-S3 CRON[19651]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Jul 16 16:17:01 X4-M56S-S3 CRON[20109]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Jul 16 17:17:01 X4-M56S-S3 CRON[20712]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Jul 16 18:17:01 X4-M56S-S3 CRON[21197]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Jul 16 19:17:01 X4-M56S-S3 CRON[21619]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)

Also er führt zwar was aus, aber ich sehe nicht was, und ob es erfolgreich gewesen wäre.

Muss ich vielleicht noch irgendwo irgendwelche Rechte setzen?

Die OpenCL kann man ja zudem nicht am Namen erkennen, die müsste ich anhand des projektes abbrechen. Geht das überhaupt?
 
Wie/wo hast du den Cronjob eingetragen, crontab -e oder irgendwo unterhalb von /etc/cron.X ?

Ich trage alles in der User Crontab von root ein (als root crontab -e), das läuft 1A und führt u.a. zu folgenden /var/log/syslog Einträgen:

Jul 16 21:19:01 frickelbude CRON[7380]: (root) CMD (for TID in `ps Hh -o tid -p $(pgrep einstein)`; do renice 0 $TID; done)
Jul 16 21:19:01 frickelbude CRON[7379]: (root) CMD (boinccmd --project http://einstein.phys.uwm.edu/ suspend )
Jul 16 21:19:01 frickelbude CRON[7378]: (CRON) info (No MTA installed, discarding output)

Weitere Rechte brauchst du eigentlich nicht.

Deine letzte Frage erschließt sich mir nicht komplett, die OpenCL, sind die nicht auch SETI v8?
Wenn du WUs mit ähnlichem/gleichem/nicht eindeutigem Namen hast, einige für CUDA, andere für Bearbeitung durch OpenCL apps markiert sind, dann kommen wir da mit boinccmd --get_tasks nicht weiter. Über die client_state.xml lässt sich das jedoch pro WU in Erfahrung bringen, das würde ich dann ich ein kurzes Skript packen und dieses per Cron ausführen lassen, ansonsten wird das unübersichtlich.
Heute will SETI mir keine GPU WUs & Anwendungen schicken, kann daher nicht testen. Du könntest mir aber deine client_state.xml schicken, da sollten keine Kontoschlüssel oder ähnliches drin sein (jedoch Rechnername und halt alle deine Projekte und WUs)...
 
Ich hatte crontab -e aufgerufen und dort dann einen Editor ausgewählt und die Zeile unten ergänzt. Dann fehlt mir vielleicht der root?
Ich habe nun mal sudo crontab -e aufgerufen und es dort auch noch eingefügt.
Was hat es mit | bash auf sich am Ende der Zeile? muss das hin, kann das hin oder stört es eher? (bei Universe)

Bei Seti gibt es eigentlich nur noch das Projekt "Seti V8", das ist ja das Ärgernis, es läuft einfach alles darunter.
Die Astropulse kommen nur sehr selten mal.

Ich würde das schon gerne über die app-info lösen. Ich werde bei Gelegenheit mal im seti-Forum fragen, wie der app-name lauten muss.
 
Zuletzt bearbeitet:
Ich bin was dusselig, habe natürlich "| bash" vergessen im Beispiel für dich.
awk konstruiert ja nur den Befehl, ausgeführt wird der aber erst durch die Übergabe (per pipe | ) an Bash ;-)
Sorry ist irgendwie im copy & paste untergegangen...

Ohne app_info.xml und CPU Häckchen im Profil hab ich dann heute auch GPU WUs bekommen, die Ausbeute ist aber mehr als mager...
http://setiathome.berkeley.edu/results.php?hostid=7967444&offset=0&show_names=1&state=4
 
Auf der GTX750ti funktioniert das nun so wie es soll. :)

Auf der GTX970 bekomme ich hingegen überhaupt keine Aufgaben.
Da lügt mir der Boinc-Manager was vor:
Mi 27 Jul 2016 20:34:57 CEST | SETI@home | Not requesting tasks: don't need (CPU: ; NVIDIA GPU: )
Mi 27 Jul 2016 20:34:59 CEST | SETI@home | Scheduler request completed
Mi 27 Jul 2016 20:34:59 CEST | SETI@home | Your current settings do not allow tasks from this project. To fix this, you can change Project Preferences on the project's web site.
Die Einstellungen sind aber die gleichen wie für den anderen Rechner.

Edit: irgendwie habe ich 3 Projektordner für Seti, alle ein wenig anders benannt.
2 davon sind vom Februar. Das Betriebssystem habe ich aber erst vor wenigen Tagen installiert.
Keine Ahnung, wo der das her kopiert hat, ich werde Seti erstmal zurücksetzen und dann alle Ordner löschen.
Bestimmt warens die zeitreisenden Enten.
 
Zuletzt bearbeitet:
Zurück
Oben Unten