CUDA80 nutzen, Zugriffsrechte, app_info.xml (Ubuntu) - WUs werden immer abgebrochen

MagicEye04

Grand Admiral Special
Mitglied seit
20.03.2006
Beiträge
23.180
Renomée
1.795
Standort
oops,wrong.planet..
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
Hallo,

nachdem ich Ubuntu neu installieren musste, bin ich nun dabei für Seti wieder CUDA in Version8.0 zum Laufen zu bekommen.
In diesem Thread versteckt sich der Hinweis dafür, dass das geht: https://www.planet3dnow.de/vbulletin/threads/428393-SETI-Home-Wow-Event-2017

Ich habe mein altes Boinc-Data-Verzeichnis aus dem Backup rüberkopiert und bin der Meinung, dass dort ja alles drin sein sollte, vor der Neuinstallation hat es zudem reibungslos funktioniert.

Problem: Die CUDA-WUs werden alle abgebrochen:

<core_client_version>7.8.3</core_client_version>
<![CDATA[
<message>
process exited with code 13 (0xd, -243)</message>
<stderr_txt>
Process creation (../../projects/setiathome.berkeley.edu/MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu) failed: Error -1, errno=13
execv: Permission denied

</stderr_txt>
]]>
bzw. auf dem Rechner steht dann nur "...output file absend..."


Dazu kommt noch diese Meldung in der Ereignisanzeige:
So 14 Jan 2018 15:59:18 CET | SETI@home | Nachricht vom Server: Ihre app_info.xml Datei enthält keine nutzbare Version von SETI@home v8.
(was meiner Meinung nach nicht stimmt, siehe:)
Code:
<app_info>
  <app>
     <name>setiathome_v8</name>
  </app>
    <file_info>
      <name>setiathome_x41p_zi3v_x86_64-pc-linux-gnu_cuda80</name>
      <executable/>
    </file_info>
    <file_info>
      <name>libcudart.so.8.0</name>
    </file_info>
    <file_info>
      <name>libcufft.so.8.0</name>
    </file_info>
    <app_version>
      <app_name>setiathome_v8</app_name>
      <platform>x86_64-pc-linux-gnu</platform>
      <version_num>801</version_num>
      <plan_class>cuda80</plan_class>
      <cmdline></cmdline>
      <coproc>
        <type>NVIDIA</type>
        <count>1</count>
      </coproc>
      <avg_ncpus>0.1</avg_ncpus>
      <max_ncpus>0.1</max_ncpus>
      <file_ref>
         <file_name>setiathome_x41p_zi3v_x86_64-pc-linux-gnu_cuda80</file_name>
          <main_program/>
      </file_ref>
      <file_ref>
         <file_name>libcudart.so.8.0</file_name>
      </file_ref>
      <file_ref>
         <file_name>libcufft.so.8.0</file_name>
      </file_ref>
    </app_version>
  <app>
     <name>astropulse_v7</name>
  </app>
     <file_info>
       <name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</name>
        <executable/>
     </file_info>
     <file_info>
       <name>AstroPulse_Kernels_r2751.cl</name>
     </file_info>
     <file_info>
       <name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</name>
     </file_info>
    <app_version>
      <app_name>astropulse_v7</app_name>
      <platform>x86_64-pc-linux-gnu</platform>
      <version_num>708</version_num>
      <plan_class>opencl_nvidia_100</plan_class>
      <coproc>
        <type>NVIDIA</type>
        <count>1</count>
      </coproc>
      <avg_ncpus>0.1</avg_ncpus>
      <max_ncpus>0.1</max_ncpus>
      <file_ref>
         <file_name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</file_name>
          <main_program/>
      </file_ref>
      <file_ref>
         <file_name>AstroPulse_Kernels_r2751.cl</file_name>
      </file_ref>
      <file_ref>
         <file_name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</file_name>
         <open_name>ap_cmdline.txt</open_name>
      </file_ref>
    </app_version>
   <app>
      <name>setiathome_v8</name>
   </app>
      <file_info>
         <name>MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu</name>
         <executable/>
      </file_info>
     <app_version>
     <app_name>setiathome_v8</app_name>
     <platform>x86_64-pc-linux-gnu</platform>
     <version_num>800</version_num>   
      <file_ref>
        <file_name>MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu</file_name>
        <main_program/>
      </file_ref>
    </app_version>
   <app>
      <name>astropulse_v7</name>
   </app>
     <file_info>
       <name>ap_7.05r2728_sse3_linux64</name>
        <executable/>
     </file_info>
    <app_version>
       <app_name>astropulse_v7</app_name>
       <version_num>704</version_num>
       <platform>x86_64-pc-linux-gnu</platform>
       <plan_class></plan_class>
       <file_ref>
         <file_name>ap_7.05r2728_sse3_linux64</file_name>
          <main_program/>
       </file_ref>
    </app_version>
</app_info>

Ich vermute, es stimmt irgendwas mit den Zugriffsrechten nicht. Vielleicht erkennt ja Jemand schon so den Fehler?
Bildschirmfoto von ?2018-01-14 16-06-07?.png

Im Backup des früheren Systems gehören die Dateien, die nicht root sind, alle dem User "nvidia-persistenced" - selbst bei Projekten, die nix mit GPUs am Hut haben - da vermute ich eine Fehlintepretation der ID. Ich habe auf dem anderen Rechner mal nachgesehen, dort sieht es eigentlich fast so aus wie auf dem Screenshot - nur dass der Besitzer nicht "boinc" heißt, sondern "boinc - BOINC core client" - welchen es aber auf dem betroffenen Rechner gar nicht gibt. Alle anderen Verzeichnisse und Dateien gehören dem User "boinc", daher habe ich auch die reinkopierten Dinge diesem User zugeordnet.

Falls Jemand eine Idee hat oder mal gucken kann, wie seine Zugriffsrechte so aussehen, wäre ich dankbar.
Projekt zurücksetzen hat nichts gebracht, ebenso wie restlos entfernen und wieder neu reinkopieren.
Astropulse mit OpenCL werden anstandslos berechnet, für die CPU ist bisher noch nix vorbeigekommen.

Anbei noch die Eckdaten:
Ryzen1700 + GTX970
Vorher: Ubuntu 17.04, jetzt Ubuntu17.10
Vorher: Nvidia-???, jetzt Nvidia-384.111

Edit: so sieht es auf dem funktionierenden Rechner aus:
Screenshot at 2018-01-14 16:24:08.png
 
Zuletzt bearbeitet:
Hi,

normalerweise sollten alle Dateien unter /var/lib/boinc dem User und der Gruppe "boinc" zugeordnet sein. Sonst kann der BOINC-Client Prozess nämlich nicht darauf zugreifen, bzw. nur wenn er mit Systemrechten gestartet wurde.

Mit den folgenden Kommandos lassen sich alle Dateien unter /var/lib/boinc dem Nutzer und der Gruppe boinc zuweisen (Diese im Terminal ausführen):
Code:
$ sudo -s
# cd /var/lib/boinc
# chown -R boinc:boinc *
Danach am besten BOINC neu starten:
Code:
# /etc/init.d/boinc-client restart
 
@MagicEye04
In 2017 hatte ich die CUDA80-App am Laufen auf meinem 5350 mit GTX 750Ti.
Da ich in 6 Wochen aus dieser Wohnung heraus sein soll, bin ich heftig am Packen obwohl ich noch gar keine neue Bleibe
gefunden habe.

Zuerst alle laufenden CUDA-WUs fertigrechnen !
Die CUDA80-App hatte ich dann nach dem Hinweis von Pollux installiert :
http://www.planet3dnow.de/vbulletin/threads/428393-SETI-Home-Wow-Event-2017/page5 Beitrag #117.
Ein paar Seiten weiter gab ich noch zusätzliche Hinweise zur Installation der CUDA80-APP, vielleicht hilft Dir das weiter.

Auf dem aktuellen 5350 ist die CUDA80-APP nicht installiert und ich habe auch gerade keine Zeit dafür das nochmal zu
testen/installieren.
Sorry.
Viel Erfolg.

--- Update ---

Kann es sein, daß die CUDA80-APP (noch) nicht als ausführbares-Programm gekennzeichnet ist (executeable).
 
Danke für die Hinweise an Euch beide.
Wie es theoretisch mit CUDA80 funktioniert, ist mir eigentlich klar (die entsprechenden Dateien ins Seti-Verzeichnis kopieren, boinc neu starten), nur klappt halt irgendwas nicht, was auf den anderen Rechnern keine Probleme macht.
Ich habe nun einfach mal alle Dateien dem User Boinc zugewiesen. Mal sehen, ob sich was bessert, wenn wieder eine CUDA-WU rausgerückt wird.
Wobei ich dann kurios finde, dass der Besitzer root auf den anderen Rechnern für die executables kein Problem darstellt, dort läuft boinc ja auch nur unter dem user boinc.

Der Fehler:
So 14 Jan 2018 18:26:15 CET | SETI@home | Nachricht vom Server: Ihre app_info.xml Datei enthält keine nutzbare Version von SETI@home v8.
bleibt leider so. Will mir der Server da vielleicht andere WUs als auf den anderen Rechnern geben, weil der Ryzen etwas neuer ist?
Ich habe ja nur für V8.00 eine executable (MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu), mit der der Athlon5350 WUs bekommt und durchrechnet.

Die CUDA-App setiathome_x41p_zi3v_x86_64-pc-linux-gnu_cuda80 hat den MIME-Typ executable und kann von allen ausgeführt werden. Wenn ich es einfach so aufrufe, passiert einfach nur nichts bzw. es kommt "bad arg", wenn ich irgendwelche Optionen dranhänge - also für mich sieht das so aus, als würde es ein Programm sein.

@ Olle Kalesche: Ich drück Dir die Daumen, das das mit einer neuen Wohnung klappt.
 
Zuletzt bearbeitet:
Nun, meine Linux-Kenntnisse sind zu gering, um in Deinen Infos einen Fehler zu finden.
Da muß ein Linux- bzw. Seti-Spezialist ran.

Danke , für Dein Daumendrücken.
Wohnungen gibt es, aber viele sind so teuer, die kann ich mir nicht leisten oder sind so marode, da muß man heizen wie
anno 1800.
Eine einzige Wohnung wäre akzeptabel, aber die ist ca. 30km entfernt - so weit weg wollte ich eigentlich nicht mehr
umziehen und Möbel einzulagern - da ist es besser den Kram zum Sperrmüll zu geben und später neue Möbel zu kaufen.
Es ist ein Graus.
 
Es funktioniert! Lag scheinbar echt nur an den Rechten.

Somit Problem gelöst, Verwunderung, dass das Problem auf den anderen Rechnern kein Problem ist, bleibt. :)
 
Super.
Kommt der folgende Fehler jetzt noch?
So 14 Jan 2018 15:59:18 CET | SETI@home | Nachricht vom Server: Ihre app_info.xml Datei enthält keine nutzbare Version von SETI@home v8.

Der dürfte daher rühren, dass folgende Datei nicht als ausführbar gekennzeichnet ist: MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu

Um das zu ändern, ist folgender Befehl nötig:
Code:
$ sudo chmod 755 /var/lib/boinc/projects/setiathome.berkeley.edu/MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu
 
Der Fehler ist auch weg. :)
Die Rechte waren wohl das Entscheidende. Danke!
 
*argghhh*

Jetzt tritt der Fehler genau auf dem anderen Rechner auf, der eigentlich schon mal wunderbar lief. :(

Fr 19 Jan 2018 10:47:19 CET | SETI@home | Nachricht vom Server: Ihre app_info.xml Datei enthält keine nutzbare Version von SETI@home v8.

Die MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu hat hier bereits die Rechte 775, Besitzer ist auch boinc.

Ob da doch noch ein Fehler in der app_info.xml steckt, der bisher keine Rolle spielte?
<app_info>
<app>
<name>setiathome_v8</name>
</app>
<file_info>
<name>setiathome_x41p_zi3v_x86_64-pc-linux-gnu_cuda80</name>
<executable/>
</file_info>
<file_info>
<name>libcudart.so.8.0</name>
</file_info>
<file_info>
<name>libcufft.so.8.0</name>
</file_info>
<app_version>
<app_name>setiathome_v8</app_name>
<platform>x86_64-pc-linux-gnu</platform>
<version_num>801</version_num>
<plan_class>cuda80</plan_class>
<cmdline></cmdline>
<coproc>
<type>NVIDIA</type>
<count>1</count>
</coproc>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<file_ref>
<file_name>setiathome_x41p_zi3v_x86_64-pc-linux-gnu_cuda80</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>libcudart.so.8.0</file_name>
</file_ref>
<file_ref>
<file_name>libcufft.so.8.0</file_name>
</file_ref>
</app_version>
<app>
<name>astropulse_v7</name>
</app>
<file_info>
<name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</name>
<executable/>
</file_info>
<file_info>
<name>AstroPulse_Kernels_r2751.cl</name>
</file_info>
<file_info>
<name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</name>
</file_info>
<app_version>
<app_name>astropulse_v7</app_name>
<platform>x86_64-pc-linux-gnu</platform>
<version_num>708</version_num>
<plan_class>opencl_nvidia_100</plan_class>
<coproc>
<type>NVIDIA</type>
<count>1</count>
</coproc>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<file_ref>
<file_name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>AstroPulse_Kernels_r2751.cl</file_name>
</file_ref>
<file_ref>
<file_name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</file_name>
<open_name>ap_cmdline.txt</open_name>
</file_ref>
</app_version>
<app>
<name>setiathome_v8</name>
</app>
<file_info>
<name>MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu</name>
<executable/>
</file_info>
<app_version>
<app_name>setiathome_v8</app_name>
<platform>x86_64-pc-linux-gnu</platform>
<version_num>800</version_num>
<file_ref>
<file_name>MBv8_8.0r3305_ssse3_x86_64-pc-linux-gnu</file_name>
<main_program/>
</file_ref>
</app_version>
<app>
<name>astropulse_v7</name>
</app>
<file_info>
<name>ap_7.05r2728_sse3_linux64</name>
<executable/>
</file_info>
<app_version>
<app_name>astropulse_v7</app_name>
<version_num>704</version_num>
<platform>x86_64-pc-linux-gnu</platform>
<plan_class></plan_class>
<file_ref>
<file_name>ap_7.05r2728_sse3_linux64</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>
 
Ich glaube, die Fehlermeldung ist einfach nur falsch.
Sie sollte eigentlich lauten: Für die aktuell auf dem Server vorliegenden WUs gibt es keine passende App, warte einfach noch eine Weile...

Denn ohne jegliche Änderungen habe ich nun doch wieder WUs bekommen.
Also entweder keine CUDA oder keine SSE3 oder weißderGeierwas verfügbar.

Somit: Thema abgehakt. Es läuft wieder.
 
Eine dumme Frage zum Thema CUDA-App.

Wenn meine app_info.xml-Datei diesen Inhalt hat:

<app_info>
<app>
<name>setiathome_v8</name>
</app>
<file_info>
<name>setiathome_x41p_V0.97_x86_64-pc-linux-gnu_cuda100</name>
<executable/>
</file_info>
<app_version>
<app_name>setiathome_v8</app_name>
<platform>x86_64-pc-linux-gnu</platform>
<version_num>801</version_num>
<plan_class>cuda90</plan_class>
<cmdline>-nobs</cmdline>
<coproc>
<type>NVIDIA</type>
<count>1</count>
</coproc>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<file_ref>
<file_name>setiathome_x41p_V0.97_x86_64-pc-linux-gnu_cuda100</file_name>
<main_program/>
</file_ref>
</app_version>
<app>
<name>astropulse_v7</name>
</app>
<file_info>
<name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</name>
<executable/>
</file_info>
<file_info>
<name>AstroPulse_Kernels_r2751.cl</name>
</file_info>
<file_info>
<name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</name>
</file_info>
<app_version>
<app_name>astropulse_v7</app_name>
<platform>x86_64-pc-linux-gnu</platform>
<version_num>708</version_num>
<plan_class>opencl_nvidia_100</plan_class>
<coproc>
<type>NVIDIA</type>
<count>1</count>
</coproc>
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>0.1</max_ncpus>
<file_ref>
<file_name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>AstroPulse_Kernels_r2751.cl</file_name>
</file_ref>
<file_ref>
<file_name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</file_name>
<open_name>ap_cmdline.txt</open_name>
</file_ref>
</app_version>
<app>
<name>setiathome_v8</name>
</app>
<file_info>
<name>MBv8_8.22r3711_sse41_x86_64-pc-linux-gnu</name>
<executable/>
</file_info>
<app_version>
<app_name>setiathome_v8</app_name>
<platform>x86_64-pc-linux-gnu</platform>
<version_num>800</version_num>
<file_ref>
<file_name>MBv8_8.22r3711_sse41_x86_64-pc-linux-gnu</file_name>
<main_program/>
</file_ref>
</app_version>
<app>
<name>astropulse_v7</name>
</app>
<file_info>
<name>ap_7.05r2728_sse3_linux64</name>
<executable/>
</file_info>
<app_version>
<app_name>astropulse_v7</app_name>
<version_num>704</version_num>
<platform>x86_64-pc-linux-gnu</platform>
<plan_class></plan_class>
<file_ref>
<file_name>ap_7.05r2728_sse3_linux64</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>
Ich vom System aber nur cuda60- und opencl_nvidia_SoG-WUs zugewiesen bekomme, rechnen die Karten dann auch optimiert, oder nur wenn ich die auch in der app_info.xml eingebunden habe, und die dazugehörigen Dateien auf dem Rechner liegen?
 
Zuletzt bearbeitet:
Ob die app_info.xml grundsätzlich erkannt wird zeigt das BOINC Log, dort taucht nach BOINC Neustart oder Einlesen der Configfiles folgende Nachricht auf:

Code:
Thu 14 Mar 2019 18:25:25 CET | Einstein@Home | Found app_config.xml

Ich vermute das ist aktuell nicht der Fall.
 
Da in der App_info gar keine Version für CUDA60 erwähnt wird, denke ich auch, dass die Datei gar nicht beachtet wird.
Sonst gäbe es ja eine Fehlermeldung, dass für CUDA60 keine App drin ist.
 
Nö, da taucht keine Zeile auf, dass er die app_config.xml gefunden hat.

Ich hatte die cuda100-Sachen nur im Downloadverzeichnis entpackt.
Weil mir aber nvidia-smi folgendes auswirft:

root@System-2:~# nvidia-smi
Thu Mar 14 18:56:53 2019
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 415.27 Driver Version: 415.27 CUDA Version: 10.0 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 1080 Off | 00000000:21:00.0 Off | N/A |
| 31% 57C P2 71W / 270W | 355MiB / 8119MiB | 98% Default |
+-------------------------------+----------------------+----------------------+
| 1 GeForce GTX 108... Off | 00000000:31:00.0 Off | N/A |
| 29% 44C P2 110W / 320W | 391MiB / 11178MiB | 82% Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 3157 C ...athome_8.01_x86_64-pc-linux-gnu__cuda60 345MiB |
| 1 3156 C ...athome_8.01_x86_64-pc-linux-gnu__cuda60 381MiB |
+-----------------------------------------------------------------------------+
root@System-2:~#

dachte ich, es läuft. Aber die Laufzeiten haben mich dann doch irritiert.

Ich gehe jetzt die Konsolenbefehle, durch die koschi mir per PN geschickt hat.
 
Ich habe die runtergeladenen WUs noch zu Ende rechnen lassen, darum melde ich mich erst jetzt.

Fr 15 Mär 2019 07:38:05 CET | SETI@home | Found app_info.xml; using anonymous platform

Das System hat jetzt cuda90-WUs bekommen, die wie nix durchlaufen. :-)

Vielen Dank nochmal an koschi.
 
Zurück
Oben Unten