Offizielles Jahresend-Race SETI@Home

Hallo,

ich habe mich mal versucht zu dem Thema SETI und optimierte Apps schlau zu machen, hab aber mehr Fragen als Antworten. Ich habe unter Win10 und einer GTX 1060 3GB dieses Lunatics Win64 0.45 Beta 6 installiert. Dort bekomme ich aber nur GPU Files mit Cuda50, gibt es dass CUDA90/100 nur für Linux? Ist es sinnvoll einen R7 2700X mitlaufen zu lassen oder nur GPU?

CU
 
CUDA 90 und höher gibt es nur für Linux.
Prozessor mitlaufen lassen ist sicherlich unter Win sinnvoll, man darf sich aber nicht die WU-Zeiten von nVidia Grafikkarten unter Linux angucken, sonst bekommt man Tränen in den Augen. ;)
Meine kleine 1050 braucht z.B. 4 Minuten für eine 60 Credits WU, bei 53 Watt Leistungsaufnahme.
 
SETI ist noch eines der Projekte wo man auch mit CPUs noch voran kommt, alles für den Dackel, alles für den Club!
Ich lasse auch trotz Nvidia+Linux noch die CPU mitlaufen.
 
Die Nvidia in meinem Laptop macht Zicken. Gut die Hälfte ist Ausschuss. So mach das keinen Spaß :(
 
ich habe mich mal versucht zu dem Thema SETI und optimierte Apps schlau zu machen, hab aber mehr Fragen als Antworten. Ich habe unter Win10 und einer GTX 1060 3GB dieses Lunatics Win64 0.45 Beta 6 installiert. Dort bekomme ich aber nur GPU Files mit Cuda50, gibt es dass CUDA90/100 nur für Linux? Ist es sinnvoll einen R7 2700X mitlaufen zu lassen oder nur GPU?
Also der R7 sollte locker seine 20.000cr. am Tag liefern können - die GTX1060 wird das unter Windows vermutlich nicht ganz oder gerade so schaffen.

Ich habe mal eine kleine Auswertung vor und nach dem Wechsel von CUDA10.0(mit 1WU) zu 10.2(mit 2 WUs) gemacht.
Wenn nicht gerade die WUs deutlich abweichend sind, dann ergab das ein Plus von 20%. Von 50.000cr/d auf 60.000. Ich werde das in ein paar Tagen mal noch verifizieren. Kommt mir fast zu viel vor.
TDP ist in beiden Fällen auf 90W abgesenkt.

Und den Wartungstag gestern habe ich seit langem mal wieder komplett ohne Leerlauf überstanden.
Ich hatte ja immer die Aufgabe vor mir hergeschoben, zu evaluieren, wie man CPU-WUs in GPU-WUs umwandeln kann. Sofern SETI die 500WUs Puffer beibehält (200 CPU, 300 GPU), kann ich mir das sparen.
 
Zuletzt bearbeitet:
Kleines Update:


Team08.12.1909.12.1910.12.1911.12.19
Intel Corp826.052.691826.151.022826.236.977826.356.110
Planet 3DNow!746.613.328747.985.043749.201.397750.823.469
Differenz79.439.36378.165.97977.035.58075.532.641
Position Intel51515151
Position P3D55555555
Differenz4444
Tagesschnitt Intel67.24398.33185.955119.133
Tagesschnitt P3D1.052.3361.371.7151.216.3541.622.072
Tage zum Überholen81616850
 
A
Ich habe mal eine kleine Auswertung vor und nach dem Wechsel von CUDA10.0(mit 1WU) zu 10.2(mit 2 WUs) gemacht.
Wenn nicht gerade die WUs deutlich abweichend sind, dann ergab das ein Plus von 20%. Von 50.000cr/d auf 60.000. Ich werde das in ein paar Tagen mal noch verifizieren. Kommt mir fast zu viel vor.
TDP ist in beiden Fällen auf 90W abgesenkt.
War wohl eher Zufall. Im SETI-Forum hat jemand 4 WUs mit CUDA90, 101 und 102 getestet. Die Unterschiede waren minimal: 154, 150, 149s.
Also letztendlich bringt die 102er Version nur deswegen Vorteile, weil sie die 5s Nachladepause sinnvoll nutzt.

Wegen Kälte hab ich nun doch wieder 2 Rechner laufen.
 
Irgendwie hatte ich mich gewundert, dass meine beiden Ryzen 1700 unterschiedliche Performance aufweisen.
Einer schafft 16kcr/d, der andere nur 14. Bis ich dann gemerkt habe, dass der mit 16 optimierte apps nutzt.
Ich hatte ja immer gedacht, das bringt nicht soo viel, aber in dem Fall doch.
 
Hast du die AMD apps aus dem TBAR all in one Paket im Ensatz?

--- Update ---

@85W PPT liege ich über die letzten 15 CPU WUs gemittelt bei 2720 Sekunden pro WU zu je 66 Credit, ergibt ~50k Credit bei 24 Threads. Aber die Grafikkarten wollen ja auch noch befeuert werden... Nutze auch die MBv8_8.22r3711_sse41_amd_x86_64-pc-linux-gnu aus dem TBar Paket http://www.arkayn.us/lunatics/BOINC.7z
 
So, ich lasse mal das VII Quartett ein paar Stunden für Seti schuften damit sich die umgebaute Karte erstmal einbrennen kann. 8)
 
Schick mal ein Bild *heart*
 
Zwar nur ein Schnappschuss aber ich denke der reicht. :D

VII Quartett.jpg

Mit dem aktuellen Treiber hatte ich leider das Problem das sich mit der Zeit das System ganz oder mehr oder weniger fest gefressen hatte weshalb ich erstmal auf eine ältere Treiber Version ausgewichen bin. Mal schauen wie sich das System damit schlägt.
Besonders schlimm war es bei Milkyway aber das war schon nett anzuschauen wie das System alle 25-30s 8 WUs (2 pro GPU) ausgespuckt hatte. :D
 
Mächtig gewaltig :-)
Danke!
 
Und mit dem 19.9.2 laufen nun auch alle Karten wieder einwandfrei und haben alle Milkyway Test WUs absolviert. :)
Un kann sich das System wieder für ein paar Stunden Seti widmen.
 
Ob es auch eine MBv8_8.22r4008_avx2_amd_x86_64-pc-linux-gnu gibt?

Leider fehlen mir vermutlich, wie immer, die richtigen Suchbegriffe.
Rein nach dem Dateinamen suchen, führt bei mir zu keinem Treffer.

Gehe ich recht in der Annahme, dass erst nach Fertigrechnung aller alten WUs und Neustart des Boinc-Managers,
mit dem AMD-Client gerechnet wird?
 
Zuletzt bearbeitet:
Hast du die AMD apps aus dem TBAR all in one Paket im Ensatz?

--- Update ---

@85W PPT liege ich über die letzten 15 CPU WUs gemittelt bei 2720 Sekunden pro WU zu je 66 Credit, ergibt ~50k Credit bei 24 Threads. Aber die Grafikkarten wollen ja auch noch befeuert werden... Nutze auch die MBv8_8.22r3711_sse41_amd_x86_64-pc-linux-gnu aus dem TBar Paket http://www.arkayn.us/lunatics/BOINC.7z

Keine Ahnung, woher die app stammte.
Es ist jedenfalls die MBv8_8.22r3711_sse41_x86_64-pc-linux-gnu
Vielleicht sollte ich mal die _amd_ version probieren. 50k wäre ja das Dreifache. :o
Mit welchem Takt läuft der 3900 ?

--- Update ---

Ob es auch eine MBv8_8.22r4008_avx2_amd_x86_64-pc-linux-gnu gibt?

Leider fehlen mir vermutlich, wie immer, die richtigen Suchbegriffe.
Rein nach dem Dateinamen suchen, führt bei mir zu keinem Treffer.

Gehe ich recht in der Annahme, dass erst nach Fertigrechnung aller alten WUs und Neustart des Boinc-Managers,
mit dem AMD-Client gerechnet wird?

Die hier ist nun fast schon 4 Jahre alt:
http://lunatics.kwsn.info/index.php?action=downloads;sa=view;down=467

Wenn Du eine neue app ins Projektverzeichnis kopiert und diese per app-info.xml bekannt gemacht hast, dann wird die erst nach einem Neustart oder Neueinlesen der app_info genutzt.
Alte WUs sollten vorher fertig gerechnet werden, sonst werden diese womöglich gekillt, sofern mal nicht die neue und die alte app gut verpackt hat. Aber meist reicht ein Zahlendreher im app-namen, um sie nicht zu erkennen und dann werden alle WUs geschrottet.
Darum zum Testen möglichst immer den Bunker auf 0,01 stellen, damit nicht mehr WUs als Kerne da sind, die gekillt werden können...
 
Zuletzt bearbeitet:
Bei 85W PPT macht der mit 21 x SETI und 3 Threads für Einstein und SETI GPU Tasks so zwischen 3536-3640 MHz (niedrigster und höchster Kern), schwankt natürlich leicht bei jedem Aufruf.
Code:
root@frickelbude:/var/lib/boinc/projects/setiathome.berkeley.edu# cat /sys/devices/system/cpu/cpufreq/policy*/scaling_cur_freq | awk '{ print $1/1000 }' | sort | xargs
3560.18 3598.33 3635.35 3652.26 3656.96 3657.96 3663.63 3668.95 3670.27 3674.65 3678.25 3680.99 3681.85 3685.82 3688.17 3690.74 3695.18 3697.4 3702.83 3715.22 3723.64 3732.71 3734.34 3749.44
Na Glückwunsch, hier sind es sogar über 3700 Mhz :-D

Thorsam schrieb:
Ob es auch eine MBv8_8.22r4008_avx2_amd_x86_64-pc-linux-gnu gibt?

Die Intel AVX2 ist in dem Paket schon dabei, wird aber laut app_info.xml nicht genutzt. Müsste man mal ausprobieren, vielleicht tut die auch auf (neueren) AMD.
Um von MBv8_8.22r3711_sse41_x86_64-pc-linux-gnu auf MBv8_8.22r3711_sse41_amd_x86_64-pc-linux-gnu zu wechseln habe ich nur BOINC gestoppt, in der app_info.xml das _amd hinzugefügt, wieder gestartet, lief sogar auf den gleichen WUs problemlos weiter.
 
Nach einer Weile der Beobachtung, konnte ich dann auch sehen, das die WUs mit dem AMD-client weiter gerechnet wurden.
Fehlerfrei. Da die Naples-CPUen nur auf 2 GHz laufen. hat sich die Laufzeit von 1:50 Std. auf 1:30 Std. verkürzt.
Ich werde mir mal die Datei aus MagicEyes Link ins Verzeichnis kopieren, und die app_info.xml anpassen. Mal sehen was passiert.
Vielen Dank für den Link.

EDIT:
Sehe gerade, das das AVX ohne 2 ist. Let's move on, and see whats happend.

EDIT 2:
Wer lesen kann ist klar im Vorteil: "Intended for all Intel and AMD CPUs with avx or higher."

Da stellt sich mir natürlich die Frage, ob für die avx2-Datei aus dem aktuellen BOINC.7z das Gleiche gilt.
 
Zuletzt bearbeitet:
Vielleicht sollte ich mal die _amd_ version probieren. 50k wäre ja das Dreifache. :o

Hab gerade nochmal den Durchschnitt für die WUs der letzten Nacht durchgerechnet, das wären 3046s zu 65,56c und 44624 Credit total.
Fürchte durch die schwankenden Laufzeiten sind Vergleiche zwischen den Apps nur bedingt aussagekräftig bis nicht hunderte WUs berücksichtigt werden, oder eine Standard-WU genutzt wird.

Ich werde mal das SETI Benchmarkscript ausprobieren und folgende Anwendungen antreten lassen:
MBv8_8.22r3711_sse41_x86_64-pc-linux-gnu
MBv8_8.22r3711_sse41_amd_x86_64-pc-linux-gnu
MBv8_8.22r4008_avx2_intel_x86_64-pc-linux-gnu

Die AVX2 habe ich nun aktiviert, vorhandene WUs laufen weiter.

--- Update ---

https://github.com/Ricks-Lab/benchMT

Gestartet mit ./benchMT --noBS --max_threads 21 --std_signals:
Screenshot from 2019-12-14 13-07-37.png
 

Anhänge

  • Screenshot from 2019-12-14 12-57-57.png
    Screenshot from 2019-12-14 12-57-57.png
    314,4 KB · Aufrufe: 13
Zuletzt bearbeitet:
Boinc-Manager sagt: Sa 14 Dez 2019 13:00:38 CET | SETI@home | Project has no tasks available

Projektserver sagt: Results ready to send 276.964
 
Hast du die AMD apps aus dem TBAR all in one Paket im Ensatz?

--- Update ---

@85W PPT liege ich über die letzten 15 CPU WUs gemittelt bei 2720 Sekunden pro WU zu je 66 Credit, ergibt ~50k Credit bei 24 Threads. Aber die Grafikkarten wollen ja auch noch befeuert werden... Nutze auch die MBv8_8.22r3711_sse41_amd_x86_64-pc-linux-gnu aus dem TBar Paket http://www.arkayn.us/lunatics/BOINC.7z
Hast Du zufällig eine passende app_info.xml parat? Die in dem Paket ist leider nur für die CUDA-apps und verdammt groß.
Die bei mir so anzupassen, dass alle CPU- und GPU-Apps drin sind, könnte eine Weile dauern.
Edit: vor allem habe ich keinen Plan, was da reingehört - amd, Ati, txt - da sind einfach zu viele Variablen, mit denen ich nichts anfangen kann.
 
Zuletzt bearbeitet:
Meine hat zum Beispiel folgenden Inhalt. Was ich Rot markiert habe, ist individuelle Anpassung.

Code:
<app_info>
  <app>
     <name>setiathome_v8</name>
  </app>
    <file_info>
      <name>setiathome_x41p_V0.98b1_x86_64-pc-linux-gnu_cuda[COLOR="#FF0000"][B]101[/B][/COLOR]</name>
      <executable/>
    </file_info>
    <app_version>
      <app_name>setiathome_v8</app_name>
      <platform>x86_64-pc-linux-gnu</platform>
      <version_num>801</version_num>
      <plan_class>cuda[COLOR="#FF0000"][B]101[/B][/COLOR]</plan_class>
      <cmdline>-nobs</cmdline>
      <coproc>
        <type>NVIDIA</type>
        <count>1</count>
      </coproc>
      <avg_ncpus>0.1</avg_ncpus>
      <max_ncpus>0.1</max_ncpus>
      <file_ref>
         <file_name>setiathome_x41p_V0.98b1_x86_64-pc-linux-gnu_cuda[COLOR="#FF0000"][B]101[/B][/COLOR]</file_name>
          <main_program/>
      </file_ref>
    </app_version>
  <app>
     <name>astropulse_v7</name>
  </app>
     <file_info>
       <name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</name>
        <executable/>
     </file_info>
     <file_info>
       <name>AstroPulse_Kernels_r2751.cl</name>
     </file_info>
     <file_info>
       <name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</name>
     </file_info>
    <app_version>
      <app_name>astropulse_v7</app_name>
      <platform>x86_64-pc-linux-gnu</platform>
      <version_num>708</version_num>
      <plan_class>opencl_nvidia_100</plan_class>
      <coproc>
        <type>NVIDIA</type>
        <count>1</count>
      </coproc>
      <avg_ncpus>0.1</avg_ncpus>
      <max_ncpus>0.1</max_ncpus>
      <file_ref>
         <file_name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</file_name>
          <main_program/>
      </file_ref>
      <file_ref>
         <file_name>AstroPulse_Kernels_r2751.cl</file_name>
      </file_ref>
      <file_ref>
         <file_name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</file_name>
         <open_name>ap_cmdline.txt</open_name>
      </file_ref>
    </app_version>
   <app>
      <name>setiathome_v8</name>
   </app>
      <file_info>
         <name>[COLOR="#FF0000"][B]MBv8_8.22r4008_avx2_intel_x86_64-pc-linux-gnu[/B][/COLOR]</name>
         <executable/>
      </file_info>
     <app_version>
     <app_name>setiathome_v8</app_name>
     <platform>x86_64-pc-linux-gnu</platform>
     <version_num>800</version_num>   
      <file_ref>
        <file_name>[COLOR="#FF0000"][B]MBv8_8.22r4008_avx2_intel_x86_64-pc-linux-gnu[/B][/COLOR]</file_name>
        <main_program/>
      </file_ref>
    </app_version>
   <app>
      <name>astropulse_v7</name>
   </app>
     <file_info>
       <name>ap_7.05r2728_sse3_linux64</name>
        <executable/>
     </file_info>
    <app_version>
       <app_name>astropulse_v7</app_name>
       <version_num>704</version_num>
       <platform>x86_64-pc-linux-gnu</platform>
       <plan_class></plan_class>
       <file_ref>
         <file_name>ap_7.05r2728_sse3_linux64</file_name>
          <main_program/>
       </file_ref>
    </app_version>
</app_info>

EDIT
Ich werde mich mal Morgen in die Appelstr. setzen, und den Vergleichstest auch mal durchlaufen lassen.
Jetzt von Braunschweig per AnyDesk auf dem Rechner rumfummeln will ich nicht.
Erfahrungsgemäß geht das nur in die Hose, und der Rechner hängt sich auf. ;D
 
Zuletzt bearbeitet:
Danke, so eine mit CUDA hab ich ja auch auf dem anderen Rechner.
Aber für die Radeon VII brauch ich halt noch eine, wo der entsprechende GPU-Teil für AMD drin ist. Oder für Ati. Und auch noch für Linux, sonst könnte ich ja einfach was aus dem Lunatics Package nehmen.
 
Ich habe an der GPU plan_class nichts geändert, die ist IMHO eine serverseitige Vorgabe.
Habe nur jeweils die name und file_name angepasst. Auf der Vega rechne ich nicht.
Die Datei kommt so aus dem all in one Paket.

Code:
<app_info>
  <app>
     <name>setiathome_v8</name>
  </app>
    <file_info>
      <name>setiathome_x41p_V0.98b1_x86_64-pc-linux-gnu_cuda101</name>
      <executable/>
    </file_info>
    <app_version>
      <app_name>setiathome_v8</app_name>
      <platform>x86_64-pc-linux-gnu</platform>
      <version_num>801</version_num>
      <plan_class>cuda90</plan_class>
      <cmdline></cmdline>
      <coproc>
        <type>NVIDIA</type>
        <count>1</count>
      </coproc>
      <avg_ncpus>1.0</avg_ncpus>
      <max_ncpus>1.0</max_ncpus>
      <file_ref>
         <file_name>setiathome_x41p_V0.98b1_x86_64-pc-linux-gnu_cuda101</file_name>
          <main_program/>
      </file_ref>
    </app_version>
  <app>
     <name>astropulse_v7</name>
  </app>
     <file_info>
       <name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</name>
        <executable/>
     </file_info>
     <file_info>
       <name>AstroPulse_Kernels_r2751.cl</name>
     </file_info>
     <file_info>
       <name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</name>
     </file_info>
    <app_version>
      <app_name>astropulse_v7</app_name>
      <platform>x86_64-pc-linux-gnu</platform>
      <version_num>708</version_num>
      <plan_class>opencl_nvidia_100</plan_class>
      <coproc>
        <type>NVIDIA</type>
        <count>1</count>
      </coproc>
      <avg_ncpus>1.0</avg_ncpus>
      <max_ncpus>1.0</max_ncpus>
      <file_ref>
         <file_name>astropulse_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100</file_name>
          <main_program/>
      </file_ref>
      <file_ref>
         <file_name>AstroPulse_Kernels_r2751.cl</file_name>
      </file_ref>
      <file_ref>
         <file_name>ap_cmdline_7.08_x86_64-pc-linux-gnu__opencl_nvidia_100.txt</file_name>
         <open_name>ap_cmdline.txt</open_name>
      </file_ref>
    </app_version>
   <app>
      <name>setiathome_v8</name>
   </app>
      <file_info>
         <name>MBv8_8.22r4008_avx2_intel_x86_64-pc-linux-gnu</name>
         <executable/>
      </file_info>
     <app_version>
     <app_name>setiathome_v8</app_name>
     <platform>x86_64-pc-linux-gnu</platform>
     <version_num>800</version_num>   
      <file_ref>
        <file_name>MBv8_8.22r4008_avx2_intel_x86_64-pc-linux-gnu</file_name>
        <main_program/>
      </file_ref>
    </app_version>
   <app>
      <name>astropulse_v7</name>
   </app>
     <file_info>
       <name>ap_7.05r2728_sse3_linux64</name>
        <executable/>
     </file_info>
    <app_version>
       <app_name>astropulse_v7</app_name>
       <version_num>704</version_num>
       <platform>x86_64-pc-linux-gnu</platform>
       <plan_class></plan_class>
       <file_ref>
         <file_name>ap_7.05r2728_sse3_linux64</file_name>
          <main_program/>
       </file_ref>
    </app_version>
</app_info>
 
Zurück
Oben Unten