Collatz Sieve 1.21

bschicht86

Redaktion
☆☆☆☆☆☆
Mitglied seit
14.12.2006
Beiträge
4.249
Renomée
228
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
Falls ich es richtig gelesen habe, wurde Collatz umgestellt auf Sieve, statt wie bisher Mini, Solo und Large.

Erster Eindruck zu den neuen WU:

Die config habe ich für die HD7970 wie bisher belegt:
Code:
<configuration>
verbose=1
items_per_kernel=20
kernels_per_reduction=9
threads=8
sleep=1
build_options=-Werror
</configuration>

In der App_Config.xml hat sich folgendes als "auslastend" (~90-99%) herausgestellt:
Code:
<name>collatz_sieve</name>
<user_friendly_name>Collatz Sieve</user_friendly_name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.1</cpu_usage>

Laufzeiten im Vergleich zur Mini:
Mini: ~360s, ~780Cr
Sieve: ~410s, ~4500Cr

Klingt irgendwie nach einer Credit-Inflation. Wenn ja, bekäme ich wenigstens schneller meine 100 Mille zusammen. *buck*
 
Zuletzt bearbeitet:
Aber es gibt doch nach wie vor Mini, Solo und Large!? Also ich bekomme die weiter.
 
Eventuell erhälst du Rückläufer, weil die bestehenden werden noch zuende gerechnet. Ich selbst habe nur noch 3x Large und 3x Mini. Der Rest ist Sieve.
 
Oben die app_config editiert. Es scheint auch wie bei manch MilkyWay-WU zu reichen, jeder WU die halbe Karte und 0.1 CPU zuzuteilen. Die erste Tahiti ist damit bei 98-99%, die 2.te bei 90-93%
 
Uff, das wären bei mir nach der ersten Hochrechnung ca. 2,8 Millionen pro Tag mit einer Radeon 390. Das ist deutlich mehr als vorher (über eine Million mehr).
 
Deswegen drehen die anderen Teams so auf, wahrscheinlich ohne wirklich mehr Leistung aufzufahren.
Unter Linux brechen die neuen Sieve leider sofort mit Fehlern ab.
 
Hab mir die Sieve auch mal angeschaut, komme mit meiner ollen 280X auch gut vorran.
98% Auslastung ohne eine config.
~190-200sec
~4500-4600Cr
 
Unter Linux brechen die neuen Sieve leider sofort mit Fehlern ab.

Ja musste ich auch leider feststellen wo ich die 7970 unter Mint ausprobieren wollte.

Deswegen drehen die anderen Teams so auf, wahrscheinlich ohne wirklich mehr Leistung aufzufahren.
Meine 2 APU's erzeugen auch deutlich mehr credits als vorher mit solo's.


Einstellung:

<app_config>
<app>
<name>collatz_sieve</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
</app>
</app_config>
 
In welchen Ordnerpfad muss man die app_config packen?


Lohnt sich folgende Collatz-Conjecture-Option im Hinblick auf die Punkte (generell und im Fall eines Vishera)?
Code:
OpenCL for AMD/Intel CPUs (opencl_amd_cpu)
 
Zuletzt bearbeitet:
In den von dem Projekt.
 
Das Bild sagt aus das deine GPU 5 WU gleichzeitig berechnet, das steuert man über die app_config.xml. Wie sieht den deine aus?

CPU lohnt sich bei Collatz nicht, da kann man dann lieber was anderes drauf laufen lassen.
 
Das Bild sagt eher aus, dass du CPU-WU's bekommen hast. 20h Laufzeit und gerade mal 2% bei 30min Berechnungszeit sprechen dafür. Oder bin ich nur von meinen Tahiti's verwöhnt? *buck*
 
In Bild 1 ist aber kein Haken drin für CPU WU.
 
bschicht86 schrieb:
Das Bild sagt eher aus, dass du CPU-WU's bekommen hast.
eratte schrieb:
In Bild 1 ist aber kein Haken drin für CPU WU.
Genau das! Meine GPU ist im Leerlauf, während diese 5 WUs berechnet werden. Dabei hatte und habe ich nur GPU-Anwendungen zugelassen.


eratte schrieb:
die app_config.xml. Wie sieht den deine aus?
Ich kam noch nicht dazu, eine anzulegen. Ich tue die ganze Zeit andere Sachen am Rechner.
 
Man muss auch keine app_config haben, dann sollte aber die GPU 1 WU bekommen. Du hast 2 Grafikkarten im Rechner? Schau mal in die meldungen was der Bonic da zu den gefundenen GPU's meldet. Und hast du die Einstellungen für Collatz generell gesetzt oder für home, school oder work und den Rechner aber nicht zugeordnet?
 
Nein, ich habe nur die HD 6770 im Erstrechner. (Die Angaben des Zweitrechners sind mir zu viel für das kleine Fenster "Mein System". Bei der Grafikkarte mache ich eine Ausnahme.)

Die Einstellungen sind die generellen für CC. Zur Sicherheit glich ich soeben die Profile home, school und work daran an. Allerdings wurde die Ressourcenverteilung im BM von den generellen Einstellungen übernommen; eine Vermischung wäre kurios.
 
Rennt das jetzt bei wem unter Linux, bei mir wird alles abgebrochen?
 
Ich vermute, dass der AMD Treiber + SDK veraltet sind bzw. die neue App für neuere Versionen gebaut ist.
Ich wollte mal die Backportpakete für Debian probieren, hab ich aber noch nicht geschafft.
 
Ok, ich werde dann mal an der Mintkiste die Sachen deinstallieren am WE und die neusten Versionen aufspielen bevor ich den Rechner mit Windows 7 neu aufsetze.

PS.: Danke
 
Hat einer vielleicht eine Erklärung, warum im einen Rechner die GTX980Ti die WUs ohne Probleme rechnet, und die im anderen Rechner sofort mit Berechnungsfehler abbricht?

17.12.2015 18:24:32 | Collatz Conjecture | Starting task collatz_sieve_2482198743616258572288_6597069766656_0
17.12.2015 18:24:33 | Collatz Conjecture | Computation for task collatz_sieve_2482198743616258572288_6597069766656_0 finished
17.12.2015 18:24:33 | Collatz Conjecture | Output file collatz_sieve_2482198743616258572288_6597069766656_0_0 for task collatz_sieve_2482198743616258572288_6597069766656_0 absent

Ich werde mal in der Zwischenzeit den Boincmanager deinstallieren und neu installieren.
 
Zuletzt bearbeitet:
Zurück
Oben Unten