Rechner für BOINC optimieren

alikante

Vice Admiral Special
Mitglied seit
27.11.2010
Beiträge
605
Renomée
3
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2017
Hallo Gemeinde,

habe mich entschieden meine Rechenpower für BOINC zur Verfügung zu stellen.
Bin als Alikante im Projekt climateprediction.net angemeldet und natürlich gleich dem Team P3D begetreten - bin natürlich AMD Fan :)

Nun zur eigendlichen Frage : welche Einstellungen muß ich vornehmen ? Ich habe eine 8Kern CPU AMD FX 8250E mit zwei HD 5570 in Crossfire und wenns klappt auch bald eine Ageia Physix PCi-e zur Verfügung. Vorallem die zweite HD 5570 ist 99% der Zeit totes Kapital und braucht unbedingt was zum rechnen.

Grüße

Achso, das ist nicht der einzige Rechner im Arsenal. Ein Server mit Intel M 2,6Ghz auf i945 Basis läuft 24/365. Und ein weiterer Server mit 1Ghz Via C7 ( AES SH1 SH2 hardware ) und Gforce 8400 - der mal minen sollte - steht gerade ohne BS rum und wartet auf Arbeit.
 
Zuletzt bearbeitet:
Erstmal ein freundliches Hallo an den neuen P3D Cruncher!
Zur Information: bei Climateprediction.net wird keine Grafikkarte unterstützt. Wenn Deine Grafikkarten ebenfalls zum crunchen benutzt werden sollen gibt es andere Projekte wie zum Beispiel Collatz Conjecture.
Um mit dem FX Vollgas geben zu können im Boinc-Manager in die Erweiterte Ansicht wechseln, den Reiter Assistenten/Einstellungen auswählen, dort dann "Nutzung des Prozessors".Ein Häkchen bei "Wenn der Computer benutzt wird" und eventuell schon mal bei "Nutze die GPU...". Weiter unten "Nutze auf Multiprozessorsystem" den Wert 100 eingeben und darunter schauen ob dort auch 100% eingestellt sind. Mit diesen Einstellungen werden auf den 8 Kernen die Aufgaben von CPDN berechnet. Damit genug Futter vorhanden ist auf "Nutzung des Netzwerks" gehen und dort "Mindest Arbeitspuffer" auf ca 1 Tag und darunter "Max. zusätzlicher Arbeitspuffer" auch auf 1 tag einstellen. Die restlichen Felder können frei bleiben. Zum Reiter "Nutzung von Festplatte und Speicher" ist eigentlich nur ein Haken bei "Lasse Anwendungen im Speicher , wenn sie Pausiert". Danach auf OK und gut. Wenn Du weitere Hilfe beim starten von GPU Anwendungen brauchst, wir sind für dich da.
 
Die Einstellung "Lasse Anwendungen im Speicher , wenn sie Pausiert", welche Sabroe anspricht, ist mitunter sehr wichtig, weil sie verhindert, dass pausierte Anwendungen bestimmter Projekte nach dem erneuten Starten nicht den letzten Stand verwerfen und somit beim letzten Checkpoint (erneut) beginnen. Bei Apps ohne Checkpoint finge er von vorne an.

Du kannst Deinen Intel M Server, wenn du willst ebenfalls für Climate verwenden. Oder aber, da wir gerade in einer Challenge sind, könntest Du den http://pogs.theskynet.org/pogs zufügen und unserem Team beitreten ;) [1]
Der sollte da auch noch etwas abwerfen, weil POGS bisher noch nicht so stark optimiert ist. Ebenso der Via C7.
Ansonsten kannst Du mal herum stöbern, welches Projekt bzw. Gebiet dich eher anspricht, um dafür rechnen zu lassen.

[1] http://www.planet3dnow.de/vbulletin/showthread.php/421095-Skynet-Challenge?goto=newpost
 
Ok,

danke für die Infos. Beim FX habe ich collatz hinzugefügt und er verwendet die HD 5570 Karten :-)
Mal schaun ob ich heute Nachmittag den BOINC Manager noch auf den Intel Server spielen kann, werde berichten ob das Projekt POGS dort läuft.

Grüße

PS: habe gerade gesehen das mein FX zwei Aufgaben mit Berechnungsfehler abgebrochen hat ?? Jemand ne Idee woran das liegt bzw. gibts da ne Log.Datei zu??
 
Ich kann bei collatz Deinen namen in unserem team nicht finden. Einfach wie bei CPDN das Team joinen

Laut Forum haben die hadcm3s teilweise selbstgemachte Probleme: There's a big new batch of hadcm3s now in the queue.
Hopefully not too many have built-in problems. :)
Das ist die Stderr.txt der fehlerhaften WU:
http://climateapps2.oerc.ox.ac.uk/cpdnboinc/result.php?resultid=17816850
Der Fehler Exit status 22 (0x16) scheint aus der Anwendung, also der Workunit zu kommen.
icrosofts error codes sagen
ERROR_BAD_COMMAND
22 (0x16)
The device does not recognize the command.
 
Moin,

so der Intel werkelt seit gestern Nachmittag mit pogs und hat schon 2 Aufgaben fertig. Wie lang dauert das bis die abgeholt werden ?? Auf dem FX hab ich nun auch 2 collatz Aufgaben fertig, hab auch pogs mit drauf gezogen. Die Challenge ist ja nur für pogs oder??

grüße
 
1) Ja, die challenge ist nur bei pogs
2) In Deinem Collatz Konto solltest Du unter "Einstellungen für das Projekt" nur folgendes einstellen:
Ressourcenverteilung
Bestimmt den Anteil an den Ressourcen des Computer die diesem Projekt zur Verfügung stehen. Beispiel: Bei einer Aufteilung zwischen zwei Projekten von 100 und 200 wird das erste 1/3 der Ressourcen bekommen und das andere 2/3.
100
Benutze CPU
Unterstützt ab Version 6.10
nein
Benutze ATI GPU
Unterstützt ab Version 6.10
ja
Benutze Nvidia GPU
Unterstützt ab Version 6.10
nein
Benutze Intel GPU
Unterstützt ab Version 7.2
nein
Testanwendungen erlauben?
Dies hilft uns, Anwendungen zu verbessern, kann aber zu Fehlern/Abstürzen des Computers führen
nein
Ist es OK für Collatz Conjecture und Dein Team (wenn beigetreten) Dich per E-Mail zu kontaktieren?ja
Sollen deine Computer auf der Collatz Conjecture Webseite angezeigt werden?ja
Computerstandort (Standard)---
maximale CPU % für Grafiken
0 ... 100
1
Startet nur die ausgewählte Anwendung/enMini Collatz Conjecture: ja
Solo Collatz Conjecture: nein
Large Collatz Conjecture: nein
Micro Collatz Conjecture: nein
Wenn keine Aufgaben für die ausgewählten Anwendungen vorhanden sind, Aufgaben von anderen Anwendungen akzeptieren?no
Run only the selected plan classesOpenCL for AMD GPUs (opencl_amd_gpu)

Die Solo WUs dauern auf den 5570 einfach zu lange
3) Im Datenordner von Boinc, also da wo die Projekte liegen, kann man eine Datei mit dem Namen cc_config.xml erstellen. Die kann so aussehen:
<cc_config>
<log_flags>
<file_xfer>1</file_xfer>
<sched_ops>1</sched_ops>
<task>1</task>
<android_debug>0</android_debug>
<app_msg_receive>0</app_msg_receive>
<app_msg_send>0</app_msg_send>
<async_file_debug>0</async_file_debug>
<benchmark_debug>0</benchmark_debug>
<checkpoint_debug>0</checkpoint_debug>
<coproc_debug>0</coproc_debug>
<cpu_sched>0</cpu_sched>
<cpu_sched_debug>0</cpu_sched_debug>
<cpu_sched_status>0</cpu_sched_status>
<dcf_debug>0</dcf_debug>
<disk_usage_debug>0</disk_usage_debug>
<file_xfer_debug>0</file_xfer_debug>
<gui_rpc_debug>0</gui_rpc_debug>
<heartbeat_debug>0</heartbeat_debug>
<http_debug>0</http_debug>
<http_xfer_debug>0</http_xfer_debug>
<mem_usage_debug>0</mem_usage_debug>
<network_status_debug>0</network_status_debug>
<notice_debug>0</notice_debug>
<poll_debug>0</poll_debug>
<priority_debug>0</priority_debug>
<proxy_debug>0</proxy_debug>
<rr_simulation>0</rr_simulation>
<rrsim_detail>0</rrsim_detail>
<sched_op_debug>0</sched_op_debug>
<scrsave_debug>0</scrsave_debug>
<slot_debug>0</slot_debug>
<state_debug>0</state_debug>
<statefile_debug>0</statefile_debug>
<suspend_debug>0</suspend_debug>
<task_debug>0</task_debug>
<time_debug>0</time_debug>
<trickle_debug>0</trickle_debug>
<unparsed_xml>0</unparsed_xml>
<work_fetch_debug>0</work_fetch_debug>
</log_flags>
<options>
<abort_jobs_on_exit>0</abort_jobs_on_exit>
<allow_multiple_clients>0</allow_multiple_clients>
<allow_remote_gui_rpc>1</allow_remote_gui_rpc>
<client_new_version_text></client_new_version_text>
<client_version_check_url>http://boinc.berkeley.edu/download.php?xml=1</client_version_check_url>
<client_download_url>http://boinc.berkeley.edu/download.php</client_download_url>
<disallow_attach>0</disallow_attach>
<dont_check_file_sizes>0</dont_check_file_sizes>
<dont_contact_ref_site>0</dont_contact_ref_site>
<exit_after_finish>0</exit_after_finish>
<exit_before_start>0</exit_before_start>
<exit_when_idle>0</exit_when_idle>
<fetch_minimal_work>0</fetch_minimal_work>
<fetch_on_update>0</fetch_on_update>
<force_auth>default</force_auth>
<http_1_0>0</http_1_0>
<http_transfer_timeout>1000</http_transfer_timeout>
<http_transfer_timeout_bps>100</http_transfer_timeout_bps>
<max_event_log_lines>2000</max_event_log_lines>
<max_file_xfers>20</max_file_xfers>
<max_file_xfers_per_project>10</max_file_xfers_per_project>
<max_stderr_file_size>0</max_stderr_file_size>
<max_stdout_file_size>0</max_stdout_file_size>
<max_tasks_reported>0</max_tasks_reported>
<ncpus>8</ncpus>
<network_test_url>http://www.google.com/</network_test_url>
<no_alt_platform>0</no_alt_platform>
<no_gpus>0</no_gpus>
<no_info_fetch>0</no_info_fetch>
<no_priority_change>0</no_priority_change>
<os_random_only>0</os_random_only>
<proxy_info>
<socks_server_name></socks_server_name>
<socks_server_port>80</socks_server_port>
<http_server_name></http_server_name>
<http_server_port>80</http_server_port>
<socks5_user_name></socks5_user_name>
<socks5_user_passwd></socks5_user_passwd>
<http_user_name></http_user_name>
<http_user_passwd></http_user_passwd>
<no_proxy></no_proxy>
</proxy_info>
<rec_half_life_days>10.000000</rec_half_life_days>
<report_results_immediately>1</report_results_immediately>
<run_apps_manually>0</run_apps_manually>
<save_stats_days>300</save_stats_days>
<skip_cpu_benchmarks>1</skip_cpu_benchmarks>
<simple_gui_only>0</simple_gui_only>
<start_delay>0</start_delay>
<stderr_head>0</stderr_head>
<suppress_net_info>0</suppress_net_info>
<unsigned_apps_ok>0</unsigned_apps_ok>
<use_all_gpus>1</use_all_gpus>
<use_certs>0</use_certs>
<use_certs_only>0</use_certs_only>
<vbox_window>0</vbox_window>
</options>
</cc_config>
Der Wert bei <ncpus>8</ncpus> sollte der Anzahl der Prozessorkernen des entsprechenden Rechners entsprechen. Der Eintrag "1" bei <report_results_immediately>1</report_results_immediately> sorgt dafür das der Boincmanager fertige WUs sofort hochlädt und meldet.
 
Normalerweise ist die nur mit dem nötigsten gefüllt. In dem Fall:
<cc_config>
<log_flags>
<task>1</task>
<file_xfer>1</file_xfer>
<sched_ops>1</sched_ops>
</log_flags>
<options>
<report_results_immediately>1</report_results_immediately>
</options>
</cc_config>
Die CPU Kerne ermittelt Boinc selbst korrekt.
Die zwei WUs sind aber schon gemeldet und sogar validiert (von anderen Rechnern).

Dein Konto mit Rechnern ist bei POGS hier einsehbar: http://pogs.theskynet.org/pogs/show_user.php?userid=46169
Mit den selben Logindaten kann man sich auch auf das Skynet Portal einloggen: https://www.theskynet.org/?locale=en
 
Hallo alikante,

habe mir mal den Pentium M angeschaut.
Da Du ein AMD Fan bist würde ich vorschlagen, dass Du mal schaust ob Du Deinen Server vielleicht auf ein AM1 System umrüsten kannst.
Der Pentium M hat eine TDP von 27Watt und der Athlon 5350 25Watt, nehmen sich also so gut wie nichts im Verbrauch.
Aber der Athlon kommt mit 4 x 2,05GHz und einem boincfähigen GPUteil daher den man noch für Collatz Conjecture oder anderen Projekten verwenden kann.

Der Athlon kostet ca 50-55€ (aus dem kopf da mein Preisvergleich grad nicht will)
Ein Mainboard fängt ab ca 35€ an.
Ich denke mal Du brauchst dann auch neuen Speicher, der läge dann bei 35 - 40€ für 4GB

Naja kannst Dir ja mal durch den Kopf gehen lassen, der Athlon ist schon sehr schön effizient.

MfG
LN
 
Hallo Gemeinde,

danke erstmal für die guten Infos.

@ LordNord : naja schaut ja net schlecht aus aber erstens wollte ich aktuell kein Geld mehr für Hardware ausgeben und zweitens sträubt sich alles in mir gegen die Arbeit die es macht die Maschine von Intel mit XP auf AMD mit Win7 oder 8 zu schieben. Es laufen zwei unabhängige Serversysteme und eine homeautomation mit IP-Symcon auf der Kiste *chatt*

Mal noch ne andere Frage. Ich habe ja nun auch eine Ageia Physx PCI-E im System aber BOINC listet das Teil nicht ??? ich dachte das Teil würde als CUDA Device erkannt und könnte mir paar WU´s berechnen.

Alternativ hätt ich noch nen System auf 480X Basis mit nem Athlon x4 610E und zwei 4800GS - die liefen unter XP auch im SLI-Modus- ob sich die Ageia da wohler fühlt? was mein Ihr?

Grüße
 
Unter den Umständen gilt dann wohl eher "never change a running system" ;)
Von der Energieeffizienz wäre das wirklich ein gigantischer Sprung, aber wie gesagt.

Davon, dass boinc Beschleunigungskarten (außer GPUs) nutzen kann, ist mir nichts bekannt.
 
Die Physix Karten und auch die Intel Xeon Phi (Knights Corner) werden bei Boinc definitiv nicht genutzt. Nur Cpu's, Grafikkarten und Asics und die auch nur bei einem Projekt. Dazu noch ARM Cpu's unter Linux und Android.
 
Zuletzt bearbeitet:
Sagt mal, wie werde ich denn WUs mit dem Status "kein Start vor Stichtag möglich", also abgebrochene oder verspätete WUs, so einfach wie möglich los?
 
Einfach markieren und abbrechen und dann Projekt manuell aktualisieren. Einfacher ist es eine cc_config mit dem Eintrag <report_results_immediately>1</report_results_immediately> zu haben, dann macht der BM das aktualisieren automatisch.
 
Zuletzt bearbeitet:
Moin Gemeinde,

mein Dritter Rechenknecht - via C7 - ist bei FloatingPoint Berechnungen wegen der nur mit halbem Takt laufenden FPU etwas schwach über der Brust. Nun frag ich mich ob es Projekte gibt die auf die Padlock Engine mit AES und SAH zugreifen können. Ich erwarte dort etwas bessere Performance.

Grüße
 
Moin Gemeinde,

mein Dritter Rechenknecht - via C7 - ist bei FloatingPoint Berechnungen wegen der nur mit halbem Takt laufenden FPU etwas schwach über der Brust. Nun frag ich mich ob es Projekte gibt die auf die Padlock Engine mit AES und SAH zugreifen können. Ich erwarte dort etwas bessere Performance.

Grüße
So eine spezielle Anforderung wird wohl kein einziges Projekt erfüllen. Ob und in welcher Form eine Projektapplikation Daten verarbeitet, wird auch nur in den seltenen Fällen öffentlich. Aber: Wer suchet, der findet. Viel Glück dabei.
 
Ist es normal, dass WCG unter Win8.2 x64 sowohl 64-Bit- als auch nach 32 Bit aussehende WUs zieht?
http://up.picr.de/20916533hz.jpg

Eine Collatz-WU bringt meine HD 6770 nur auf ca. 70 % Auslastung (Solo CC 6.04 OpenCL_AMD). Kann ich etwas dran drehen, dass mehr GPU-Rechenleistung abgerufen wird, ohne gleich eine zweite WU ins Zeitfenster zu zwängen?

Gibt es i'wo Infos dazu, auf welche RAM-Timings WCG, CC, GPUGRID und CometTrails am besten anspringen? Denn dann könnte ich sie dahingehend optimieren, anstatt etwa gleichmäßig alle so weit nach unten zu bringen, wie es möglich scheint.

OT: Übrigens habe ich zurzeit ca. 20 WCG-WUs, die nicht hochgeladen werden können? Gibt es gerade ein Serverproblem? Das Herunterladen scheint zu funktionieren.
 
Zuletzt bearbeitet:
zu 2) Heißt das auf gut Deutsch: Zurzeit stelle ich zu wenig CPU-Zeit zur Verfügung, um die GPU angemessen zu füttern?
CC spricht im BOINC-Manager von "0.874 CPUs", die es nutze. Der Task-Manager gibt eine CPU-Auslastung von 0 % an.
 
Hast Du die in dem Thread beschriebenen Änderungen an der xxxx_collatz_6.04_windows_x86_64__opencl_amd_gpu.config Datei gemacht?
Kannst Du mal deine Collatz ID bekannt geben und Deine Rechner ggf enttarnen? Dann kann man sich die Ergebnisse besser ansehen.
 
Zuletzt bearbeitet:
Das Beschriebene galt vor der manuellen Änderung der Datei. Bis dahin stand gar nichts darin.

Das Enttarnen und Angeben der ID möchte ich nur im Falle des Scheiterns aller anderen Möglichkeiten tun. Ich bewege mich im Netz gern so, dass ich nur wenige Informationen von mir preisgebe.

zu 1) Ist es nicht sinnvoll, 32-Bit-Anwendungen für 32-Bit-Systeme zu reservieren, wo 64 Bit doch die Norm darstellen sollten?
 
Zuletzt bearbeitet:
Ok. Hat sich nach der Änderung was getan?
Das ist natürlich Deine Entscheidung.
zu 1) Das wird häufiger so gehandhabt, ist nicht ungewöhnlich. Geht wohl vor allen Dingen darum keine eigene 64bit App compilieren zu müssen. 32bit werden ja von allen x86 verstanden. Ob die Projektserver dediziert nach 64 und 32 bit System unterscheiden um dann die entsprechenden WU#s zu senden ist eine Sache des Projektbetreibers. Dies ist wiederum "Arbeit" die eventuell nicht jeder hinbekommt. Bei WCG ist allerdings IBM im Hintergrund, die sollten es wohl auf die Reihe bekommen können. Warum da das so gemacht wird - KA
 
Zuletzt bearbeitet:
Ich kann deiner sonst sehr hilfreichen Anleitung nicht entnehmen, ob dieser Eintrag
<gpu_usage>1.0</gpu_usage>
<cpu_usage>1.0</cpu_usage>
in die CC-Config oder app_config gehört.
Ohne das lande ich bei ca. 90 % GPU-Auslastung. Der CC-Eintrag im BOINC-Manager bleibt bei ""0.874 CPUs + 1 AMD/ATI GPU". Der Task-Manager zeigt 1 % CPU-Auslastung an.


Sollten 64-Bit-Compilate nicht im Allgemeinen oder im Durschnitt eine höhere Performance erzielen als 32-Bit-Compilate?
 
Zuletzt bearbeitet:
Der Eintrag bezieht sich auf eine app_config. Diese wurde vor dem aufkommen der Optimierung durch die Einträge in die xxxx_collatz_6.04_windows_x86_64__opencl_amd_gpu.config zur Vervielfältigung der gleichzeitig laufenden WUs benutzt. Eine app_config ist heute nicht mehr nötig. Ein Eintrag in die CC_Config ebenfalls nicht. Es reicht der Eintrag in die xxx.config.

Da hast Du wohl in den meisten Fällen Recht, aber kann durchaus davon abweichen. Ich bin kein Softwareentwickler oder Programmierer somit kann ich dazu nicht definitives sagen.
 
Verzeihung, mit "CC-Config" meinte ich "xxxx_collatz_6.04_windows_x86_64__opencl_amd_gpu.config". Dachte nicht daran, dass meine Abkürzung schon so als Name vergeben sein könnte.

Wenn ich jetzt schon 90 % erreicht habe, was werden die zwei Quote-Zeilen noch verändern? Da der PC über Nacht und in befristeter Abwesenheit bei offenem Fenster läuft, wäre es mir lieb, würden weiterhin immer 8 CPU-only-WUs und eine GPU-WU (zurzeit 8 WCGs + 1 CC) parallel laufen. "<cpu_usage>1.0</cpu_usage>" wirkt auf mich, als würde es einen kompletten Kern für CC reservieren.
 
Zurück
Oben Unten