Allgemeiner Plauderchat über das Thema DC Part III

Status
Für weitere Antworten geschlossen.
Hmpf, nun brechen bei mir alle LHC Theory ab, die erste Ladung gestern nach 1-2h, heute Nacht dann 12x nach 6h, ist doch ein Jammer!
SUSI einfangen klingt doch sonst ganz gut, die haben weniger als 3 Millionen Punkte Vorsprung :-)
 
Heute habe ich meine letzte Penta WU verchickt. Da hatte ich wohl etwas Nachlauf. *buck*
 
Uff, mit irgendwelchen Parametern wollte ich eigentlich nicht auch noch herumspielen.
Sompe hatte ja mit seiner VII hochgerechnet so um die 78.000cr/d erwirtschaftet. Das wäre immerhin deutlich mehr als das, was die 1070ti mit optimierter CUDA-App schafft (58.000cr/d).

Anhand der bisherigen Laufzeit der CPU-Apps kann ich schon mal sagen: Standard-App = nur halb so schnell.

War die VII ungetuned? Rechner idle?

Habe endlich WUs bekommen, mit parallel laufenden LHC & WCG jobs wird die V56 nur mit 40/50W belastet, Laufzeit ca. 10-11 Minuten.
Mit freigelassenen Kernen und den Parametern aus dem Thread sind es knapp über 8 Minuten, der Verbrauch steigt. Ohne sonstige nennenswerte CPU-Last sind es 7 Minuten.

Mit 2 WUs hab ich Grafikfehler und lustige dmesg Einträge :-D

Code:
[40594.618658] [TTM] Failed to find memory space for buffer 0x000000009735f8a1 eviction
[40594.618665] [TTM]  No space for 000000009735f8a1 (1036288 pages, 4145152K, 4048M)
[40594.618667] [TTM]    placement[0]=0x00010002 (1)
[40594.618668] [TTM]      has_type: 1
[40594.618669] [TTM]      use_type: 1
[40594.618670] [TTM]      flags: 0x0000000A
[40594.618671] [TTM]      gpu_offset: 0x00000000
[40594.618672] [TTM]      size: 2093056
[40594.618673] [TTM]      available_caching: 0x00070000
[40594.618674] [TTM]      default_caching: 0x00010000
[40594.618676] [TTM]  0x0000000000000400-0x0000000000000401: 1: used
[40594.618678] [TTM]  0x0000000000000401-0x0000000000000443: 66: used
[40594.618679] [TTM]  0x0000000000000443-0x0000000000000445: 2: used
[40594.618680] [TTM]  0x0000000000000445-0x0000000000000447: 2: used
[40594.618682] [TTM]  0x0000000000000447-0x0000000000000449: 2: used
[40594.618683] [TTM]  0x0000000000000449-0x000000000000044b: 2: used
[40594.618684] [TTM]  0x000000000000044b-0x000000000000044d: 2: used
[40594.618685] [TTM]  0x000000000000044d-0x000000000000044f: 2: used
[40594.618686] [TTM]  0x000000000000044f-0x0000000000000451: 2: used
[40594.618687] [TTM]  0x0000000000000451-0x0000000000000453: 2: used
[40594.618688] [TTM]  0x0000000000000453-0x0000000000000455: 2: used
[40594.618689] [TTM]  0x0000000000000455-0x0000000000000456: 1: used
[40594.618690] [TTM]  0x0000000000000456-0x0000000000000556: 256: used
[40594.618691] [TTM]  0x0000000000000556-0x0000000000000557: 1: used
[40594.618692] [TTM]  0x0000000000000557-0x0000000000000558: 1: used
[40594.618694] [TTM]  0x0000000000000558-0x0000000000000559: 1: used
[40594.618695] [TTM]  0x0000000000000559-0x000000000000055a: 1: used
[40594.618696] [TTM]  0x000000000000055a-0x000000000000055b: 1: used
[40594.618697] [TTM]  0x000000000000055b-0x000000000000055c: 1: used
[40594.618698] [TTM]  0x000000000000055c-0x000000000000055d: 1: used
[40594.618699] [TTM]  0x000000000000055d-0x000000000000055e: 1: used
[40594.618700] [TTM]  0x000000000000055e-0x0000000000000560: 2: used
[40594.618701] [TTM]  0x0000000000000560-0x0000000000000562: 2: used
[40594.618702] [TTM]  0x0000000000000562-0x0000000000000563: 1: used
[40594.618703] [TTM]  0x0000000000000563-0x0000000000000564: 1: used
[40594.618704] [TTM]  0x0000000000000564-0x0000000000000565: 1: used
[40594.618706] [TTM]  0x0000000000000565-0x0000000000000566: 1: used
[40594.618707] [TTM]  0x0000000000000566-0x0000000000000567: 1: used
[40594.618708] [TTM]  0x0000000000000567-0x0000000000000568: 1: used
[40594.618709] [TTM]  0x0000000000000568-0x00000000000006d1: 361: used
[40594.618710] [TTM]  0x00000000000006d1-0x0000000000000700: 47: free
[40594.618711] [TTM]  0x0000000000000700-0x0000000000000800: 256: used
[40594.618713] [TTM]  0x0000000000000800-0x0000000000000bca: 970: used
[40594.618714] [TTM]  0x0000000000000bca-0x0000000000000cca: 256: used
[40594.618715] [TTM]  0x0000000000000cca-0x0000000000020000: 127798: free
[40594.618716] [TTM]  total: 130048, used 2203 free 127845
[40594.618718] [TTM]  man size:2093056 pages, gtt available:1014508 pages, usage:4213MB

Ich glaub ich mach doch lieber Einstein *lol*
 
Zuletzt bearbeitet:
Jetzt kann ich wenigstens mir gegenüber argumentieren warum ich VII brauche.
 
Mit nur 8GB kommt man heutzutage nicht mehr weit *chatt*
 
Ist gerade keine Messe. Die Mädels haben Zeit.

Ich hatte den launigen Vorschlag gemacht, die ehemalige Gartenlaube von IBM, nahe dem Messeeingang Süd, für ein Treffen zu nutzen.

EDIT:
Ich bin jetzt aber erstmal vom 23.05.-04.06.2019 in England. Sollte sich etwas in der Größenordnung von Markgrafpieske zusammenfinden, wäre eine längerfristige Vorbereitung notwendig.
Für nächstes Jahr kann ich das aber gerne eine Planung machen.

Durch mein Kontakt zum Max-Planck-Institut für Gravitationsphysik könnte u.a. auf der Tagesordnung ein Besuch der GEO 600-Anlage, Besichtigung der ATLAS-Großrechenanlage und ein Vortrag über das LISA-Projekt stehen.
Wer einen Rechner mit Linux-Problem hat kann diesen mitbringen. Dann wird in einem art Workshop geholfen.

Danach wird gegrillt und gefachsimmpelt. Alkoholische Getränke werden auch gereicht. Und dann kommen die Nutten.

Auf Grund der unmittelbaren Nähe zur Messe, sind alle Arten von Unterkunft, in allen Preisklassen, vorhanden.

Frühstück und Abreise.

Das Ganze würde gegen Zahlung eines Festpreises organisiert sein.

Da würde ich auch reges Interesse anmelden! :)

--- Update ---

Jetzt kann ich wenigstens mir gegenüber argumentieren warum ich VII brauche.


Jupp, da hat der Penta jetzt den Ausschlag gegeben ;D
 
Wir hatten während des Penta hier irgendwo darüber gesprochen, dass der BOINC Manager unter Linux regelmäßig ans Ende der Taskübersicht springt, was recht nervig ist.

Das Paket http://www.arkayn.us/lunatics/BOINC.7z enthält eine vollständige standalone BOINC Installation für Linux, inkl. optimierter CUDA 9.0 und 10 Anwendungen.
Ebenso befindet sich darin ein boincmgr (BOINC Manager) bei dem das Problem mit den Sprüngen in der Taskübersicht behoben ist. Ich habe mir den kurzerhand nach /usr/bin/boincmgr kopiert. Er benötigt unter Ubuntu zusätzlich das Paket libcanberra-gtk-module. Das nervige Anzeigeproblem ist damit Geschichte.
 
@thorsam
Bei so einem Besuch der GEO-600 Anlage wäre ich auch sofort dabei. Nur Terminlich werde ich wahrscheinlich nicht können. Ich bin aber vom 1.7-19.7 in Hannover ;-).
 
hmm hab da ein problem -_-

Es werden nur noch 7 von 8 Theory wus berechnet und er sagt mir "warten auf speicher" obwohl ram-technisch nur 50-60% in gebrauch sind.
und ja in den boinc settings ist alles richtig eingestellt mehr als 100% geht net ^^

wo liegt das verdammte problem ?!
 
Der plant pro WU 2230MB ein, obwohl sie weniger als die Hälfte verbrauchen. Ich hatte das analog, der wollte mit 32GB nur 14 statt 16 WUs starten.
Schau mal unter Optionen -> Event Log Optionen (Shift + Strg + F), aktiviere mem_usage_debug.

In den Meldungen siehst du dann folgendes:
Code:
Tue 21 May 2019 23:24:39 CEST |  | [mem_usage] enforce: available RAM 32160.79MB swap 5120.00MB
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_813922_1558396824.845100_0: [B]WS 450.64MB, smoothed 2230.00MB,[/B] swap 2298.61MB, 0.00 page faults/sec, user CPU 307.950, kernel CPU 38060.000
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_964248_1558411501.686976_0: [B]WS 718.99MB, smoothed 2230.00MB,[/B] swap 2427.61MB, 0.00 page faults/sec, user CPU 348.990, kernel CPU 37991.240
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_868615_1558401932.042377_0: [B]WS 603.22MB, smoothed 2230.00MB, [/B]swap 2234.10MB, 0.00 page faults/sec, user CPU 316.500, kernel CPU 38058.770
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_813920_1558396824.827967_0: [B]WS 453.10MB, smoothed 2230.00MB,[/B] swap 2298.61MB, 0.00 page faults/sec, user CPU 348.090, kernel CPU 37729.360
Tue 21 May 2019 23:24:47 CEST | WUProp@Home | [mem_usage] data_collect_v4_1557890101_109923_0: WS 21.60MB, smoothed 21.60MB, swap 23.92MB, 0.00 page faults/sec, user CPU 14.210, kernel CPU 5.350
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433488_x5jjs_DENV3_NS5_s1_0668_0: WS 66.94MB, smoothed 66.94MB, swap 139.29MB, 0.00 page faults/sec, user CPU 2612.930, kernel CPU 0.940
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0288_0: WS 58.66MB, smoothed 58.54MB, swap 131.12MB, 0.00 page faults/sec, user CPU 2611.010, kernel CPU 0.820
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433253_x5jjs_DENV3_NS5_s1_0176_0: WS 61.39MB, smoothed 61.39MB, swap 133.88MB, 0.00 page faults/sec, user CPU 2614.230, kernel CPU 0.970
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_1489_0: WS 50.70MB, smoothed 58.82MB, swap 122.89MB, 0.00 page faults/sec, user CPU 2613.240, kernel CPU 0.950
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0950_0: WS 69.48MB, smoothed 69.48MB, swap 141.98MB, 0.00 page faults/sec, user CPU 2395.680, kernel CPU 0.620
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0324_0: WS 69.50MB, smoothed 69.50MB, swap 141.99MB, 0.00 page faults/sec, user CPU 1734.250, kernel CPU 0.450
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0502_0: WS 66.89MB, smoothed 66.89MB, swap 139.25MB, 0.00 page faults/sec, user CPU 1472.490, kernel CPU 0.560
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0816_0: WS 64.07MB, smoothed 64.07MB, swap 136.55MB, 0.00 page faults/sec, user CPU 1024.320, kernel CPU 0.660
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433488_x5jjs_DENV3_NS5_s1_0687_0: WS 61.19MB, smoothed 61.19MB, swap 133.77MB, 0.00 page faults/sec, user CPU 1015.620, kernel CPU 0.390
Tue 21 May 2019 23:24:47 CEST | Einstein@Home | [mem_usage] LATeah1049ZC_140.0_0_0.0_17609907_0: WS 170.62MB, smoothed 170.62MB, swap 4385.18MB, 0.00 page faults/sec, user CPU 20.600, kernel CPU 40.390
Tue 21 May 2019 23:24:47 CEST | Einstein@Home | [mem_usage] LATeah1049X_172.0_0_0.0_34251_3: WS 171.29MB, smoothed 171.29MB, swap 4385.18MB, 0.00 page faults/sec, user CPU 19.440, kernel CPU 37.300
Tue 21 May 2019 23:24:47 CEST |  | [mem_usage] BOINC totals: WS 3158.31MB, smoothed 9860.34MB, swap 19273.95MB, 0.00 page faults/sec
Tue 21 May 2019 23:24:47 CEST |  | [mem_usage] All others: WS 7139.57MB, swap 110910.57MB, user 1656.160s, kernel 1974.280s
Tue 21 May 2019 23:24:47 CEST |  | [mem_usage] non-BOINC CPU usage: 0.80%

Schussel BOINC rechnet die smoothed Werte zusammen und denkt "ich kann nicht mehr, die müssen warten". Ich konnte ihn über Änderungen am Speicherverbrauch der WU in der client_state.xml dazu bewegen mehr WUs zu starten, aber das ist ja keine dauerhafte Lösung (es sei denn man skriptet sich da was...).
 
Zuletzt bearbeitet:
Der planet pro WU 2230MB ein, obwohl sie weniger als die Hälfte verbrauchen. Ich hatte das analog, der wollte mit 32GB nur 14 statt 16 WUs starten.
Schau mal unter Optionen -> Event Log Optionen (Shift + Strg + F), aktiviere mem_usage_debug.

In den Meldungen siehst du dann folgendes:
Code:
Tue 21 May 2019 23:24:39 CEST |  | [mem_usage] enforce: available RAM 32160.79MB swap 5120.00MB
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_813922_1558396824.845100_0: [B]WS 450.64MB, smoothed 2230.00MB,[/B] swap 2298.61MB, 0.00 page faults/sec, user CPU 307.950, kernel CPU 38060.000
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_964248_1558411501.686976_0: [B]WS 718.99MB, smoothed 2230.00MB,[/B] swap 2427.61MB, 0.00 page faults/sec, user CPU 348.990, kernel CPU 37991.240
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_868615_1558401932.042377_0: [B]WS 603.22MB, smoothed 2230.00MB, [/B]swap 2234.10MB, 0.00 page faults/sec, user CPU 316.500, kernel CPU 38058.770
Tue 21 May 2019 23:24:47 CEST | LHC@home | [mem_usage] Theory_813920_1558396824.827967_0: [B]WS 453.10MB, smoothed 2230.00MB,[/B] swap 2298.61MB, 0.00 page faults/sec, user CPU 348.090, kernel CPU 37729.360
Tue 21 May 2019 23:24:47 CEST | WUProp@Home | [mem_usage] data_collect_v4_1557890101_109923_0: WS 21.60MB, smoothed 21.60MB, swap 23.92MB, 0.00 page faults/sec, user CPU 14.210, kernel CPU 5.350
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433488_x5jjs_DENV3_NS5_s1_0668_0: WS 66.94MB, smoothed 66.94MB, swap 139.29MB, 0.00 page faults/sec, user CPU 2612.930, kernel CPU 0.940
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0288_0: WS 58.66MB, smoothed 58.54MB, swap 131.12MB, 0.00 page faults/sec, user CPU 2611.010, kernel CPU 0.820
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433253_x5jjs_DENV3_NS5_s1_0176_0: WS 61.39MB, smoothed 61.39MB, swap 133.88MB, 0.00 page faults/sec, user CPU 2614.230, kernel CPU 0.970
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_1489_0: WS 50.70MB, smoothed 58.82MB, swap 122.89MB, 0.00 page faults/sec, user CPU 2613.240, kernel CPU 0.950
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0950_0: WS 69.48MB, smoothed 69.48MB, swap 141.98MB, 0.00 page faults/sec, user CPU 2395.680, kernel CPU 0.620
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0324_0: WS 69.50MB, smoothed 69.50MB, swap 141.99MB, 0.00 page faults/sec, user CPU 1734.250, kernel CPU 0.450
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0502_0: WS 66.89MB, smoothed 66.89MB, swap 139.25MB, 0.00 page faults/sec, user CPU 1472.490, kernel CPU 0.560
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433255_x5jjs_DENV3_NS5_s1_0816_0: WS 64.07MB, smoothed 64.07MB, swap 136.55MB, 0.00 page faults/sec, user CPU 1024.320, kernel CPU 0.660
Tue 21 May 2019 23:24:47 CEST | World Community Grid | [mem_usage] ZIKA_000433488_x5jjs_DENV3_NS5_s1_0687_0: WS 61.19MB, smoothed 61.19MB, swap 133.77MB, 0.00 page faults/sec, user CPU 1015.620, kernel CPU 0.390
Tue 21 May 2019 23:24:47 CEST | Einstein@Home | [mem_usage] LATeah1049ZC_140.0_0_0.0_17609907_0: WS 170.62MB, smoothed 170.62MB, swap 4385.18MB, 0.00 page faults/sec, user CPU 20.600, kernel CPU 40.390
Tue 21 May 2019 23:24:47 CEST | Einstein@Home | [mem_usage] LATeah1049X_172.0_0_0.0_34251_3: WS 171.29MB, smoothed 171.29MB, swap 4385.18MB, 0.00 page faults/sec, user CPU 19.440, kernel CPU 37.300
Tue 21 May 2019 23:24:47 CEST |  | [mem_usage] BOINC totals: WS 3158.31MB, smoothed 9860.34MB, swap 19273.95MB, 0.00 page faults/sec
Tue 21 May 2019 23:24:47 CEST |  | [mem_usage] All others: WS 7139.57MB, swap 110910.57MB, user 1656.160s, kernel 1974.280s
Tue 21 May 2019 23:24:47 CEST |  | [mem_usage] non-BOINC CPU usage: 0.80%

Schussel BOINC rechnet die smoothed Werte zusammen und denkt "ich kann nicht mehr, die müssen warten". Ich konnte ihn über Änderungen am Speicherverbrauch der WU in der client_state.xml dazu bewegen mehr WUs zu starten, aber das ist ja keine dauerhafte Lösung (es sei denn man skriptet sich da was...).

ätzend! ^^ da muss man durch
<rsc_memory_bound>X</rsc_memory_bound>
vollbunkern und den wert durch suchen/ersetzen für alle wus aufeinmal abändern. könnte schlimmer sein ^^
danke
 
Zuletzt bearbeitet:
Genau, muss du halt jedes Mal machen wenn du neue WUs ziehst...
 
@thorsam
Bei so einem Besuch der GEO-600 Anlage wäre ich auch sofort dabei. Nur Terminlich werde ich wahrscheinlich nicht können. Ich bin aber vom 1.7-19.7 in Hannover ;-).

Noch ist ja nichts fest. Ansonsten wäre am 16.06.2019 Tag der offenen Tür, oder Du setzt Dich mit benjamin.knispel@aei.mpg.de in Verbindung.
Falls in Deiner Zeit gerade eh eine Führung für eine Gruppe außer der Reihe durchgeführt wird, kannst Du Dich da problemlos anschließen.
 
hatte gestern 4 fehlerhafte LHC wus. allerdings hab ich während der zeit auch 20-30 mal boinc neugestartet ^^
jedenfalls knuspern jetzt 12 LHC Theory wus gleichzeitig.

perverser output!!! ~ dürfte so bei 180k am tag liegen
 
Nachdem ich gestern Abend bei Seti mal 3 WUs parallel eingestellt habe, ist der Rechner nach wenigen Stunden abgestürzt.
Aber das Netzteil lief noch, das hat also nicht die Notbremse gezogen.
Jetzt versuch ich das mal mit Begrenzung auf 150W.
Denn immerhin hat das Anheben von 2 auf 3 WUs gut 1/3 mehr Durchsatz gebracht.
4 sind vermutlich dann noch besser und insgesamt sollte ein CPU-Kern dafür reichen.

Edit: Ich hab im Seti-Forum einen Satz Parameter von Mike gefunden für die VII und probiere den jetzt mal in allen 4 apps aus:
-sbs 2048 -period_iterations_num 10 -high_perf -spike_fft_thresh 4096 -tune 1 64 1 4 -oclfft_tune_gr 256 -oclfft_tune_lr 16 -oclfft_tune_wg 256 -oclfft_tune_ls 512 -oclfft_tune_bn 64 -oclfft_tune_cw 64 -cpu_lock
 
Zuletzt bearbeitet:
Wenn du dich auf eine Anzahl von WUs parallel entschieden hast, lass auch mal ein paar ohne CPU Tasks durchlaufen, um mal zu schauen wie groß der Unterschied ist.
Ich hab mir meine Einstein auf die letzten beiden Threads festgenagelt, den Rest auf die ersten 14. Das hat dazu beigetragen mein Ziel von unter 10min für 2 WUs @ 140W zu erreichen.
 
Kann ich mal machen.
Als die CPU kurzzeitig keine Arbeit hatte, wurd die Karte jedenfalls sehr laut - das deutet ja irgendwie schon darauf hin, dass sie dabei mehr zu tun hatte.

--- Update ---

Bringt irgendwie keinen Vorteil.
Egal ob 2 oder 16 Threads frei sind - 3 WUs laufen jeweils 6:45, macht also 2:15 pro WU.

Seti ist eben nicht Einstein.
 
https://www.planet3dnow.de/vbulleti...-DC-Part-III?p=5242226&viewfull=1#post5242226

Hier meinte ich Unterschiede zwischen "CPU idle", ncpus=1.0 und auf default festgestellt zu haben, auch wird im SETI Forum regelmäßig darauf verwiesen ja CPU Kapazität frei zu halten.
Mikes Parameter enthalten -cpu_lock, das laut README unter Linux nicht unterstützt wird:

setiathome-8.22-opencl_ati5_sah_linux_README_OPENCL schrieb:
-cpu_lock : Enables CPUlock feature. Results in CPUs number limitation for particular app instance. Also attempt to bind different instances to different CPU cores will be made.
Can be used to increase performance under some specific conditions. Can decrease performance in other cases though. Experimentation required.
Now this option allows GPU app to use only single logical CPU.
Different instances will use different CPUs as long as there is enough of CPU in the system.
Use -instances_per_device N option if multiple instances on GPU device are used.
(not available on Linux)

Wenn die app das also nicht macht, vielleicht hilft es das selbst zu machen?

--- Update ---

6:45/2:15min ist top!
 
bähh, warum nur muss ich die Systeme schon wieder sauber machen, hatte ich doch erst ím März/April gemacht... *admin*


Habe einen Vertreter um Probestellung eines Milwaukee - Akku-Rucksacksauger M18 FBPV gebeten ;D
2-34.jpg
 
Zuletzt bearbeitet:
Ich stelle mich gerade ein bisschen blöd an. Wie bringe ich BOINC dazu die GPU App mit den Parametern zu starten? Nutze Windows 10 und will die RX 580 quälen.
 
Keine Ahnung, was der Link wirklich zeigt - bei mir führt er zum Absturz des Firefox. Wer gerade keine Lust auf sowas hat, lieber nicht anklicken...

Ich stelle mich gerade ein bisschen blöd an. Wie bringe ich BOINC dazu die GPU App mit den Parametern zu starten? Nutze Windows 10 und will die RX 580 quälen.
Meinst Du Seti?
Da gibt es im Seti-Projektverzeichnis für jede App eine mb_.....txt Datei mit ähnlichem Namen wie die App.
Und dort kopiert man einfach den Parametersatz rein, der wird dann mit der nächsten WUs automatisch genutzt.
 
Keine Ahnung, was der Link wirklich zeigt - bei mir führt er zum Absturz des Firefox. Wer gerade keine Lust auf sowas hat, lieber nicht anklicken...
Akku-Rucksacksauger - ging bei mir ohne Probs *noahnung*

Gruß,
Ritschie
 
4 WUs gleichzeitig bei Seti sind bei der VII übrigens ein großer Schritt zurück gewesen. Der Rechner wurd unbenutzbar und die Laufzeiten haben sich verdoppelt.
Mit 3 WUs ist also die Auslastung am besten.
Morgen teste ich dann mal noch Windows. Vielleicht schaffe ich es dort, dass die VII mit der 1070ti mithalten kann.
 
Meinst Du Seti?
Da gibt es im Seti-Projektverzeichnis für jede App eine mb_.....txt Datei mit ähnlichem Namen wie die App.
Und dort kopiert man einfach den Parametersatz rein, der wird dann mit der nächsten WUs automatisch genutzt.

Gefunden! Mal schauen ob es was bringt.
Danke!
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten