10. Pentathlon 2019 - LHC@home (Sprint)

Hatte gerade auch noch 4 ATLAS die eigentlich noch 1,5std laufen sollten die plötzlich dann hochgeladen und gezählt wurden. ;D
 
Bei mir purzelten auch noch einige Atlas an, die ich gar nicht erwartet hätte.
 
Trotzdem hatten wir sehr gute klimatische Voraussetzungen weil das Wetter erst jetzt anzieht und es wärmer werden soll. Wer hat da was von Klimakrise gesagt? 8-( *lol* *lol* *lol*

Vielleicht müssen wir lernen, die Herausforderungen besser anzunehmen und unsere Hardware besser auf die Gegebenheiten bezüglich der Eigenheiten der Disziplinen abzustimmen?
Ich bin mir sicher, es wird nicht besser werden, was die Effektivität der einzelnen Projekte angeht. Diese nehmen zu, in denen spezielle Hardware einfach dominiert, oder die individuellen Einstellungen den schlußendlichen Ausschlag geben, siehe Einstein => ATi VII. Welches OS performt höher (Zika => Linux)? Welche Projekteinstellung ist sicher ohne Verschwendung von Rechenpower? Welches Unterprojekt gibt mehr Credits (Sixtrack = nein, alles andere = ja)? VM ja oder nein, und welche Version? U. s. w.

So oder so wird der Pentathlon spannend bleiben, ich freue mich auf nächstes Jahr! 8)
 
nochmals vielen dank an koschi.

Nachdem ich auf die 80 gflops wus umgestiegen bin gabs auch die zu erwartenden 8k credits pro wu. leider sind nur 3 stück davon fertig geworden ^^

Die theory wus mit 16 zugewiesenen kernen geben die volle credit ausbeute (beim Ryzen 1700 ~80gflops).
wenn man die wus über die LHC@home einstellung auf 1 kern beschränkt gibt es auch nur 1/16 der credits.

jetzt kann man sich natürlich mit den 16 kern wus vollbunkern und diese danach via app_config auf 1 thread pro wu beschränken.
Wenn man sich nach der Beschränkung auf 1 thread pro wu neue wus saugt sind diese auch wieder nur auf ein kern beschränkt also nach dem bunkern keine neuen aufgaben zulassen.

<app_config>
<app>
<name>Theory</name>
</app>
<app_version>
<app_name>Theory</app_name>
<avg_ncpus>2</avg_ncpus>
<plan_class>vbox64_mt_mcore</plan_class>
<cmdline>--nthreads 1</cmdline>
</app_version>
</app_config>

ich hab sie auf 8 wus beschränkt so kann man zumindest noch bissl was am system machen ^^
leider haben wir das alle zu spät realisiert ^^
 
Zuletzt bearbeitet:
Hab noch 30 Theory auf dem Rechner, die rechne ich ab morgen fertig, in der Hoffnung dass die weiterhin gut Credit geben.
Verstanden habe ich allerdings noch nicht warum mir anhaltend so gute Credits beschieden wurden. Das Benchmarkergebnis allein und die "Device peak FLOPS" werden es nicht sein.
Leider zu spät, aber jetzt weiß ich warum ich weniger Credits bekommen habe.
Es liegt an den Berechnungseinstellungen im Projekt.
Ich hatte vor dem Penta schon TheorySimulation gerechnet und im Projekt die max CPU begrenzt.
Während dem Penta habe ich auf CPU keine Einschränkungen gestellt.
Das wirkt sich aber erst auf danach gezogene WUs aus.

Mein R7 2700 hat gestern kurz vor Schluß eine WU mit mehr Credits abgeliefert:
Code:
229520802 	114961308 	18 May 2019, 7:44:51 UTC 	18 May 2019, 20:31:31 UTC 	Fertig und Bestätigt 	45,030.04 	44,241.28 	7,384.02 	Theory Simulation v263.90 (vbox64_mt_mcore)
x86_64-pc-linux-gnu
Die WUs davor:
Code:
228454914 	114455168 	16 May 2019, 7:50:25 UTC 	18 May 2019, 1:44:44 UTC 	Fertig und Bestätigt 	45,335.92 	44,666.11 	1,858.54 	Theory Simulation v263.90 (vbox64_mt_mcore)
x86_64-pc-linux-gnu
Im Ergebnis der WUs dazu steht:
max. FLOPS des Gerätes 70.84 GFLOPS (alle 16 Kerne erlaubt)
max. FLOPS des Gerätes 17.71 GFLOPS (4 Kerne erlaubt)

Beim R5 2400GE ist die veränderung:
Code:
229405822 	114903032 	18 May 2019, 3:59:58 UTC 	19 May 2019, 5:37:26 UTC 	Fertig und Bestätigt 	64,168.79 	64,462.90 	5,686.38 	Theory Simulation v263.90 (vbox64_mt_
Code:
228772638 	114611682 	17 May 2019, 4:31:18 UTC 	18 May 2019, 23:30:21 UTC 	Fertig und Bestätigt 	64,167.63 	64,601.21 	2,843.14 	Theory Simulation v263.90 (vbox64_mt_mcore)
x86_64-pc-linux-gnu
max. FLOPS des Gerätes 38.28 GFLOPS (alle Kerne erlaubt)
max. FLOPS des Gerätes 19.14 GFLOPS (4 Kerne erlaubt)

Haufenweise Credits verschenkt.....*motz*

Edit:
denjo war schneller mit schreiben.....
 
Zuletzt bearbeitet:
Nachdem bei mir alle Theory abgebrochen hatten, wurde die letzte dann doch noch zu Ende berechnet.

Natürlich 2 Stunden nach Pentathlon-Ende. *chatt*

Gab dann noch 4.100 Credits.
 
Ich habe vor wenigen Minuten meine vorletzte WU Theory simulation geliefert, eine kommt noch.

Die wenigen kleinen PCs, die weiter WCG machen, sind auch schon zu MIPS geschwenkt.
 
Ich werde, jetzt wo die Frameworks installiert sind, ab und zu Mal LHC Wuzen rechnen.
 
erstaunlicher weise hat mein kleinster Lapi 50% der Leistung des 2700x geschaft und das nur mit Sixtrack da keine VM usw. installiert o_O
die anderen beiden Lapis mit VMs haben nur 35% der Leistung gebracht obwohl wir hier von einem i5-4200U gegen einen I5-8250U reden …
so ganz schlecht war Sixtrack doch nicht
 
Ambitioniert, aber viel Glück dabei!
 
Wow, das ist ja ein Brecher!
Wieviele Kerne hat die belegt? Die CPU-Zeit selbst ist ja eher gering.

Ich hatte vorgestern eine ATLAS abgebrochen, nachdem sie 48h für den Fortschritt von 99% auf 99,999% brauchte und dann dort hing :-(
Aktuell laufen meine Theory wieder ganz gut. Keine Ahnung was das vor 2 Tagen war mit den Abbrüchen *noahnung*
 
Wieviel es mal am Anfang war kann ich dir nicht sagen. Ab dem zweiten Tag stand der Wert bei 100,00 % erreicht. Danach war keine CPU Last mehr. Ich hatte bei jedem Rechner so ein Phänomen, dass die WU scheinbar nicht fertig wird. Hättest du WU nicht abbrechen sollen. Die wäre vermutlich auch in drei vier Tagen fertig geworden.
 
Zuletzt bearbeitet:
Den Effekt hatte ich mit den nativen ATLAS WUs.
Der Berechnungsbalken ging auf 100% und blieb dort auch eine ganze Weile bestehen. Selbst in der Übersicht auf der Website wurden die entsprechenden WUs als erledigt gekennzeichnet und gewertet. Ich bin mir allerdings gerade nicht sicher ob die CPU Threads weiter blockiert wurden. Irgendwann verschwanden die entsprechenden WUs dann von alleine.
 
Die ATLAS lief auf meinem C2Q, den wollte ich leerlaufen lassen und abschalten. Leider zog die WU knapp 7gb Speicher, damit war an zusätzliche WUs über höhere ncpus nicht zu denken, sonst hätte ich die im Hintergrund fertig laufen lassen
 
https://lhcathome.cern.ch/lhcathome/top_hosts.php

Mein R7 hat es schon auf Platz 8 der Liste geschafft, ich werde mal weiterrechnen solange mich die Creditwelle trägt und versuchen den 72 Thread Xeon E5 vom Thron zu stoßen.

Läuft aktuell ganz gut mit den Credits, aber die anderen Rechner der Top Host Liste haben auch angezogen.
Aktuell führt ein Threadripper 2990WX (mit Ubuntu 18.10) der für die 64k Sekunden Laufzeiten 24600 Credits bekommt :o

https://lhcathome.cern.ch/lhcathome...0591464&offset=20&show_names=0&state=4&appid=
 
die credit vergabe ist ja auch laufzeitabhängig sprich mit mit ner vm kann mann mit ausreichend ram künstlich die creditausbeute nochmals steigern oder halt stromsparen ^^
verdopplung der laufzeit gibt auch doppelte credits ^^

wie viel ram nimmt sich so eine wu eigentlich maximal ?! gibt es da peaks oder ist der eigentliche verbrauch wirklich so niedrig wie überall angezeigt !?


Suse ist morgen fällig :)
 
Zuletzt bearbeitet:
Schon passiert.
 
Zurück
Oben Unten