10. Pentathlon 2019 - LHC@home (Sprint)

Irgendwie passen die Host einträge nicht. Bei mir hat er gerade 30 WUs hochgeladen.
 
Ich verwende diese, finden sich alle in der client_state.xml:

# LHC
127.0.0.1 lhcathome-upload.cern.ch
127.0.0.1 lhcathomeclassic.cern.ch
127.0.0.1 lhcathome.cern.ch
 
Würde ich nicht pauschalisieren. Was man sagen kann, je länger die WU rechnet um so mehr Credits. Wie avx zu sse2 steht, werd ich morgen sehen. Dazu kommen noch unterschiedliche Aufgaben zu avx und sse2. Wir werden morgen sehen, was Sache ist.
 
https://lhcathome.cern.ch/lhcathome/top_hosts.php
In der Übersicht der Top Hosts finden sich noch mehr solche Fälle. Die Windowssysteme mit Theory @ 1 core kriegen da regelmäßig über 10000 Punkte für einen 3/4 Tag Arbeit eines Kerns, das ist schon abartig.
https://lhcathome.cern.ch/lhcathome...455317&offset=0&show_names=0&state=4&appid=13

Die großen Linuxhobel in der Übersicht kommen da mit Theory nur über die massive Anzahl von Kernen dran, bekommen idR. nur ~2000 Credits pro WU.



Also liebe Windowsuser, jetzt kommt eure Stunde :-) Auf gehts, Sixtrack ist für die Katze, Theory gibt ordentlich Punkte!
 
Also liebe Windowsuser, jetzt kommt eure Stunde :-) Auf gehts, Sixtrack ist für die Katze, Theory gibt ordentlich Punkte!

Würde ich liebend gerne machen - jetzt bräuchte ich nur noch jemanden, der die Projekt-Betreiber anschreibt, dass ich bei der Anmeldung an der Webseite mit meinem Account die abzunickenden Agreements nicht bestätigen kann und damit keinerlei Projekt-Einstellungen verändern kann... :]
(Oder weiß jemand eine Mail-Adresse - im Forum kann ich ja logischerweise nicht posten)
Aktuell kriege ich ein buntes Potporri an allen möglichen WUs (so es denn Arbeit gibt - hab' vorhin 3x CMS für einen Celli bekommen)...
 
Die neue Instanz ist aufgesetzt, bekommt aber keine Arbeit. :(
Dabei würden mir doch die 200, die noch auf dem Server liegen, dicke reichen! ;)
Das ist nicht der aktuelle Stand:
Task data as of 14 May 2019, 16:30:52 UTC
 
Ach das ist doch...
Ich probier morgen mein Glück. Linux VM ist ja auch noch da. Eins von beidem wird schon Punkte bringen
 
Ich hab noch 22:18Uhr 37 Theory WUs bekommen...
 
Atlas, Theory und CMS bekommen im Windows. Leider nur SixTrack im Linux trotz der lib Installation.
 
Wähl die Sixtrack mal ab, irgendwann kommen die anderen...
 
Ich lass in der VM mal die SixTrack noch durchlaufen und dann gehts nativ auf Windows weiter. Da werd ich mien Opteronsystem noch mal neu aufsetzen, wenn bis morgen früh nichts anderes da ist. Das System läuft unter Linux.
 
Zuletzt bearbeitet:
Meine Test-WUs mit blockierten LHC Domains sind soeben durch, die Vergütung kann sich sehen lassen!

https://lhcathome.cern.ch/lhcathome...389189&offset=0&show_names=0&state=4&appid=13

Code:
221917023 	111122744 	29 Apr 2019, 17:46:15 UTC 	14 May 2019, 23:18:50 UTC 	Fertig und Bestätigt 	40,173.17 	39,603.97 	6,480.14 	Theory Simulation v263.90 (vbox64_mt_mcore)
221918395 	111123947 	29 Apr 2019, 15:27:23 UTC 	14 May 2019, 23:18:50 UTC 	Fertig und Bestätigt 	45,253.08 	44,471.29 	7,299.55 	Theory Simulation v263.90 (vbox64_mt_mcore)

Also Netzwerkzugriff offen lassen, aber die drei LHC Domains sperren, dann kann man auch die LHC WUs bunkern. Intern greifen sie über andere Domains auf den Jobscheduler zu.
 
wie ist das nun genau, sixtrack lässt sich bunkern und die anderen nicht, wegen Netzwerkverbindung ? d.h. ich lasse erst dann Theory und ATLAS rechnen, wenn das Projekt startet ?
 
Nee eben nicht. Theory werden vom BOINC Manager nicht gestartet, solange die Netzwerkverbindung pausiert ist. Daher muss man die Kommunikation zum LHC BOINC Projekt auf andere Art unterbinden, zB. über die hosts Datei:

Code:
# LHC
127.0.0.1   lhcathome-upload.cern.ch
127.0.0.1   lhcathomeclassic.cern.ch
127.0.0.1   lhcathome.cern.ch

Sobald die Theory VMs starten verbinden sich diese intern über den Condor Jobscheduler zu den Cern Servern und holen sich dort ihre Arbeitspakete. Sind diese abgeschlossen, fährt die VM herunter. Jetzt würde BOINC versuchen die Ergebnisse hochzuladen, durch die Einträge in der hosts Datei wird dieses aber blockiert. Funktioniert wunderbar.

Atlas mag minimal mehr Punkte geben als Sixtrack, Theory lohnt sich aber am meisten.
Ich habe 37 Theory hier die jeweils ~12h laufen, dh. ich habe mehr als genug WUs um das gewinnbringenste Projekt schon mal vorzurechnen. Womöglich werde ich NFS zugunsten von LHC/Theory pausieren oder minimieren.
 
Tja, ich bekomme halt keine wus (hosts noch nicht verändert) ..., ist LHC anders oder verstehe ich es gerade nicht. Bekomme ich nach deiner Aussage nun ständig neue WU's, ohne fertige hochzuladen oder sollte ich die hosts Einträge erst dann machen wenn ich WU's habe ?
 
;), hab nun zwei Theory und nu jetzt per hosts sperren oder wie ist der Plan ? Dann bekomm ich ja keine neuen wus ?!?

Ich steh wahrscheinlich gerade auf'n Schlauch. Beim BM ist Netzwerk an, ok, bei hosts ist noch nichts gesperrt, ok, ne Theory dauert ja auch bissl..., also beim BM nix sperren, dafür über die hosts ? also muß ich den Zugriff, nur über die hosts steuern und nicht übern BM ?

denke ich zu kompliziert ?

--- Update ---

ich geh am besten erstma schlafen ...
 
Zuletzt bearbeitet:
@Martin: Lässt Du die Multicore WUs auch nur auf einem Kern laufen, gibt das die meisten Credits? (Also beim Ryzen 7 16 VM nebeneinander gleichzeitig? )
 
Da ich ein von Grund auf fauler Knusperer für den Penta bin, würde ich gerne wissen, welches (Sub)Projekt sich zum Bunkern in der VB von nero am besten eignet ;-)
Irgendwie ging es zwischen theory (sim oder native) und sixtrack hin und her.
 
@Martin: Lässt Du die Multicore WUs auch nur auf einem Kern laufen, gibt das die meisten Credits? (Also beim Ryzen 7 16 VM nebeneinander gleichzeitig? )

Ja jeweils eine WU/VM je Kern. Aktuell sind es 9 parallel, trotzdem belegen sie inkl. OS, 3x NFS v5 und 4x Einstein nur 11GB RAM. Geht eigentlich!

htop.png
 
Zurück
Oben Unten