10. Pentathlon 2019 - LHC@home (Sprint)

Hoch optimierter Code. Da kümmert sich scheinbar mal ein Projektbetreiber darum, dass keine Rechenzeit verschwendet wird.

--- Update ---

Muss ich bei Gelegenheit die WLP erneuern - trotz 280 mm-Radiator bei voller Leistung 76° und nur noch knapp über 4GHz AllCore

Der 480mm Radiator muss richtig stark geföhnt werden, damit es bei mir "kühl" bleibt. Da hängt ja auch noch die 980Ti mit 170W Einstein-Abwärme drin.
 
Hoch optimierter Code. Da kümmert sich scheinbar mal ein Projektbetreiber darum, dass keine Rechenzeit verschwendet wird.

--- Update ---



Der 480mm Radiator muss richtig stark geföhnt werden, damit es bei mir "kühl" bleibt. Da hängt ja auch noch die 980Ti mit 170W Einstein-Abwärme drin.

Die Vega56 heizt von unten schon mal mit 156W vor - das Carbide500 Gehäuse ist ja an sich gut belüftet, aber im Moment bin ich froh, das es im Zimmer nicht wärmer ist
 
Mir fackeln hier auch gerade die VRMs auf dem Mainboard ab. Der Kühler des X399 Taichi ist ja nun wahrlich nicht klein... aber nicht mehr anzufassen. Erstmal nen Lüfter davor gehangen.
 
LHC scheint kleinere Schluckauf-Probleme zu haben ... schon die 4. Maintenance und die Zahl der bereitstehenden Six-WU´s ändert sich kaum. Nur direkt nach der MT wurden immer mal einige verschickt...

--- Update ---

@Eseltreiber
Und das mit Undervolting bei CPU & GPU :-[

Auf die VRM bläst der 260mm Seitenlüfter drauf und 120 mm saugen direkt ab ... die sind im grünen Bereich

Zum Glück soll es jetzt noch ein paar kalte Nächte geben
 
Zuletzt bearbeitet:
Ich brauche mal langsam mehr WUs. Hab nur 540 sixtracks bekommen. Und jetzt gibts es für jede fertige auch nur eine neue zurück. Bunker ist was anderes...
 
Hatte nur 127 abbekommen und 27 sind davon schon fertig :]
 
Ich hatte vor einer Woche Sixtrack eingelagert und 20 gerechnet. Die Credits waren erschreckend niedrig im Vergleich zu Theory (at 1 core). Da die VMs Netzwerkzugriff brauchen, werde ich erst mit Start des Sprint LHC rechnen...
 
Ich hatte vor einer Woche Sixtrack eingelagert und 20 gerechnet. Die Credits waren erschreckend niedrig im Vergleich zu Theory (at 1 core). Da die VMs Netzwerkzugriff brauchen, werde ich erst mit Start des Sprint LHC rechnen...

Wenn ich den Netzwerkzugriff ausschalte, gehen die Theorys sofort in Standby. Blockiere ich LHC über die Hosts geht's erstmal weiter. Habe aber noch keine länger weiterrechnen lassen, ob die irgendwann später anhält.
 
Bei mir auch einige. 9 Sek CPU Zeit und weg. Die anderen laufen nun durch.

Bei mir zwischen 12 Sekunden und 1h 40 min alles dabei.

Dummerweise habe ich auch schon welche hochgeladen. :-[
 
Ich weiß nicht ob es LHC/Theory oder Cosmo war, da haben sich imho die VMs intern dann Arbeit von einem Jobverwaltungstools aus dem Netz gezogen, daher ging ohne Netzwerk nichts. Die ersten 10min wird versucht die Verbindung aufzubauen, solange tickt die WU auch. Dann wurden die sich als Berechnungsfehler abgebrochen.
 
Checkt mal bitte ob auf den Maschinen wo LHC parallel mit Einstein läuft plötzlich nur noch eine Einstein-WU statt zwei berechnet wird.
Selbst wenn ich nur 24% der Prozessoren (einen Kern) fürs Rechnen freigebe läuft nur eine Einstein-WU.
Das wäre kacke.

Andererseits, passiert das plötzlich auch wenn NFS gecruncht wird. Sobald ein CPU-Projekt mitläuft geht Einstein auf eine WU runter.
Was soll der Quatsch?
 
LHC streuen enorm, bringen aber alle gleich viele Punkte. Wenn man fieß wäre, würde man alles was nicht nach 30 Sekunden durch ist abbrechen. Hatte Papa Schlumpf irgendwo verlinkt.
Das wäre wirklich blöd, weil's nat. nicht Sinn der Sache ist.

Super - jetzt habe ich meine "Linux-Spielbox" auf die native WUs vorbereitet und kriege "nur" noch Sixtracks... *chatt*
Dabei bekommt man die doch wirklich selten.

Ne, Sixtrack ist Q2.
Es wird gerade eine echte Herausforderung, den Threadripper bei LHC unter 60°C zu halten. Wahnnsinn, wie das heizt.
Das ist doch mal gut. Gut optimierte Apps wie bei Asteroids oder TN-Grid heizen wirklich kräftig ein, aber die CPU Apps von Primegrid toppen das noch.

Wenn ich den Netzwerkzugriff ausschalte, gehen die Theorys sofort in Standby. Blockiere ich LHC über die Hosts geht's erstmal weiter. Habe aber noch keine länger weiterrechnen lassen, ob die irgendwann später anhält.
Entweder geht die dann doch noch ein oder sie kommuniziert mit einem anderen Server.

Was bunkert ihr dann jetzt alle, bleibt ja nur Sixtrack?
Bin sowieso mit NFS eingedeckt und muss das auch abarbeiten.

Ich werde auf einigen Kisten aber mal versuchen die zusätzlichen Tools für den nativen Betrieb zu installieren.
 
Ich weiß nicht ob es LHC/Theory oder Cosmo war, da haben sich imho die VMs intern dann Arbeit von einem Jobverwaltungstools aus dem Netz gezogen, daher ging ohne Netzwerk nichts. Die ersten 10min wird versucht die Verbindung aufzubauen, solange tickt die WU auch. Dann wurden die sich als Berechnungsfehler abgebrochen.
Bei den LHC-Theory erfolgen einige Netzwerkabfragen:
Code:
2019-05-01 05:17:07 (3534): Guest Log: [DEBUG] Testing network connection to cern.ch on port 80
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to cern.ch 80 port [tcp/http] succeeded!
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] 0
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Testing CVMFS connection to lhchomeproxy.cern.ch on port 3125
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to lhchomeproxy.cern.ch 3125 port [tcp/a13-an] succeeded!
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] 0
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Testing VCCS connection to vccs.cern.ch on port 443
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to vccs.cern.ch 443 port [tcp/https] succeeded!
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] 0
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Testing connection to Condor server on port 9618
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to vccondor01.cern.ch 9618 port [tcp/condor] succeeded!
 
Ich bekomme irgendwie die Tür nicht zu bei Sixtrack, stimmen die Hosteinträge vom Anfang oder muß man da noch welche dazubauen?
Aktuell sieht das so bei mir aus:
#LHC
127.0.0.1 lhcathome.cern.ch
127.0.0.1 lhcathomeclassic.cern.ch
::1 lhcathome.cern.ch
::1 lhcathomeclassic.cern.ch
Eigentlich sollte das passen?

--- Update ---

O.k. ich hab's, der lhcathome-upload.cern.ch muss dabei sein. Das ist der Server der zur Übertragung angesprochen wird.

Ich hoffe das passt so:
#LHC
127.0.0.1 lhcathomeclassic.cern.ch
127.0.0.1 lhcathome-upload.cern.ch

::1 lhcathomeclassic.cern.ch
::1 lhcathome-upload.cern.ch
 
Zuletzt bearbeitet:
Bei den LHC-Theory erfolgen einige Netzwerkabfragen:
Code:
2019-05-01 05:17:07 (3534): Guest Log: [DEBUG] Testing network connection to cern.ch on port 80
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to cern.ch 80 port [tcp/http] succeeded!
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] 0
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Testing CVMFS connection to lhchomeproxy.cern.ch on port 3125
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to lhchomeproxy.cern.ch 3125 port [tcp/a13-an] succeeded!
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] 0
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Testing VCCS connection to vccs.cern.ch on port 443
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to vccs.cern.ch 443 port [tcp/https] succeeded!
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] 0
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Testing connection to Condor server on port 9618
2019-05-01 05:17:09 (3534): Guest Log: [DEBUG] Connection to vccondor01.cern.ch 9618 port [tcp/condor] succeeded!

Ja genau, Condor, da klingelt es bei mir(Ausrufezeichen)
 
Inwiefern?
So, habe auf Stretch und Jessie erst Mal das cvmfs Framework und Singularity installiert. Muss ich nur schauen, wann und wie ich so eine WU mal bekomme.
 
also die app_info für only avx

<app_info>
<app>
<name>sixtrack</name>
</app>
<file_info>
<name>sixtrack_win32_50205_avx.exe</name>
<executable/>
</file_info>
<app_version>
<app_name>sixtrack</app_name>
<version_num>50205</version_num>
<plan_class>avx</plan_class>
<file_ref>
<file_name>sixtrack_win32_50205_avx.exe</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>

und das solls jetzt bringen ?!
 
Für die 64-Bit-Version eher so:

PHP:
<app_info>
<app>
<name>sixtrack</name>
</app>
<file_info>
<name>sixtrack_win64_50205_avx.exe</name>
<executable/>
</file_info>
<app_version>
<app_name>sixtrack</app_name>
<version_num>50205</version_num>
<plan_class>avx</plan_class>
<file_ref>
<file_name>sixtrack_win64_50205_avx.exe</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>
 
Kurz nach Nero24 habe ich auf meinen I7 7700T LHC Gebunkert und mit 127.0.0.1 lhcathomeclassic.cern.ch + 127.0.0.1 lhcathome.cern.ch die Schotten dicht gemacht,
am Montag hatte ich nach den TheorySimulation(vbox_64) gesehen, 1 nach 10 Sekunden mit Berechnungsfehler 8 komplett bis zum Ende durch gerechnet,
das ganze unter Linux.
 
Zuletzt bearbeitet:
Dann muss ich das morgen mal mit meiner FX Config testen.

Ich habe eben singularity und CVFMS bei der Ubuntu 19.04 Installation von der FX Kiste nach der Anleitung von overclockers.net installiert und bin dabei auf 2 Probleme gestoßen.
Zum einen scheint CVFMS nicht dafür gedacht zu sein und nutzt deshalb einen Ubuntu 12.04 fallback, zum anderen fehlt Ubuntu 19.04 für das CVFMS Setup dieser Version der libssl1.0.0 Support, welchen ich nachinstallieren musste damit es durch läuft.
Diesen bekam ich wiederum dort:
https://packages.ubuntu.com/bionic/libssl1.0.0
Für amd64:
https://packages.ubuntu.com/bionic/amd64/libssl1.0.0/download

libssl1.0.0_1.0.2n-1ubuntu5.3_amd64.deb runterladen, einfach ausführen und von Ubuntus Software Manager installieren lassen. Danach funktionierte auch das CVFMS Setup.

WUs habe ich leider noch keine getestet weil die Luke für das NFS Bünkerchen schon zu ist.
 
Zuletzt bearbeitet:
Eigentlich hatte ich LHC schon von meinem Plan gestrichen, weil Null Wuzen zu kriegen waren. Bis heute habe ich auch keine einzige zu sehen gekriegt - da schaue ich heute morgen ins LHC-Konto und es sollen 480 Wuzen hier sein.

Na, super, Übersicht verloren bei all den realen und virtuellen Maschinen. Die Computer geprüft, auf denen was sein sollte und:
Lappy (Win10) hat 160 Sixtrack
Opteron (Linux Mint) hat 160 Sixtrack
i7-4790S (Ubuntu) hat 160 Sixtrack

Gerechnet hat noch keiner von denen irgendwas und der Lappy zeigt mir eine vorr. laufzeit von 6,5h an. Den lasse ich dann wohl besser bei NFS.
Was die Linuxe angeht: Sind die Sixtrack da überhaupt lauffähig? Ich teste mal an.

--- Update ---

Scheint so, zumindest die Sixtracks auf Mint scheinen zu laufen und auch deutlich schneller als unter Windows. Die haben nach 15min teilweise schon 25%.
 
Scheint so, zumindest die Sixtracks auf Mint scheinen zu laufen und auch deutlich schneller als unter Windows. Die haben nach 15min teilweise schon 25%.
Das kann man so nicht sagen. Die Laufzeiten der Sixtracks schwanken erheblich, von wenigen Sekunden bis einige Stunden *noahnung*
 
Die Sixtrack auf Ubuntu laufen garnicht. Abbruch und hochmelden nach 6-8s. Den kann ich also schon mal vergessen. Bleibt dann bei WCG.
 
Wie sieht denn bei euch der Unterschied zwischen SSE2 und AVX aus? Das schwankt hier so stark,daraus kann ich nichts erkennen. Die Dinger mit <1Min mal außen vor gelassen.
SS2 meist 30 Minuten, machmal 36-38, dann 60-70, 80-90 und 130-150.
AVX 12-40 Min, 50-60, 80-90, 110-120, 130-150. Bei AVX sind aber mehr Langläufer dabei.

Wenn es entsprechend der Laufzeit mehr Punkte gibt, ist mir das noch egal. Werde beim Start sowieso auf die Theorys umschwenken. Die scheinen mir ergiebiger.
 
Zurück
Oben Unten