10. Pentathlon 2019 - LHC@home (Sprint)

was läuft bei euch bloss falsch muss doch ne ursache haben ?!

--- Update ---

Hallo denjo,
ja, so müsste das gehen. Das würde dann auch Koschis Konfiguration entsprechen. Oder?

ich hatte auch mal son run mit 10k credits pro wu und irgendwann bekamm ich nur noch 2k ... jetzt weiss ich warum ^^

im prinzip könnte man ja sogar vorgaukeln das dass system 32 oder mehr cpus hat ^^ ich sag da jetzt mal nichts zu ^^
 
Angeblich lieber virtualbox 5 statt virtualbox 6 nutzen.
 
Uiiiii. Dann brauche ich ja nicht rumjünsen. Meine Langläufer sind ja fast alle erfolgreich durchgelaufen. Die Fehler sind fast immer relativ früh aufgetreten.
Bei mir ist das Verhältnis geschätzt 40 zu 60% (defekte) bei der Anzahl und 80 zu 20% (defekte) bei der Rechenzeit.

Aber LHC werde auch ich negativ in Erinnerung behalten. Dieser ganze VB-Krempel ist nichts für Otto Normalverbraucher.

--- Update ---

BTW: Wo stehen wir im Rennen eigentlich?

--- Update ---

Hm, P2, aber alles Andere als sicher, also weiter damit...
 
Gerade wegen der extrem langen Laufzeit der Theorie VM WUs hatte ich bei dem Sprint von Anfang an einen großen Bogen darum gemacht und mich auf die VBox ATLAS WUs und die nativen Varianten konzentriert. Deren Laufzeit hält sich in Grenzen und abgesehen vom zusätzlichen Einrichtungsaufwand bei den nativen WUs liefen sie recht problemlos.
 
Angeblich lieber virtualbox 5 statt virtualbox 6 nutzen.


Hab hier Version 5.2.8 daran kann es also nicht liegen.

Die einzige Merkwürdigkeit ist, dass er mir die Berechnungszeit am Anfang mit etwas über 6 Stunden anzeigt.

Im Projektforum gibt es auch irgendwo einen Thread, dass es da wohl zu Fehlern kommen kann, wenn dann die Berechnung wesentlich länger dauert, als die am Anfang angegebene Zeit.

https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4273#30336


Ich lasse jetzt noch mal den Benchmark laufen, wie dort empfohlen. Keine Ahnung, ob es was bringt.
 
Auf meinem t430 hatte ich heute Nacht Atlas geladen, die WU/VM ist jetzt aber unmanageable laut boinc Manager. Trotz virtualbox 5.2.
 
Ich habe heute morgen die benötigten flops manuell im clientstate geändert, er hatte mir alles abgebrochen weil sie zu lang dauerten.
Hab dafür einfach den manager und Client beendet und im file alle angefangenen geändert. Zumindest hat er die mit knapp 7h nicht mehr abgebrochen wie alle zuvor.
Genau wie ich es machte kann ich nun leider nicht schreiben weil ich mobil unterwegs bin.
Habe aber einfach bei jeder wu dort die zwei flopwerte das komma einen nach rechts geschoben. Danach einfach wieder alles starten.
 
die gflops kriege ich nicht höhrer als 79.xx. liegt wohl an den 16 threads . 5 gflops pro thread
 
Nach dem Benchmarkdurchlauf wird mir jetzt die verbleibende Zeit realistischer angezeigt.

Also eine WU lass ich noch durchlaufen. *chatt*
 
boah das ist echt ärgerlich mit den gflops werten .... aber gut zu wissen. da kann nach dem penta direkt weiter knuspern ^^

hoffentlich kommen die 5 wus in unter 54000 sec durch ansonsten kommen sie zu spät ^^
 
Zuletzt bearbeitet:
Gerade wegen der extrem langen Laufzeit der Theorie VM WUs hatte ich bei dem Sprint von Anfang an einen großen Bogen darum gemacht und mich auf die VBox ATLAS WUs und die nativen Varianten konzentriert. Deren Laufzeit hält sich in Grenzen und abgesehen vom zusätzlichen Einrichtungsaufwand bei den nativen WUs liefen sie recht problemlos.
Kann ich nur bestätigen. Wenn kein Speicher knapp wird laufen die sehr zuverlässig.
 
Bei mir waren 2 Theory WU über Nacht fertig geworden, haben aber noch nicht einmal 300 Credits pro WU gebracht. *motz*
Bin mit beiden Rechnern wieder auf Zika.
 
die Chinesen hatten letzte Stunde schon wieder 3 Millionen. Die überrollen uns bald. :o bei ZIKA
 
Bei mir waren 2 Theory WU über Nacht fertig geworden, haben aber noch nicht einmal 300 Credits pro WU gebracht. *motz*
Bin mit beiden Rechnern wieder auf Zika.

max. FLOPS des Gerätes 8.91 GFLOPS da gabs 9xx credits ^^

verdammt die wus laufen jetzt alle nur mit 2 threads da kriege ich die net durch ^^ wenn ich die auf 4 umstelle nimmt er sich trotzdem nur 2 threads :/ also steigt die cpu auslastung nicht über 12 % je wu *admin*
 
Zuletzt bearbeitet:
immerhin 8 Theorys mit je über 8k credits rausbekommen, 2 laufen noch und werden noch rechtzeitig fertig wenn nichts passiert, die restlichen kerne ballern zikaden
 
Eine zweite Breitseite bekomme ich nicht mehr zustande. 8 WUs waren Frühzünder und gingen schon mit unter 50000 Sekunden durch die Rohre. 6 dicke Brummer hab ich noch die jetzt schon bei 15h sind, die werden also noch vor 2Uhr fertig und werden hoffentlich noch validiert. Die fertigen Kerne machen wieder ZIKA, leider frische :-(
 
Hier sollten schon noch 4-6 Theory simulations fertig werden, der Rest kommt mit Sixtrack, obwohl, naja,....
 
Verdammt, das wird S......e eng ;)

8 Theorys werden kurz vor Ende noch fertig, das wird eine Minutenentscheidung
 
Das dürfte aber vermutlich nicht kriegsentscheidend sein. Der Vorsprung sieht doch ganz gut aus.
 
Das mit LHC ärgert mich ein wenig, muss ich sagen. Ich hatte ja frühzeitig das Projekt als Sprint-Disziplin in Verdacht und hab wie erwähnt schon tagelang LHC blind vorgecruncht. Ich hatte mich aber nicht informiert, dass sich seit 2017 bei dem Projekt viel verändert hat. Daher hatte ich tagelang Sixtrack vorgecruncht, die sich in der Punktewertung quasi nicht ausgewirkt haben. Und mit den Besondernheiten von ATLAS und Theory hatte ich mich vorab gar nicht auseinandergesetzt. Wenn man sieht, welchen Antritt Rechenkraft.net an den Tag gelegt hat, mit viel weniger Rechenpower als wir, aber offenbar mit guter Recherche im Vorfeld und der richtigen Projekt-Konfiguration, dann wäre bei dieser Disziplin für uns viiiiiiiiiiiiiiiiiiiiel mehr dringewesen. Asche auf mein Haupt :(
 
Daraus lernt man halt. Und damit finde ich haben sich RKN dann auch wenigstens eine Medaille verdient.
 
naja das wäre ggf. die einzige Changs auf Gold gewesen wenn wir besser aus den Türmen gekommen wären, sehe ich mir an das wir eigentlich den abstand zu p1 halten ist das schade ;)
Nächste mal Nero bauen wir ne VM nur dafür ;)
 
Zurück
Oben Unten