Neue WUs bei LHC@Home!

Da geht nur sixtrack ,und die sind gerade aus.
Die anderen haben auch eine kurze Deadline.
 
Auch wenn's der Serverstatus nicht hergibt, Sixtrack verteilt wohl wieder WUs. Hab mir den Ryzen nach anfänglichem manuellen Aktualisieren jetzt mit 320 WUs voll gemacht und krieg auch immer wieder neue.

Wer also Lust auf Sixtrack hat ... happy crunching :)

Gruß,
Ritschie
 
Da bei Universe immer noch nix los ist, rechne ich mal Sixtrack.
Die sind leider nur bis 19.2. haltbar. Also mach ich dann auch erst morgen den Bunker voll.
Bis dahin hat sich der Ryzen hoffentlich entscheiden, ob ihm AVX oder SSE mehr liegen.

Lohnt es sich, ARM-Kerne ins Rennen zu schicken und wenn ja, mit Android oder eher Linux?
 
..., rechne ich mal Sixtrack.
Die sind leider nur bis 19.2. haltbar. Also mach ich dann auch erst morgen den Bunker voll.
Bis dahin hat sich der Ryzen hoffentlich entscheiden, ob ihm AVX oder SSE mehr liegen.
Da es pro Thread nur 20 WUs zu geben scheint, macht das bei ca. 0,5h Berechnungsdauer eh nur nen Bunker von ca. 10h. Ich bekomm ausschließlich SSE2 WUs.

Zu ARM kann ich leider nichts sagen.

Gruß,
Ritschie
 
Hm, 20 WUs pro Rechner offenbar. Das wäre dann sogar weniger als 1h Bunker. Also eigentlich gar NICHTS.
Mehr bekomm ich jedenfalls auch auf Nachfrage nicht.
 
Evtl. ist es schon wieder vorbei mit der WU-Versorgung *noahnung* Mittlerweile bekomme ich auch keine mehr. Von 320 bin ich auf 285 WUs runter - Tendenz fallend. Bis morgen früh bin ich erstmal versorgt - mal sehen, was bis dann ist ...

Edit: also aktuell bin ich wieder bei den max. 320 WUs für den Ryzen. Dran bleiben lohnt sich also und dabei den Bunker immer schön groß wählen, um die Versorgungsengpässe möglichst zu überbrücken (bei mir 3 Tage).

Gruß,
Ritschie
 
Zuletzt bearbeitet:
Meine letzte Atlas mit 7 Kernen läuft. Mal sehen was die LHCb mit meinen 12GB machen.
 
Sind die bei LHC verrückt?
Ich habe da jetzt ein paar Sixtrack am wickel, die 6 oder 7 tage laufen wollen, bei einer Restzeit von 4 Tagen. 8-(
Außerdem schruppen die WUs ganz schön auf meiner armen alten Festplatte rum.
 

Anhänge

  • LHC.jpg
    LHC.jpg
    105,1 KB · Aufrufe: 53
Sind die bei LHC verrückt?
Ich habe da jetzt ein paar Sixtrack am wickel, die 6 oder 7 tage laufen wollen, bei einer Restzeit von 4 Tagen. 8-(
Außerdem schruppen die WUs ganz schön auf meiner armen alten Festplatte rum.

ist doch geil ^^
 
Sixtrack hat wieder ein paar WUs.

Eine WU mit 6-7 Tagen Laufzeit sind mir nie aufgefallen *noahnung*

Gruß,
Ritschie
 
Die hatten auch merkwürdige Namen "boinc-errors". Lief am Ende dann doch nur 7h....
 
Zuletzt bearbeitet:
Ich habe mir auch mal wieder was geholt, hatte zwar bei 50 Mio gestoppt, aber hey..Asteroids ist bald für mich beendet und dann kann man ja wieder LHC *chatt*
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
jupp, wollte es gerade korrigieren, aber wie ich sehe sind die SixTrack schon wieder alle...
 
Meine ATLAS Simulation-WUs haben 24 Stunden auf einem 2,3 Ghz-System für 100% gebraucht.
Mitlerweile sind nochmal 24 Stunden vergangen, und sie wurden noch nicht zurück geschickt.
Wie lange soll ich Eurer Meinung noch warten, bevor ich sie abbreche?
 
Ich habe mich mal wieder an die nativen WUs rangetraut und dort eine Anleitung gefunden mit der sowohl Theorie als auch ATLAS nativ liefen.
https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5023&postid=38813#38813

Theorie wie gewohnt mit extrem unterschiedlicher Laufzeit aber im Gegensatz zu den VM WUs fraßen die sich nicht fest bis nach 4 Tagen das Timeout kommt.
Die ATLAS WUs schnappten sich bis zu 12 Kerne auf einmal und waren dann beim 3950X meist in ca. einer Stunde durch.

PS: ich nutze das Posting gleich mal um beim Ripper Cruncher schneller auf das Posting zu kommen. :D
 
Wieviel Plattenspeicher muß ich für die Theory-WUs (Native) einplanen?
Mit meiner 240er SSD bin ich hier schnell am Ende.
 
Ich mache inzwischen einen großen Bogen um die Theory WUs weil sich davon immer wieder welche festfressen und dann im zweifelsfall Tagelang einen Kern/Thread blockieren bis das Timeout abgelaufen ist. Bei den nativen WUs trat das Problem bei mir zwar seltener auf aber weg war das Problem dennoch nicht.
 
Ich hab einfach mal LHC eingeschaltet, da es mich doch gejuckt hat, dort einmal hinein zu schauen. dazu habe ich in einem Schwung die bösen Theory WUs erhalten, erst wenig später alle anderen auf der Webseite angemacht und diese dann nachgeladen.
5 Theory WUs hat er allerdings schon in wenige Minuten schon als gültig hochgeladen, abgeschlossen und lasse die einfach mal laufen, solange die einwandfrei wirken.

Eine SSD nutze ich allerdings nicht, sondern einen von den letzten neuen WD Raptors unter Linux Mint 64 GB RAM, dennoch hat die Platte ordendlich zu tun.

Muss ich bei bestimmten WUs extra Hand anlegen, oder laufen alle WU Arten automatisch und problemlos durch?

--- Update ---

mittlerweile sind 12 Theory WUs gültg und er startete die 1. Atlas WU für 8 CPU Kerne.
 
Die Theory WUs sollte man von der Laufzeit her immer im Auge behalten. WUs die deutlich länger als normal liefen waren idR. tot.
 
Also bei mir sind bis jetzt die Theory, Atlas WUs in der VirtualBox überwiegend erfolgreich durchgelaufen. Die nativen Atlas und die CMS in der VirtualBox wurden mit Fehler abgebrochen. Dann laufen 14 Theory VirtualBox WUs seit 8-12 Stunden. 1 Native Theory hatte ich ohne ein lauffähiges CVMFS vorsorglich abgebrochen.

Ich hatte gestern schon versucht über eine Anleitung im LHC Forum die CVMFS zu kompilieren, lief nicht sauber durch. Über diese Anleitung https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4840

Würde sagen die Atlas über VirtualBox sind mir bis jetzt am liebsten, bei den anderen weiß ich noch nicht so Recht, wie ich das unter Linux Mint einrichten kann.

In dieser Nacht wurden 43 fertig gestellt und 98 waren fehlerhaft.
Also der bin ich https://lhcathome.cern.ch/lhcathome/show_user.php?userid=609822

Edit:
Ich habe CVMFS nun mit Deiner Anleitung, siehe oben gemacht https://www.planet3dnow.de/vbulleti...ei-LHC-Home!?p=5271068&viewfull=1#post5271068, seit dem habe ich:
Probing /cvmfs/atlas.cern.ch... OK
Probing /cvmfs/atlas-condb.cern.ch... OK
Probing /cvmfs/grid.cern.ch... OK
Probing /cvmfs/cernvm-prod.cern.ch... OK
Probing /cvmfs/sft.cern.ch... OK
Probing /cvmfs/alice.cern.ch... OK

Damit sollten doch jetzt die Nativen funktionieren, fehlt noch etwas?

Edit 2:
Ich lasse erneut Native durchlaufen.
 
Zuletzt bearbeitet:
Jau, mit der Anleitung hatte ich sie auch zum laufen gebracht. :D
Angenehmer Nebeneffekt, die nativen ATLAS WUs scheinen weniger RAM zu fressen.
 
Zurück
Oben Unten