PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Universe@Home



cyrusNGC_224
21.02.2015, 13:55
Bisher formierte das Projekt unter Universe@Home test (http://universeathometest.info/universe/index.php), welches parallel weiter läuft, aber eben nur zu Testzwecken dient.

Vor knapp einer Stunde kündigte ein Admin dort dieses produktive Projekt an:

I would like to announce that production server for our project is officially started. To join to main project create account at:

http://universeathome.pl/universe

or use BOINC Manager to join.
In a cause of problem in manager, please "reset" the project in manager (this will update project names in manager).

This server will stay live for testing new applications.

Universe@Home (http://universeathome.pl/universe/) ist also ab jetzt erreichbar und unser Team existiert auch schon: http://universeathome.pl/universe/team_display.php?teamid=229

Anwendungen gibt es bis jetzt für Win (x86) und Linux (x86_64).


Zum Moment ist nur BOINC@Poland fleißig am Crunchen.
Vielleicht eine Möglichkeit, gleich von Beginn eines Projektes an der Spitze mit zu mischen ;)

JagDoc
21.02.2015, 18:10
Der Upload ist mit 70MB ganz schön heftig.
Laufzeit auf dem i7-4930 ca 2,5 Stunden.

cyrusNGC_224
21.02.2015, 21:55
Bei mir von 4h bis 6h (Kaveri/i7-2600k bis i7-3632QM). Die Kabinis sind nat. noch nicht durch.
Neben dem hohen Upload, momentan 222 Credit pro WU, ist die Größe pro WU bis zu 700 MB!
Bei 8 WUs parallel muss man also mehrere GB frei haben!

Ich bin übrigens der erste, der im Team Punkte hat, yeah!

--- Update ---

JagDocs 6 Kerner ist also wirklich extrem stark oder unter Windows läuft die App etwas effizienter?

JagDoc
21.02.2015, 22:21
Der i7-4930 läuft mit Turbo auf 3,9GHz und rechnet 12 WUs in 2h30min.
Der i7-3930 @3,4GHz braucht 2h54min.

Den hohen Speicherverbrauch konnte ich nicht feststellen.
Auslastung ca 16% von 16GB mit 12 WUs .

cyrusNGC_224
21.02.2015, 23:10
Also Festplattenspeicher, nicht Arbeitsspeicher. Denn der wird kaum genutzt (nur ein paar MB).

--- Update ---

TheBloodyNine erreicht mit seinem Intel(R) Xeon(R) CPU E5-1650 v2 knapp über 2h, das ist auch extrem gut.

Sabroe SMC
21.02.2015, 23:21
Bitte die Daten von Universe@home nicht in den CI2 eingeben. Auch diese arbeitspakete werden in Stunden, Minuten und Sekunden angegeben. Damit kann der CI2 nichts anfangen. Ich weiss nicht ob es noch mal ein Update geben wird um diese Hürde zu überwinden.

MagicEye04
21.02.2015, 23:52
Die Projektseite lädt aber zäh.
Ich mach dann auch mal mit, immerhin ein europäisches Projekt.
Die erste WU läuft gleich mal im Panikmodus, Deadline nur 2 Tage. :o
Sie belegt bei mir weniger als 1MB auf der Festplatte und auch im RAM ist nicht viel mehr.

cyrusNGC_224
21.02.2015, 23:54
Die wächst auf der Platte (bis zum Ende). Keine Angst, min 300 MB braucht die auf jeden Fall.

Jetzt wo es mehr Cruncher werden, wird die Seite etwas zäh, ja.

MagicEye04
22.02.2015, 00:02
Ich sehe gerade, die 1MB sind ja vor allem die App. Die WU scheint bisher nur wenige Byte zu belegen.
Na dann lass ich mich mal überraschen, es sind ja zum Glück noch 400GB frei.

cyrusNGC_224
22.02.2015, 00:17
Steht auch in den Task Infos einer fertigen WU: Peak disk usage 658.87 MB

Mit 6 WUs hatte ich schon 2,6 GB beobachtet.
Laut unserer Stats-Seite sind wir aktuell 3. Team :)

joe carnivore
22.02.2015, 08:51
Für mich ist das Projekt nichts. Zu hoher upload.
Gelegentlich werde ich mein E350 anwerfen. Braucht ~8h.

Mein XEON 1230v3@3,5MHz braucht 2:50

Sabroe SMC
22.02.2015, 09:35
Die Zugriffszeiten auf die Webseiten von Universe sind allerdings mehr als unterirdisch. Mehr als 4 Minuten pro Aufruf.....???

joe carnivore
22.02.2015, 09:49
Die Zugriffszeiten auf die Webseiten von Universe sind allerdings mehr als unterirdisch. Mehr als 4 Minuten pro Aufruf.....???

Super schnell hier. ?


Sorry war die Test Seite.

Aber warum wohl bei ~70 MB up sind die Platten oder deren Leitung schnell voll.
Ich glaube das müssen die mal überdenken und die Rohdaten schon beim User bearbeiten.

Sabroe SMC
22.02.2015, 09:51
Im Ernst?

MagicEye04
22.02.2015, 09:56
Bei mir ist es auch immer noch im Minutenbereich.
Ich glaub, die hohen uploads legen die Seite lahm.
Und durch die kurzen deadlines sind die WUs alle im Panikmodus und andere Projekte müssen warten, bis die fertig sind.
Von friedlicher Koexistenz kann da keine Rede sein, außer ich warte, bis die anderen WUs auch fast überfällig sind.

Sabroe SMC
22.02.2015, 10:21
Jetzt eben ging es plötzlich normal schnell, vielleicht Arbeiten an den Servern??

--- Update ---

2,5 Stunden auf einem i7-2600K@4Ghz

MagicEye04
22.02.2015, 10:26
Mein FX-8350@4GHz liegt so bei 3:20h. Intel scheint da also besser zu laufen.
Leider alle im Pending.
Auf jeden Fall hilft es, dass ich 2,4Mbit/s upload habe, sonst wäre die Leitung ja dauerhaft verstopft.

joe carnivore
22.02.2015, 11:07
Mein FX-8350@4GHz liegt so bei 3:20h. Intel scheint da also besser zu laufen.
Leider alle im Pending.
Auf jeden Fall hilft es, dass ich 2,4Mbit/s upload habe, sonst wäre die Leitung ja dauerhaft verstopft.

Mein 8350@4-4,1MHz hat so um die 3:08h.

Ich hab so ~24kb/s (DSL2000 Telekom)

MagicEye04
22.02.2015, 11:44
Hm, mein Speicher läuft nur mit 1333, vielleicht bremst das ja ein wenig.

joe carnivore
22.02.2015, 11:47
möglich. ich hab 1866. 9-10-9
nix tolles.

G.SKill Sniper 16GB Kit DDR3 PC3-14900 CL9 (F3-1866C9D-16GSR)

cyrusNGC_224
22.02.2015, 12:10
Dass deren System noch nicht perfekt läuft und es noch Kleinigkeiten zu verbessern gibt, dass haben die ja gleich zu Beginn bekannt gegeben.
Und der hohe Upload war auch schon Thema bei der letzten Testanwendung im Testprojekt - die komprimieren bereits.
Ich denke, die kurzen Deadlines hängen auch damit zusammen, dass die alles besser (schneller) beobachten und darauf reagieren können.

--- Update ---

Die Win App ist wirklich besser. Auf einem Katzenathlon unter Linux etwas über 7h und auf einem mit Win 8.1 etwas über 5h Laufzeit. Das ist natürlich nicht so toll.

MagicEye04
26.02.2015, 23:53
Das Projekt hat es geschafft, mein up/downloadvolumenverhältnis komplett umzukehren.
Jeden Tag gehen 1-2GB up, im Monat kommen da bestimmt 40GB zusammen.

Dafür hält es die CPU schön kühl, ist wohl auf dem FX nicht sehr effizient. Wenn ich es z.B. mit WCG-Ebola vergleiche, liegen da schon mal 3 Grad dazwischen.

cyrusNGC_224
27.02.2015, 01:18
Die warnen ja auch davor, dass gerade WUs mit 70 MB Upload unterwegs sind. Das ginge bis jetzt nicht anders.

MagicEye04
27.02.2015, 22:30
Halb so wild. Gerade das nächste 584MB-Paket auf die Reise geschickt (irgendwie waren alle 8 Kerne gleichzeitig fertig).

cyrusNGC_224
28.02.2015, 01:46
Sehr gut, noch sind wir auf #5. JagDocs Rechner sind ja in den Top Hosts weit vorn.

Onkel_Dithmeyer
28.02.2015, 17:55
Warum muss der Trafic nur so hoch sein, wäre schon interessant, bekomm ich aber nicht durch meine Leitung geprügelt :(

joe carnivore
28.02.2015, 18:19
Warum muss der Trafic nur so hoch sein, wäre schon interessant, bekomm ich aber nicht durch meine Leitung geprügelt :(

Soll sich ja noch ändern.

This will change in future but for current project demands the files with all data are required.

Onkel_Dithmeyer
28.02.2015, 19:27
Oh, dann ist gut. :)

MagicEye04
28.02.2015, 20:28
Ich lass das Projekt bei mir nur 20% der Zeit laufen, sonst wäre die Leitung zu oft belegt. Wäre vielleicht auch eine Möglichkeit für die mit den dünnen Leitungen. ;)

JagDoc
01.03.2015, 12:01
Ich lass das Projekt bei mir nur 20% der Zeit laufen, sonst wäre die Leitung zu oft belegt. Wäre vielleicht auch eine Möglichkeit für die mit den dünnen Leitungen. ;)
Oder man begrenzt die Anzahl der laufenden WUs auf 1 oder 2 mit einer app_config.xml im Projektordner:

<app_config>

<app>
<name>universe-xray_sources</name>
<max_concurrent>1</max_concurrent>
</app>

</app_config>
Dann läuft es ohne Problem neben anderen Projekten.

Man muß nur darauf achten das der Arbeitspuffer relativ klein (0,5 tage) eingestellt ist.
Den BM kümmert der Wert in der app_config.xml beim Anfordern von WUs nicht und er holt sich sonst evtl. zu viele WUs.

Oder man holt sich einen WU Vorrat und stellt dann auf "keine neue Arbeit".

MagicEye04
01.03.2015, 12:29
Das wäre mir alles zu unflexible. Wenn WCG gerade keine Arbeit hat (ja, kommt selten vor), darf und soll Universe ja gern auf allen Kernen laufen.
Ein großer Vorrat ist bei der extrem kurzen deadline auch nicht optimal.

JagDoc
01.03.2015, 12:43
Die Deadline ist inzwischen bei 4 Tagen.

MagicEye04
01.03.2015, 13:01
Das ist bei mir "extrem kurz". Mal übers Wochenende den Rechner auslassen, schon läuft die Kiste im Panik-Modus oder die Hälfte verfällt.
Bei einem Vorrat schrumpft der Zeitraum ja noch mal um die Größe des Vorrats.

cyrusNGC_224
01.03.2015, 14:13
Das wäre mir alles zu unflexible. Wenn WCG gerade keine Arbeit hat (ja, kommt selten vor), darf und soll Universe ja gern auf allen Kernen laufen.
Ein großer Vorrat ist bei der extrem kurzen deadline auch nicht optimal.In den Projekteinstellungen (universe) bei "Resource share" auf 1% stellen? Dann sollte der nur Arbeit von Universe holen, wenn WCG (oder ein anderes) gerade nix bietet.

joe carnivore
01.03.2015, 15:08
In den Projekteinstellungen (universe) bei "Resource share" auf 1% stellen? Dann sollte der nur Arbeit von Universe holen, wenn WCG (oder ein anderes) gerade nix bietet.
0 wäre besser. Dann können die anderen Projekte ruhig x Tage an Vorrat holen und das 0 Projekt holt max. Kernzahl an WU.

0 macht nicht jedes Projekt.

MagicEye04
01.03.2015, 16:16
In den Projekteinstellungen (universe) bei "Resource share" auf 1% stellen? Dann sollte der nur Arbeit von Universe holen, wenn WCG (oder ein anderes) gerade nix bietet.
Ich komme mit den 20% und 1 Tag Puffer ganz gut klar.

MagicEye04
04.03.2015, 21:30
Irgendwie ist die Deadline wohl mal wieder auf 2 Tage gerutscht. Meine WUs sind fast alle bis 6.3. abzuliefern und aus lauter Panik macht Boinc nun 100% Universe.

cyrusNGC_224
04.03.2015, 22:35
Scheint in deren Forum noch keiner erwähnt zu haben.

JagDoc
04.03.2015, 22:48
Irgendwie ist die Deadline wohl mal wieder auf 2 Tage gerutscht. Meine WUs sind fast alle bis 6.3. abzuliefern und aus lauter Panik macht Boinc nun 100% Universe.
Die haben alle 4 Tage Deadline.
Deine WUs sind fast alle vom 2.3.

MagicEye04
04.03.2015, 22:55
Hm, na dann hat mir das Projekt entweder zu viele geschickt oder der Boinc-Manager hat zu viele geholt.
Bei einem Bunker von 1 Tag sollten die doch maximal 1 Tag alt werden.
Dann probier ich es eben mal mit 15%

cyrusNGC_224
04.03.2015, 23:15
Liegt sicher daran, dass die Berechnungszeit mit meist knapp über einer Stunde viel zu optimistisch angegeben wird. Und deswegen holt der BM einfach zu viel.

MagicEye04
04.03.2015, 23:23
Bei mir gibt der BM die realen 3:17 als Schätzung an. Fast schon unheimlich genau.

cyrusNGC_224
04.03.2015, 23:38
Oh, da haben sie's wohl geändert.

JagDoc
06.03.2015, 08:07
An der Upload Größe wird gearbeitet.

Currently on test server are some work units for new application version where result files are really smaller.
If all work units finish well I will add new application here.

http://universeathome.pl/universe/forum_thread.php?id=6&postid=129#129

Sabroe SMC
06.03.2015, 16:03
Habe gerade folgende WU's erhalten
Universe@Home 0.01 Universe X-ray sources v2 596 [Aufgaben] - (-) 0,00 0,00000 953:55:52 10.03.2015 11:58:50 Zur Ausführung bereit Workstation

joe carnivore
06.03.2015, 16:27
Habe gerade folgende WU's erhalten
Universe@Home 0.01 Universe X-ray sources v2 596 [Aufgaben] - (-) 0,00 0,00000 953:55:52 10.03.2015 11:58:50 Zur Ausführung bereit Workstation

Bin schon 3 Stunden dabei.
38% (E350) , dauert bei mir noch.
Leider V2, wieder ein Wuprop Eintrag mehr und v1 brachte mir leider nichts (Bronze).

JagDoc
06.03.2015, 19:20
Bei den V2 WUs ist der Upload winzig.
Die war so schnell weg das ich nicht mal gesehen habe wie groß er ist.

Wer Probleme mit dem Upload hat am besten in den Projekteinstellungen nur die V2 zulassen.

joe carnivore
06.03.2015, 19:24
Bei den V2 WUs ist der Upload winzig.
Die war so schnell weg das ich nicht mal gesehen habe wie groß er ist.

Wer Probleme mit dem Upload hat am besten in den Projekteinstellungen nur die V2 zulassen.

Mal wieder schneller ,bin bei 75%.

Wenn man das aussuchen kann ist auch gut. Hab nur V2 bekommen.

JagDoc
06.03.2015, 19:30
Mal wieder schneller ,bin bei 75%.

Wenn man das aussuchen kann ist auch gut. Hab nur V2 bekommen.
Gibt im Moment nur V2 und das mehr als genug.

Onkel_Dithmeyer
06.03.2015, 19:54
Super, dann steige ich Sonntag ein! :)

JagDoc
06.03.2015, 20:01
Hab gerade mal den Netzwerkzugriff abgeschaltet.
Sind ca 500KB upload.

joe carnivore
06.03.2015, 20:13
Hab gerade mal den Netzwerkzugriff abgeschaltet.
Sind ca 500KB upload.

Hört sich gut an. Dann kann man einsteigen mit kleiner Leitung.

MagicEye04
14.03.2015, 13:50
Bei mir gibt der BM die realen 3:17 als Schätzung an. Fast schon unheimlich genau.


Oh, da haben sie's wohl geändert.

Tja, seit ein paar Tagen klappt die Zeitberechnung nicht mehr.
Ich bekomme für die V2 1:14h angezeigt, real laufen die aber nach wie vor ihre 3:20h
Das hat zur Folge, dass Universe immer 3x so viele WUs schickt, wie verarbeitet werden können.
Die laufen dann immer 1-2 Tage im Panik-Modus durch, dann macht das Projekt erstmal eine Weile Pause, weil ja WCG auch noch was rechnen soll, um auf die eingestellte Projektverteilung zu kommen. Dies wiederum führt zu WUs, deren Haltbarkeit bald überschritten ist. Und das hat natürlich wieder den Panik-Modus zur Folge.
Die 4 Tage Deadline finde ich nach wie vor zu kurz. Ich hab das Projekt jetzt erstmal auf No Work gestellt. Vielleicht hol ich ab und zu mal einen Schwung WUs und mach die Tür dann wieder zu.

Ich hab Universe nur auf dem einen Rechner, es kann also nicht daran lieben, dass ein anderer Rechner die Zeiten beeinflusst.

Edit: Oh wie nett, es gibt sogar Badges bei dem Projekt :)

Sabroe SMC
14.03.2015, 14:36
Dazu noch richtig schöne, im Vergleich zu anderen Projekten.

cyrusNGC_224
24.04.2015, 22:17
Mit der neuen "Universe X-ray sources v2 v0.03" Anwendung wurden die Linuxlaufzeiten im Schnitt um den Faktor 2,5 verkürzt! So ist die Leistung unter Linux nun der unter Win ebenbürtig und sogar stellenweise etwas besser. Z.B. auf einem Athlon 5350 Win 8.1 ca. 17000 s, unter Linux sind es ca. 10000 s (zuvor ~26000 s).
Checkpoints funktionieren nun auch.
Die extrem hohen Uploads sind übrigens schon lange Geschichte. Nun sind Up,- und Download nur wenige kB groß.

Pollux
24.05.2015, 00:32
So ist die Leistung unter Linux nun der unter Win ebenbürtig und sogar stellenweise etwas besser.
Wenn ich mir die x6 1090 anschaue, dann ist Linux jetzt beinahe doppelt so schnell als Win !
Das ist nicht sehr nett. ;D
Wann zieht Windows nach ??

cyrusNGC_224
24.05.2015, 02:09
Weiß nicht ob die das überhaupt so schnell vorhaben.
Hab jetzt auf dem Win 8.1. Athlon extra eine Linux VM angelegt, weil das wie gesagt fast der doppelt Durchsatz ist.

Ritschie
24.05.2015, 02:11
Mal ne blöde Frage: was wird hier gerechnet? Iwie konnte ich hierzu nix sachdienliches finden *noahnung*

Gruß,
Ritschie

cyrusNGC_224
24.05.2015, 02:29
Für so ein jungen Projekt haben die schon sehr viel und sehr detaillierte Beschreibungen parat [1], [2].


This proposal aims to create the first database of the simulated stellar content of the Universe,
from the earliest stars to the most exotic black hole binaries. This comprehensive stellar library will
be a world-wide scientific resource for astronomers, and an educational asset for the public. With
a state-of-the-art suite of computational tools, we can calculate the physical properties of individual
stars, evolve them in time, and track how they interact with each other as they age. With this library
of stellar populations that spans the known range of star formation histories and initial elemental
abundances, it is possible to tackle fundamental science questions that have been out of reach in
general relativity, astronomy, and cosmology. As a group wewill use this database to characterize the
population of supernova progenitor stars that have been used to discover the mysterious dark energy
that accelerates the expansion of the Universe; we can calculate how (if at all) binary evolution
facilitates the formation of ultra-luminous X-ray sources, and we can model the number and physical
properties of neutron stars and black holes that strongly emit gravitational waves that are at the
heart of research into gamma-ray bursts – the most energetic explosions known-to-date. The data
that we create can be mined not only to match current observations, but to predict how the sky
will appear to future astronomical observatories as new windows to the Universe open. Altogether,
this proposal will allow us to consolidate a strong and highly visible research group; an independent
computational center that trains a new cohort of highly educated students, and communicates with
the public via innovative science venues, and offer a fresh look at the Universe.

Also eine Datenbank wird erstellt, in der sämtliche Objekte im bekannten Universum abgebildet werden.
Neutronensterne, schwarze Löcher, Doppelsternsystem usw. Im Grunde wird das simuliert, anhand von Daten von Gravitationswellen und Röntgenstrahlung.
Und noch vieles mehr.


[1] http://iopscience.iop.org/0067-0049/174/1/223/pdf/0067-0049_174_1_223.pdf
[2] http://universeathome.pl/universe/universe.pdf

Ritschie
24.05.2015, 12:14
Also eine Datenbank wird erstellt, in der sämtliche Objekte im bekannten Universum abgebildet werden.
Neutronensterne, schwarze Löcher, Doppelsternsystem usw. Im Grunde wird das simuliert, anhand von Daten von Gravitationswellen und Röntgenstrahlung.
Und noch vieles mehr.Hallo cyrus,

leider ist mein Englisch zu eingestaubt. Aber deine kurze Erklärung genügt mir. Vielen Dank dafür.

Gruß,
Ritschie

Pollux
24.05.2015, 16:34
http://wiki.bc-team.org/images/6/61/Universe.jpg
Das Projekt hat sich zum Ziel gemacht, eine erste Datenbank für den simulierten stellaren Inhalt des Universums zu erstellen, von den frühesten Sternen bis zu den exotischsten schwarzen Löchern. Als stellare Bibliothek soll sie eine weltweite wissenschaftliche Quelle für Astronomen und ein Lernvorteil für die Öffentlichkeit werden.
Mit neuesten Berechnungswerkzeugen können wir die physikalischen Eigenschaften von Sternen berechnen und wie sie sich zueinander verhalten, wenn sie altern. Fundamentale wissenschaftliche Fragen der Relativität, Astronomie und Kosmologie können anhand dieser Bibliothek der Sternenpopulation angepackt werden. Als Gruppe werden wir die Datenbank zur Charakterisierung der Population von Supernova-Vorgängern nutzen, die zur Entdeckung der mysteriösen Dunklen Energie führten, die die Expansion des Universums beschleunigt. Wir können berechnen wie (und ob) die binäre Evolution die Formation von ultraleuchtenden Röntgen-Quellen erleichtert, und wir können die Anzahl der physikalischen Eigenschaften von Neutronensternen und schwarzen Löchern modellieren, die starke Gravitationswellen emittieren. Gravitationswellen sind das Herz zur Erforschung von Gammablitzen - der größten energetischen Explosion, die bis heute bekannt ist.
Weiterführende ausführlichere Projektbeschreibungen (in Englisch) kann man in dieser
PDF-Datei (http://universeathome.pl/universe/universe.pdf) erfahren.

Badges-System:
http://wiki.bc-team.org/images/d/db/Badges_universe.jpg


Quelle: http://wiki.bc-team.org/index.php?title=Universe@Home



Universe@home http://universeathome.pl/universe/index.php
Anwendungen: http://universeathome.pl/universe/apps.php

Die extrem hohen Uploads sind übrigens schon lange Geschichte. Nun sind Up,- und Download nur wenige kB groß.
Die Linuxanwendung ist auf einem Phenom2 x6 1090 zur Zeit beinahe doppelt so fix als die Winversion.
Linux: ca. 6600 sec
Win: ca. 12200 sec
Ram unter Win : ca. 4,5 MB
Credits je Wu: 222,22




Universe@Home test project http://universeathometest.info/universe/

Ritschie
24.05.2015, 19:23
@ Pollux: vielen Dank für den Link!

Gruß,
Ritschie

Sabroe SMC
29.05.2015, 22:09
Kann mir mal jemand erklären warum ein Opteron 6380 (16Kerne, 2,5 Ghz Takt) ca 25% pro WU schneller ist als ein Opteron 6344 (12Kerne, 2,6 Ghz Takt).
6380: http://universeathome.pl/universe/result.php?resultid=1726723 5,916.06 sec
6344: http://universeathome.pl/universe/result.php?resultid=1879587 7,919.05 sec

Sind die WU's so unterschiedlich, was ich bisher bei ca 1500 WUs auf meinem Opteron nicht feststellen konnte, oder gibt es etwa eine "schnellere" App? Oder kann man eventuell die Opteronen übertakten? Die Gleitkommazahlenwerte der Rechner des Herrn Brobecki sind alle ca 12% höher als die von meinem Rechner. 2200 zu 2500

Raspo
29.05.2015, 23:21
Vielleicht hat er schnelleren Speicher verbaut.

Sabroe SMC
29.05.2015, 23:27
Ich habe 2x 32 GB Kingston ValueRAM DIMM, 8x8GB Module mit ECC, DDR3-1600 CL11 verbaut. Kann der Chipsatz/Prozessor aus der zeit mit schnelleren Rams umgehen? Wenn ja, wieviel Einfluss hat die Geschwindigkeit des Rams auf die Rechenzeit der WUs?

Onkel_Dithmeyer
29.05.2015, 23:37
Bei Universe nicht sonderlich viel.

Sabroe SMC
29.05.2015, 23:38
Sehe ich genauso

cyrusNGC_224
31.05.2015, 04:34
Der Brobecki hat sowieso unglaubliche Kisten im Park. Und ja, es gibt Boards, mit denen man die Opteron übertakten kann.
Anhand der höheren Benchwerte muss das auch der Fall sein.

--- Update ---

Ach, was mir noch auffällt, er hat da überall Gentoo Linux drauf laufen. Da wird bekanntlich jedes Paket im Quellcode geliefert und muss noch kompiliert werden, was mit den optimalen Kompilerflags für eine spezifische Arch tatsächlich einige % Vorteil bringen könnte.
Dagegen spricht, dass die eigentlich Universe App eben nicht neu kompiliert werden kann (außer er hat den Quellcode bekommen).

cyrusNGC_224
02.10.2015, 00:52
Universe sendet neuerdings WUs nur an vier verschiedene OS Klassen, was die Homogeneous Redundancy Funktionen von Boinc verwendet: Windwos, Linux, Mac-PPC, Mac-Intel

http://universeathome.pl/universe/forum_thread.php?id=62&postid=555

Außerdem teilt man die Berechnung in verschiedene Reihen auf. Das hat geringere Uploadgrößen und unterschiedliche Laufzeiten zur Folge.

http://universeathome.pl/universe/forum_thread.php?id=64#557

cyrusNGC_224
13.10.2015, 01:48
From new batch we start to send about 4 times longer work units...

Longer WU's allow us to check some models more deeply and also this change will unload server by giving us same data in less files...
http://universeathome.pl/universe/forum_thread.php?id=71&postid=588

Ab jetzt also 4 mal so lange Laufzeiten. Wobei diese zuvor stetig kürzer wurden.

cyrusNGC_224
29.10.2015, 21:21
Thanks to the user matszpk we can start Today testing Android version of our application.

Application will be available soon but only for users who mark "Test application" in their options.
In Kürze wird es eine App für Android Geräte geben. Vorerst nur, wenn man Testanwendungen im Profil zulässt.

http://universeathome.pl/universe/forum_thread.php?id=84#652

JagDoc
15.12.2015, 19:08
Es gibt jetzt auch eine App für Linux-ARM:
http://universeathome.pl/universe/forum_thread.php?id=116

Sightus
26.01.2016, 01:35
Weiß zufällig jemand, ob die Windows-App auch irgendwann optimiert wird? ;)

NEO83
26.01.2016, 09:33
Wäre eine schöne Sache aber naja man kann nicht alles haben :)

cyrusNGC_224
26.01.2016, 11:31
Weiß zufällig jemand, ob die Windows-App auch irgendwann optimiert wird? ;)Ja, das wurde seitens der Entwickler schon in Angriff genommen. Aber aus irgend einem Grund bekommen die die Win App nicht an die Laufzeiten der Linux und Mac Apps angeglichen. Und das ist bei wirklich jedem Unterprojekt der Fall, bisher.
Oft liegen die Faktor 2 auseinander.
(Athlon 5350 Linux 3:46h (http://universeathome.pl/universe/result.php?resultid=8072711); Win 8.1 6:11h (http://universeathome.pl/universe/result.php?resultid=8072732))
http://universeathome.pl/universe/forum_thread.php?id=10#80

Sabroe SMC
28.01.2016, 09:26
Da hat sich Universe aber derbe ins Knie geschossen mit der neuen App. Ich lass meine Kisten aber noch drauf. Am WE wird dann gewechselt.

Ritschie
28.01.2016, 10:36
Da hat sich Universe aber derbe ins Knie geschossen mit der neuen App.Warum? Mir ist jetzt erstmal nix aufgefallen, hab aber auch nicht drauf geachtet.

Gruß,
Ritschie

Sabroe SMC
28.01.2016, 11:20
Rückstand des Transitioners >7 Stunden. Kann der noch nicht mit der neuen App umgehen? Output ist quasi auf 0 gesunken.

NEO83
28.01.2016, 11:35
8178258 3726397 27 Jan 2016, 18:40:52 UTC 28 Jan 2016, 0:58:53 UTC Fertig, Warte auf Bestätigung 21,370.06 21,168.78 ausstehend Universe BHspin v0.09
8013304 3651220 23 Jan 2016, 8:34:23 UTC 23 Jan 2016, 16:11:19 UTC Fertig und Bestätigt 26,257.72 25,881.91 333.33 Universe BHspin v0.08

also ich hab kein plan was sie geändert haben aber scheint ein wenig schneller geworden zu sein, kann auch bedingt dadurch sein das ich auch noch von Windows auf Linux gewechselt habe .... ist halt ne gute Stunde Unterschied drin, kp vllt gibt's auch noch weniger Cr aber das weiß ich nicht ... von den neuen ist noch keine bestätigt worden


8131347 3705198 27 Jan 2016, 13:27:01 UTC 28 Jan 2016, 6:24:34 UTC Fertig, Warte auf Bestätigung 10,708.42 10,488.45 ausstehend Universe X-ray sources for Android v0.07 (android_arm_pie)
8129373 3704211 27 Jan 2016, 4:41:26 UTC 28 Jan 2016, 4:08:35 UTC Fertig, Warte auf Bestätigung 4,544.37 4,499.56 ausstehend Universe X-ray sources for Android v0.05 (android_arm_pie)

Beim Handy allerings hat sich die Laufzeit mehr als verdoppelt, aber solange da die doppelten punkte raus kommen ist mir das egal :D

Ritschie
28.01.2016, 18:45
Output ist quasi auf 0 gesunken.Sabroe_SMC "Last 4h credit/h": 32.033

*noahnung*

Gruß,
Ritschie

Sabroe SMC
28.01.2016, 19:27
Hatten wohl "nur" einen derben Hänger

cyrusNGC_224
28.01.2016, 20:23
Kann einem egal sein, Solange es neue WUs gibt und fertige gemeldet werden und irgendwann mal validiert werden, ist doch alles ok.
Mich würde trotzdem mal interessieren was die neuen App Versionen bewirken.
Die Laufzeiten und Credits sind bei mir gleich (außer ARM).

Onkel_Dithmeyer
28.01.2016, 20:40
I7 unter Windows Berechnungszeit 3000 bis 4000 s länger, gleiche Credits
Die Linux-AMDs haben noch keine 0.08 valid

cyrusNGC_224
28.01.2016, 20:43
v 0.09 sind es! Ich habe schon welche unter Linux, exakt wie die Vorgänger.

Onkel_Dithmeyer
28.01.2016, 21:19
Ernsthaft? Ich hab unter Windows 0.08 ne hand voll durch und unter Linux sind sie tatsächlich von 0.07 auf 0.09 gesprungen....

NEO83
29.01.2016, 07:54
Bei Android haben sie auch eine Nummer Übersprungen, bei Linux auf dem Odroid sind sie jetzt auch schon bei 0.10 die andere hatte laut JagDoc nen Bug, allerdins hab ich von denen auch noch keine bestätigt bekommen, hatten aber ne Laufzeit zwischen 19,8k Sekunden und 26,6k Sekunden also sehr unterschiedlich .... auf dem Linux Notebook ist es allerdings wesentlich stabiler ... liegt immer so bei 21k Sekunden

habs gestern aber auch nicht mehr hinbekommen den 5350 ans laufen zu bekommen, Lubuntu wollte nicht so wie ich, Boinc lies sich nicht dazu bewegen die GPU zu erkennen kp warum ... werde da heute wohl vorerst nen Windows drauf donnern weil ich noch andere Sachen testen will mit dem .... obwohl das nicht sonderlich zufriedenstellend ist, denke werde dann doch dort das normale Ubuntu wiedder installieren .... scheint die einzige Distri zu sein mit der ich klar komme xD

cyrusNGC_224
31.01.2016, 13:13
Das Rätsel der extra langen WUs wird angegangen: http://universeathome.pl/universe/forum_thread.php?id=130

MagicEye04
31.01.2016, 13:26
10er hab ich zwar keine dabei, aber eine andere, die wohl 75.000s dauern wird auf dem FX@4GHz - der Wingman mit ARM hat gerade mal 112.000s gebraucht.

cyrusNGC_224
24.03.2016, 14:46
Nun kann man in seinen Account Einstellungen zustimmen, dass der eigene Realname in wissenschaftlichen Publikationen als Unterstützer aufgeführt wird:

Few days ago we had added option to add yours real full name in preferences.
Setting it also allow us to publish it in future science publication as research supporters.
http://universeathome.pl/universe/forum_thread.php?id=139

MagicEye04
17.04.2016, 22:57
Da warte ich sehnsüchtig, dass die 359er endlich alle sind, damit die Laufzeiten wieder sinken - aber die 360_0 und 360_1 laufen auf meinem Odroid alle mal eben 10 Stunden, also eher noch länger als die letzten 359er. Kann das sein?

cyrusNGC_224
18.04.2016, 01:35
Die sind bei mir noch nicht angeknuspert. Aber die sollten, wie immer, eigentlich deutlich kürzer laufen.

koschi
18.04.2016, 13:23
Ich hab mal alle WUs die meine C2 bisher gerechnet haben ausgewertet, die Laufzeiten je Batch findet ihr im Spoiler.
Teilweise waren es aber auch nur sehr wenige WUs, da mag die Zeit noch leicht vom Mittel abweichen.
batch runtime
universe_bh_354_16 30888
universe_bh_354_30 34739
universe_bh_355_18 32303
universe_bh_355_19 32519
universe_bh_355_23 33178
universe_bh_355_30 34548
universe_bh_356_0 22575
universe_bh_356_1 27655
universe_bh_356_2 31922
universe_bh_356_3 31172
universe_bh_356_4 24971
universe_bh_356_5 25258
universe_bh_356_6 25690
universe_bh_356_7 25508
universe_bh_356_8 25618
universe_bh_356_9 26068
universe_bh_356_11 24881
universe_bh_356_12 24969
universe_bh_356_13 25506
universe_bh_356_14 26972
universe_bh_356_15 28455
universe_bh_356_16 30949
universe_bh_356_17 31324
universe_bh_356_18 32626
universe_bh_356_19 32073
universe_bh_356_20 32048
universe_bh_356_21 32434
universe_bh_356_22 31968
universe_bh_356_23 31895
universe_bh_356_24 31845
universe_bh_356_25 31501
universe_bh_356_26 31563
universe_bh_356_27 31842
universe_bh_356_28 34534
universe_bh_356_29 32908
universe_bh_356_30 34886
universe_bh_356_31 33781
universe_bh_357_1 28101
universe_bh_357_2 32488
universe_bh_357_3 34130
universe_bh_357_4 25573
universe_bh_357_5 25407
universe_bh_357_6 25499
universe_bh_357_7 25528
universe_bh_357_8 25296
universe_bh_357_12 25407
universe_bh_357_13 26581
universe_bh_357_14 27352
universe_bh_357_15 28664
universe_bh_357_16 30813
universe_bh_357_17 31369
universe_bh_357_18 32501
universe_bh_357_19 32306
universe_bh_357_20 33021
universe_bh_357_21 32375
universe_bh_357_22 32874
universe_bh_357_23 32152
universe_bh_357_24 31715
universe_bh_357_25 31553
universe_bh_357_26 32044
universe_bh_357_27 31569
universe_bh_357_28 34950
universe_bh_357_29 32707
universe_bh_357_30 35041
universe_bh_357_31 33890
universe_bh_358_0 23456
universe_bh_358_1 28539
universe_bh_358_2 32563
universe_bh_358_3 31772
universe_bh_358_4 25881
universe_bh_358_5 25819
universe_bh_358_6 25958
universe_bh_358_7 26540
universe_bh_358_8 26550
universe_bh_358_9 26250
universe_bh_358_11 25054
universe_bh_358_12 26063
universe_bh_358_13 25859
universe_bh_358_14 27436
universe_bh_358_15 28520
universe_bh_358_16 31293
universe_bh_358_17 31696
universe_bh_358_18 32803
universe_bh_358_19 32549
universe_bh_358_20 33028
universe_bh_358_21 32795
universe_bh_358_22 32643
universe_bh_358_23 32570
universe_bh_358_24 32841
universe_bh_358_25 32316
universe_bh_358_26 32456
universe_bh_358_27 32742
universe_bh_358_28 34815
universe_bh_358_29 33604
universe_bh_358_30 35278
universe_bh_358_31 34970
universe_bh_359_0 23790
universe_bh_359_1 30673
universe_bh_359_2 32502
universe_bh_359_3 30083
universe_bh_359_4 26642
universe_bh_359_5 26903
universe_bh_359_6 27094
universe_bh_359_7 27054
universe_bh_359_8 26587
universe_bh_359_9 26751
universe_bh_359_10 99684
universe_bh_359_11 26329
universe_bh_359_12 26071
universe_bh_359_13 26462
universe_bh_359_14 28400
universe_bh_359_15 29490
universe_bh_359_16 31990
universe_bh_359_17 32327
universe_bh_359_18 32517
universe_bh_359_19 33094
universe_bh_359_20 32922
universe_bh_359_21 32757
universe_bh_359_22 33013
universe_bh_359_23 32290
universe_bh_359_24 32653
universe_bh_359_25 31645
universe_bh_359_26 32752
universe_bh_359_27 31988
universe_bh_359_28 35393
universe_bh_359_29 33457
universe_bh_359_30 35066
universe_bh_359_31 34720
universe_bh_360_0 34697

34234

Am lohnenswertesten sind die _4-_13er WUs...

MagicEye04
18.04.2016, 22:05
Jetzt habe ich gerade eine 360_6er gestartet und die ist noch langsamer, da werden es mindestens 11 Stunden.
So eine Auswertung ist ne gute Idee, gleich mal Calc füttern.
Mist, in der Übersicht fehlt ja der Task-Name, das klingt nach viel Handarbeit.
Aber der letzte bei Dir, ist ja auch ein Nuller mit hoher Laufzeit, das scheint nun also normal zu sein...

cyrusNGC_224
18.04.2016, 22:09
Tatsächlich. Jetzt wo bei mir auch die ersten durch sind. Sogar etwas langsamer als die letzten vom vorigen Batch. Sehr ungewöhnlich!

koschi
18.04.2016, 22:44
http://universeathome.pl/universe/results.php?hostid=34282&offset=0&show_names=1&state=4&appid=36
show_names=1 oder "Zeige Namen" in der ersten Spalte zeigt die WU Namen

Wenn wir noch ein paar C2 Host-IDs sammeln, dann haben wir schnell immer eine aktuelle Datenbasis. Ich hinterlege die in meinem Script, hinten fallen dann nur noch die Durchschnittszeiten pro Batch raus. Kann man dann per Gnuplot auch als Chart ausgeben...

Also her mit euren HostIDs der C2 :)

edit:
andere natürlich auch gern, aber bitte ranschreiben was es ist, könnte auch ne eigene Übersicht für XU4 o.ä. geben...

MagicEye04
18.04.2016, 22:58
Meine ID ist 34977.
Ich hab das ganze mal in ein Pivotchart gepackt, da erkennt man zumindest am Mittelwert ganz gut, wie es früher immer bis 13 niedrig blieb, 13 bis 19 stetig anstiegt und ab 19 dann recht hoch bleibt.

Auf dem E-350 ist auch nicht besser. 12 Stunden für 360_3, da ist ja der C2 wieder fixer...

Nur der FX knuspert alles in regelmäßiger Konstanz weg, die 10er sogar in Rekordzeit.

koschi
18.04.2016, 23:01
Zeig mal :)

Seemann
18.04.2016, 23:20
edit:
andere natürlich auch gern, aber bitte ranschreiben was es ist, könnte auch ne eigene Übersicht für XU4 o.ä. geben...

So, falls Interesse besteht, Host-ID 28380 ist mein Raspi-2. Müsste von der Charakteristik ja eigentlich ähnlich sein wie die anderen ARMen Kollegen - nur das der Pi halt insgesamt länger braucht.

MagicEye04
18.04.2016, 23:28
Deine Daten:
http://abload.de/thumb/pivot1eds2p.png (http://abload.de/image.php?img=pivot1eds2p.png)

Meine Daten:
http://abload.de/thumb/pivot2cpser.png (http://abload.de/image.php?img=pivot2cpser.png)

JagDoc
18.04.2016, 23:28
Also her mit euren HostIDs der C2 :)

edit:
andere natürlich auch gern, aber bitte ranschreiben was es ist, könnte auch ne eigene Übersicht für XU4 o.ä. geben...
Hier ein paar C2:
33851 ; 34478 ; 34479 ; 34485 ; 34477 ; 34483 ;

Und ein paar XU4:
25981 ; 25978 ; 25950 ; 27650 ; 28565 ; 28579 ;

koschi
18.04.2016, 23:41
Danke, für XU, RPi X etc müssen natürlich eigene Datenreihen genommen werden, sonst taugt das nicht...
Wobei dann auch over/underclocking ein Problem wäre *kopfkratz

Hier schon mal die Zeiten für die C2 hosts: 5039,34283,35111,34282,35033,34281,35169,34279,34977,33851,34478,34479,34485,34477,34 483
http://ec2-52-10-121-229.us-west-2.compute.amazonaws.com/universe_C2_runtimes
RPi 2: http://ec2-52-10-121-229.us-west-2.compute.amazonaws.com/universe_RPI2_runtimes
XU4: http://ec2-52-10-121-229.us-west-2.compute.amazonaws.com/universe_XU4_runtimes
Die erste Zahl ist die Anzahl der gerechneten WUs.
Wird halbstündlich aktualisiert, ist die Seite gerade leer findet ein Update statt, sollte nach 2-3min aber wieder klappen...

Da zb. _6_ in den Batches wohl unterschiedlich lang ist würde ich die jetzt auch pro Batch sehen wollen, ansonsten ist ja kein Trend ersichtlich...

die ersten drei WUs des 361er Batches laufen in neuen, positiven Rekordzeiten auf den C2 :-)
universe_bh_361_0 1 16301
universe_bh_361_1 2 17731

MagicEye04
13.05.2016, 21:07
Mein E-350 arbeitet nun schon seit 3 Tagen an einer universu-WU.
http://universeathome.pl/universe/workunit.php?wuid=4951610
Hängt bei 61,6%, rechnet aber noch irgendwas.
Nach ca 26 Stunden Laufzeit, wird die Laufzeit einfach auf 2 Stunden zurückgesetzt bei 61,0% Fortschritt.
Ich fürchte, die muss ich abbrechen.
Hatte Jemand sowas schon mal?

Thyler Durden
13.05.2016, 21:23
die 10er hatten auch lange Laufzeiten
universe_bh_363_10_20000_2-xxxxxx
das scheint bei den 0er jetzt auch zu sein
universe_bh_363_0_20000_3-xxxxx

ein Opteron und ein 5350 hatten bei den 0er Laufzeiten von über 2 Tagen

koschi
13.05.2016, 21:37
Mein E-350 arbeitet nun schon seit 3 Tagen an einer universu-WU.
http://universeathome.pl/universe/workunit.php?wuid=4951610
Hängt bei 61,6%, rechnet aber noch irgendwas.
Nach ca 26 Stunden Laufzeit, wird die Laufzeit einfach auf 2 Stunden zurückgesetzt bei 61,0% Fortschritt.
Ich fürchte, die muss ich abbrechen.
Hatte Jemand sowas schon mal?

Wie es der Zufall will, ist der zweite Computer an der WU einer meiner C2, lief easy durch wie die anderen universe_bh_363_0 auch. In 400 WUs schwankte die Laufzeit für die C2 nur zwischen 15923 und 17822 Sekunden, Durchschnittslaufzeit 16615 Sekunden.
Erstaunlich dass sich x86er daran so verschlucken können.

Die aktuellen _10_er sind wieder doppelt übel, laufen 141k Sekunden :o

cyrusNGC_224
13.05.2016, 21:37
Die 0 sterben neuerdings bei bestimmten CPUs. Dazu gehören die Katzen-Kerne. Sieht man ganz einfach daran, wenn der letzte Checkpoint seit mehr als 20 Min. (abhängig von der CPU Leistung) her ist. Einfach abbrechen!

MagicEye04
13.05.2016, 23:11
Das sind ja Aussichten.
Mal sehen, was die beiden 262_0er so treiben, an denen er gerade rechnet. Prognose sind 10 Stunden.
2x 263_0 waren hingegen in 3,6 Stunden durchgerechnet.

Dummerweise ist ja die Standardeinstellung von Boinc, pausierte Aufgaben aus dem Speicher zu werfen. Das habe ich gerade eben erst gefixt.

cyrusNGC_224
14.05.2016, 02:16
Das ist das allererste was ich bei einem neuen Client einstelle. Aber ja, der aktuelle 364er Batch ist wieder deutlich länger.

cyrusNGC_224
28.06.2016, 21:40
Hier noch eine kurze Zusammenfassung des Admins zum Pentathlon 2016:
http://universeathome.pl/universe/forum_thread.php?id=153#1240

Onkel_Dithmeyer
28.06.2016, 22:11
Yoyo gibt aber doofe Tipps :(

cyrusNGC_224
18.08.2016, 19:53
Ab heute gibt es auch Arbeit für die neue Universe Ultraviolet reionization App. Die sind erstmal sehr kurz und nur für Win und Linux 64 Bit x86.
http://universeathome.pl/universe/forum_thread.php?id=163

koschi
18.08.2016, 20:39
Danke für das Update!

Seemann
19.08.2016, 10:43
Ab heute gibt es auch Arbeit für die neue Universe Ultraviolet reionization App. Die sind erstmal sehr kurz und nur für Win und Linux 64 Bit x86.
http://universeathome.pl/universe/forum_thread.php?id=163

Die Windows-WUs sind alle mit Rechenfehler abgebrochen. Ideen? (Windows 10 auf Llano-APU)

In einer Linux-VM habe ich nun aber schon drei berechnen können, CPU-Laufzeit zwischen 800 bis 900 Sekunden. 33 Cr je WU.

cyrusNGC_224
19.08.2016, 13:14
Kommt auf die Fehler an. Meine laufen alle gültig durch. Hab allerdings keine einzige Win Maschine momentan auf Universe.

Seemann
19.08.2016, 13:59
Unbekannter Fehler. Immerhin bin ich nicht der einzige. Im U@H-Forum gibt es einen passenden Thread: http://universeathome.pl/universe/forum_thread.php?id=165

MagicEye04
19.08.2016, 20:29
Die Windows-WUs sind alle mit Rechenfehler abgebrochen. Ideen? (Windows 10 auf Llano-APU)

In einer Linux-VM habe ich nun aber schon drei berechnen können, CPU-Laufzeit zwischen 800 bis 900 Sekunden. 33 Cr je WU.
Mein E-350 hat schon die ersten ultras erfolgreich berechnet, auch wenn es gut 1500s dauert. Aber mit Ubuntu...

Bei WCG-TB hatte ich ja auch das Problem, dass alle WUs auf Windows7+FX-8350 geschrottet wurden und die Beitreiber nicht wußten, wieso. Mit Linux ging es, mit Nicht-FX-CPUs auch. Soll manchmal vorkommen.

MagicEye04
20.08.2016, 23:45
Ab heute gibt es auch Arbeit für die neue Universe Ultraviolet reionization App. Die sind erstmal sehr kurz und nur für Win und Linux 64 Bit x86.
http://universeathome.pl/universe/forum_thread.php?id=163
Mein C2 hat inzwischen auch welche bekommen.

Das ist ja aktuell ein wahres Feuerwerk an neuen Apps/Sub-Projekten.

cyrusNGC_224
21.08.2016, 00:00
Das scheint nur so. BHspin2 ist eigentlich nur eine Kopie von der 1. ULX wird erst später, wenn es genügend Daten, auch von Ergebnissen anderer Projekte, gibt, anlaufen.
Und de neuen UUr sind erst mal nur testweise - deswegen auch so kurze Laufzeiten.
Übrigens hab ich bei allen Subprojekten (außer ULX) diese immens langen Laufzeiten bei den 10er WU Serien festgestellt.

MagicEye04
21.08.2016, 10:41
Im Moment herrscht wieder Ebbe bei UUr.

Sabroe SMC
21.08.2016, 11:37
Mein Intel X5970 hat alle UUR geschrottet....
zumindest die die ich ihm erlaubt habe zu bekommen.

cyrusNGC_224
21.08.2016, 12:33
Wenn der mit Win läuft, dann geht es nicht nur Dir so: http://universeathome.pl/universe/forum_thread.php?id=165

MagicEye04
21.08.2016, 12:57
Vielleicht werden die deshalb auch nicht mehr verteilt.
Aber wenigstens für Linux könnten sie ja welche rausrücken.

Sabroe SMC
21.08.2016, 13:31
Jo, mit server 2008

cyrusNGC_224
21.08.2016, 13:53
Doch, neue WUs kommen gerade rein. Ich denke, die werden da schon schauen, was da nicht rund läuft. Wird sicher schnell eine fehlerbehobene App geben.

MagicEye04
21.08.2016, 14:00
Stimmt, jetzt wo ich mal schnell ein paar Zikas eingelagert habe, kommen auch wieder die ultras.

Onkel_Dithmeyer
22.08.2016, 11:33
Was bedeutet diese Meldung?

22.08.2016 10:33:17 | Universe@Home | Tasks are committed to other platforms

MagicEye04
22.08.2016, 20:01
Der Server hat Angst, dass Du die WUs dithmeyerst und gibt die lieber anderen Crunchern. :D

WindHund
22.08.2016, 20:20
Was bedeutet diese Meldung?
Plattform müsste das OS sein, die Arbeit (WUs) ist auf ein OS beschränkt oder deine Einstellungen auf der Projektseite lassen diese nicht zu.

Ich kling mich später auch mal rein, als "error-search Engine" :)

€dit: Hat jemand erfahrung mit Lubuntu in der VM Workstation im RAM-Laufwerk zu installieren unter Windows 10?

cyrusNGC_224
23.08.2016, 00:36
Ich bekomme jedenfalls seit fast einem Tag keine WUzen mehr. Vielleicht möchte der Server die restlichen Wus dann auch nicht unbedingt gedithmyert haben.

MLMapster
23.08.2016, 13:51
Ich laufe auch leer, hab mitbekommen, dass es wieder eine neue Sorte gibt: Universe Ultraviolet reionization, aber eben keine neue Arbeit, obwohl vorhanden :(

joe carnivore
23.08.2016, 14:48
Ich laufe auch leer, hab mitbekommen, dass es wieder eine neue Sorte gibt: Universe Ultraviolet reionization, aber eben keine neue Arbeit, obwohl vorhanden :(

bei mir gehen die jetzt.

cyrusNGC_224
24.08.2016, 01:34
Ja, der Server verteilt wieder.

Phlox
25.08.2016, 10:28
Hmm hat vielleicht jemand einen Raspberry 3 am laufen? Ich bekommen keine WUs obwohl das doch eigentlich out of the box gehen müsste ?


24-Aug-2016 04:42:05 [Universe@Home] Sending scheduler request: To fetch work.
24-Aug-2016 04:42:05 [Universe@Home] Requesting new tasks for CPU
24-Aug-2016 04:42:08 [Universe@Home] Scheduler request completed: got 0 new tasks
24-Aug-2016 04:42:08 [Universe@Home] No tasks sent
24-Aug-2016 10:08:54 [Universe@Home] Sending scheduler request: To fetch work.
24-Aug-2016 10:08:54 [Universe@Home] Requesting new tasks for CPU
24-Aug-2016 10:08:57 [Universe@Home] Scheduler request completed: got 0 new tasks
24-Aug-2016 10:08:57 [Universe@Home] No tasks sent
25-Aug-2016 02:07:42 [Universe@Home] Sending scheduler request: To fetch work.
25-Aug-2016 02:07:42 [Universe@Home] Requesting new tasks for CPU
25-Aug-2016 02:07:45 [Universe@Home] Scheduler request completed: got 0 new tasks
25-Aug-2016 02:07:45 [Universe@Home] No tasks sent

cyrusNGC_224
25.08.2016, 11:22
Ging das auf dem schon mal?

Phlox
25.08.2016, 12:14
Nein ging noch nie, habe erst gerade einen Geschenkt bekommen. Ich dachte ein bissel mit rechnen kann nicht schaden :D
Meine Vermutung war jetzt das es einfach so "out of the box" geht, oder muss ich noch irgendwas machen?
Drauf ist das neuste Raspbian.

Screenfetch:

.',;:cc;,'. .,;::c:,,. root@raspberrypi1
,ooolcloooo: 'oooooccloo: OS: Unknown 8.0 jessie
.looooc;;:ol :oc;;:ooooo' Kernel: armv7l Linux 4.4.11-v7+
;oooooo: ,ooooooc. Uptime: 2d 15h 34m
.,:;'. .;:;'. Packages: 433
.... ..'''''. .... Shell: 13849
.''. ..'''''. ..''. CPU: ARMv7 rev 4 (v7l) @ 1.2GHz
.. ..... ..... .. RAM: 66MB / 925MB
. .''''''' .''''''. .
.'' .'''''''' .'''''''. ''.
''' ''''''' .'''''' '''
.' ........... ... .'.
.... ''''''''. .''.
'''''. ''''''''. .'''''
'''''. .'''''. .'''''.
..''. . .''..
.'''''''
......

koschi
25.08.2016, 12:31
Gerade meinem RPi3 mal Universe erlaubt, es hat einen Augenblick gedauert, dann kam jeweils eine BHspin2 WU durch, jetzt habe ich gewaltige 3 Universe WUs auf dem Pi, woohoo ;-)
Geht out of the box, einfach weiter probieren...

Phlox
25.08.2016, 13:58
So pi neugestartet nichts, Boinc projekt entfernt und neu hinzugefügt und ich bekomme WUs :)

MLMapster
25.08.2016, 15:00
Also bei mir kommt nix an, mal bei 3 Maschinen das Projekt rausgekantet und wieder eingefügt, keine Besserung *motz*

WindHund
25.08.2016, 21:42
Also bei mir kommt nix an, mal bei 3 Maschinen das Projekt rausgekantet und wieder eingefügt, keine Besserung *motz*

Hier auch nichts, weder Win10 noch Lubuntu: http://abload.de/img/lubuntuvm_workstation2drqt.png

Ok Asteroids laufen...

cyrusNGC_224
02.10.2016, 13:40
Es ist so weit, die ersten Test der vorerst AMD OpenCL App laufen bald an.
Bisher wurde nur ein Batch für den Servertest verarbeitet


We are preparing GPU application for OpenCL 1.1 or later for AMD Radeon HD 7000 (GCN 1.0) and later graphics cards.
http://universeathome.pl/universe/forum_thread.php?id=117&postid=1585

Wenn das dann funktioniert, wird eine GPU WU 50 bis 100 mal mehr Ergebnisdaten verursachen als eine CPU WU. Weswegen schließlich die Server HW aufgestockt werden würde.

Now I'm ready to start tests of real application as soon as we finish testing version of it with matszpk (I hope about end of next week).
Next tests will be more difficult and problematic as our application is quite complicated and also will generate more results data then current CPU one. At the moment I think it will be 50 to 100 times more data in results file per WU. To comply with them we plan (finally) move database to SSD disks during next month and this is planned time to release production GPU application (if we don't get unexpected issues with it).
http://universeathome.pl/universe/forum_thread.php?id=117&postid=1594

MagicEye04
02.10.2016, 13:55
Hm, nix für meine HD6310.

cyrusNGC_224
02.10.2016, 14:06
Der erste Batch ist schon durch (hab ich selbst verpasst). Der nächste mit der "echten" App soll jetzt irgendwann Ende der kommenden Woche starten.
Und erst mal nur ab AMD GCN (also HD 7000 Serie).

Onkel_Dithmeyer
02.10.2016, 14:30
Ich wollte doch kein GPU mehr crunchen...

herby44
08.10.2016, 00:30
Da bin ich mal gespannt ob das so schnell was wird, bis dahin rechnen bei mir ein paar Odroids Universe.

cyrusNGC_224
12.10.2016, 08:50
Noch keine Arbeit, aber dafür Lob vom Chef für JagDock:

We already have added Odroid XU4 to our list as we have one thank to our Volunteer from Germany :)
Really, creating applicationa for all types of ARM computers will be not be possible without support from JagDoc :)
http://universeathome.pl/universe/forum_thread.php?id=117&postid=1631

Übrigens hat keiner von den Entwicklern eine NVidia Karte zum Testen :)

NEO83
12.10.2016, 14:11
JagDoc der ARM suchti :D

Eigentlich mit der weile ARM 64bit Unterstützung bei einem Projekt oder laufen die alle noch auf 32bit?

JagDoc
12.10.2016, 20:40
JagDoc der ARM suchti :D

Eigentlich mit der weile ARM 64bit Unterstützung bei einem Projekt oder laufen die alle noch auf 32bit?
Ist nur 32bit.
Es sind zu wenig ARM 64bit beim Projekt aktiv.

NEO83
13.10.2016, 16:38
ist ja halt auch fraglich wieviel das denn wirklich bringt, wenn es überhaupt wirklich Performance bringt :)

herby44
13.10.2016, 20:48
Früher oder später schon, vorallem wenn die 3 Gb Arbeitsspercher limitierung bei 32 Bit auch hier greift, Handy's mit 6 Gb gib es ja schon.

MagicEye04
15.01.2017, 20:05
Kann es sein, dass die Batches nun deutlich größer sind und dass statt oder zusätzlich zu den 10ern auch andere WUs sehr lange laufen?
Es sind ja ohnhin schon gut 40.000s auf meinem C2, aber eine _50_30_ WUs dauert bei mir gut 2-3x so lange.
Bei anderen sind es _42_31_ bzw. _42_32_ WUs, die so lange brauchen.
So richtig seh ich da noch kein Muster.

JagDoc
15.01.2017, 20:25
So wie es ausschaut laufen die 31er, 32er und 33er auch 2 -3 x so lange.

LordNord
29.03.2017, 14:49
Dumme Frage: Hat Linux immernoch so viel Vorsprung oder kann man U@h auch unter Windows ohne schlechtes Gewissen rechnen?

MagicEye04
03.04.2017, 23:44
Aktuell will Universe bei mir gar nicht mehr rennen auf dem C2.
Als ich gestern Abend heim kam, liefen die 4 WUs seit 48 Stunden und waren bei 100%. Also neu gestartet.
Heute sind sie bei 99,9% nach 22 Stunden. Da ich bei Benutzung des Rechners die Berechnung pausieren lasse, haben die WUs sich einfach nach der Pause wieder selbst bei Null anfangen lassen und die Rechenzeit war verschwunden.
Geht das auch Anderen so?

Evtl. liegt es auch an der SD-Card mit Ubuntu, die hatte ich eine Weile nicht drin, weil ich Android brauchte.
Nach dem ersten Booten passierte gleich mal gar nix, beim 2. Booten kamen massenweise Meldungen ala "xy not found" und erst der 3. Bootvorgang funktionierte.
Aber Universe will eben nicht mehr so recht.

PS: Die eine oder andere WU scheint auch bei Anderen massive Fehler zu erzeugen: http://universeathome.pl/universe/workunit.php?wuid=9447894
Da muss ich wohl mal im Forum von Universe schauen.

JagDoc
04.04.2017, 08:03
Die Universe BHspin v2 v0.02 app hat nen Bug, die WUs am Besten alle abbrechen.
Die WUs mit der v0.01 laufen.

MagicEye04
04.04.2017, 23:41
Die V2 0.02 habe ich alle abgebrochen.
Aber die V2 0.01 laufen auch so um die 20-30 Stunden, die sind ja nicht viel besser. Werden zwar fertig, aber dass quasi alle aus dem Batch so lange laufen, ist mir neu.
Da keine neuen WUs verfügbar sind, gehe ich davon aus, dass auch die v2 0.01 eine Macke haben.

MagicEye04
05.04.2017, 19:43
Na toll. Die abgebrochenen WUs liefen im Hintergrund alle noch fleißig weiter.
Ich hatte mich gewundert, weil die CPU-Zeit nur 1/3 der vergangenen Zeit war und im Taskmanager waren dann gut 10 WUs aktiv, jede mit ca. 10% CPU-Last.
Ich hoffe, nach einem Neustart sind die weg, killen ließen sie sich jedenfalls nicht.

cyrusNGC_224
26.12.2017, 12:11
Wir haben (als 2. Team) 800 Mio. geknackt!
Momentan RAC-gleiche Polen hängen noch 275 Mio. nach.

LordNord
26.12.2017, 13:04
Liest sich sehr gut, leider habe ich keine Dauermaschiene mit Linux und mit einenem drittel weniger Power zu rechnen ist auch irgendwie so halbgeil.

Thyler Durden
27.12.2017, 00:33
irgendwie spuckt Universe auch relativ viel Punkte raus...

observers_0815
09.02.2018, 10:04
Aktuell ist mir Linux oder Windows wurscht. Es gibt eh nichts zu tun, wie es scheint.

09.02.2018 09:01:34 | Universe@Home | Requesting new tasks for CPU
09.02.2018 09:01:35 | Universe@Home | Scheduler request completed: got 0 new tasks
09.02.2018 09:01:35 | Universe@Home | Project has no tasks available

MagicEye04
09.02.2018, 10:45
Ja, siehe https://universeathome.pl/universe/forum_thread.php?id=309&postid=2584#2584

Computing status (https://universeathome.pl/universe/server_status.php)
Work Tasks ready to send: 2

observers_0815
09.02.2018, 10:49
Das erklärt die Lage.
Für eine einzelne WU den PC laufen lassen, lohnt nicht. Ich rechne die zu Ende und wenn bis danhin nichts eintrifft, fährt er wieder runter.
Eigentlich wollte ich etwas vorrechnen für die Challenge.

MagicEye04
09.02.2018, 10:57
Die Challenge wird wohl ins Wasser fallen. Ich wollte auch schon seit einer Woche daran rechnen. :/

joe carnivore
09.02.2018, 11:19
Ich habe gestern 3 Resends bekommen. Und wenn man andere Teilnehmer sieht ,gibt es nur Resends.

Und das Team hat welche ,werden nur berechnet. Vielleicht bleiben noch ein paar bis Start über?
Ob wohl gestern gabs noch ~9500 WU ,jetzt 8059 .

observers_0815
09.02.2018, 11:42
Meine WU muss auch so eine sein, 1x fertig, 1x Berechnungsfehler, 1x Zeitüberschreitung, jetzt bei mir. *kopfkratz*

MagicEye04
09.02.2018, 11:54
Vor einer Woche waren es noch über 20.000 in Arbeit. Da geht jeden Tag ein Tausender weg, ein paar Wenige sind dann Resends.

observers_0815
09.02.2018, 17:22
666,67 Credits für meine erste Universe WU. Und ich habe 5 neue gekriegt (alles solche wie schon gehabt).

joe carnivore
09.02.2018, 17:27
Credits gibt's immer so.
10 Stück hab ich auf Odroid Linux.
Der Rest der PC hat andere Arbeit. Vielleicht kommen noch welche und zum anhalten ist auch noch Zeit.

MagicEye04
09.02.2018, 18:26
Wenn der Projektbetreiber nett ist, schickt er exakt zum Start der Challenge die neuen WUs los.
Dann kann niemand bunkern, alle hätten die gleichen Chancen. :)

observers_0815
13.02.2018, 13:48
Ich wollte den Teufel nicht an die Wand malen, aber nett ist anders. Ich hatte zwei WU und die sind durch.
Na, habe ich Zeit, die VM einzurichten.

MagicEye04
13.02.2018, 20:45
2 angeknusperte habe ich noch auf dem C2, muss nur mal die Karte auf Linux zurückwechseln.

Immerhin hat Jagdog um die 90% aller verfügbaren WUs gerechnet und abgeliefert. :D

JagDoc
13.02.2018, 20:49
Ich hab noch ca 230 WUs in Arbeit und es kommen immer wieder resent WUs nach....

observers_0815
14.02.2018, 14:54
Bei mir haben zwei für P14 gereicht, es sieht auch nicht aus, als ob ich noch eine kriege.
Ich habe hier im Forum eine Update.bat gefunden und probiere die jetzt aus, hat aber bisher auch noch nichts gebracht.

MagicEye04
14.02.2018, 22:32
Ich update den C2 seit gestern Abend im Minutentakt. Es ist genau eine WU dabei rausgekommen.
Mit 3 gültigen WUs kann man schon um Einlass in die Top10 bitten. irre.
So lange wir deutlich führen, sehe ich jetzt aber keine Notwendigkeit, auch auf den größeren Rechnern sinnlos den Server mit Anfragen zu belasten. Dann feile ich eben weiter Diamanten bei WCG.

TAL9000
08.04.2018, 14:25
Intressante Fehler beim hinzufügen des Projekts per BAM:

So 08 Apr 2018 12:31:27 CEST | http://universeathome.pl/universe/ | Requesting new tasks for CPU
So 08 Apr 2018 12:31:29 CEST | Universe@Home | Scheduler request completed: got 0 new tasks
So 08 Apr 2018 12:31:29 CEST | Universe@Home | You are attached to this project twice. Please remove projects named Universe@Home, then add https://universeathome.pl/universe/
So 08 Apr 2018 12:31:29 CEST | Universe@Home | Already attached to a project named Universe@Home (possibly with wrong URL)
So 08 Apr 2018 12:31:29 CEST | Universe@Home | Consider detaching this project, then trying again
So 08 Apr 2018 12:31:29 CEST | Universe@Home | Project has no tasks available
habe es dann per BAM gelöscht...

MagicEye04
08.04.2018, 14:43
Gibts etwa wieder dauerhaft Arbeit?

TAL9000
08.04.2018, 14:52
ggf. ab 30.04. 02:00 MESZ... -> Link (http://www.planet3dnow.de/vbulletin/threads/430660-9-Pentathlon-2018)

Thyler Durden
08.04.2018, 15:35
ich denke und hoffe schon.
Vor dem letzten Penta als Universe gesetzt war, hatten die polnischen Jungs & Mädels die Serverhardware aufgerüstet, um die Kraft des schwarzen Loches der Penta WU Versorgung stand zu halten. Was Sie auch super geschafft hatten.

sompe
10.04.2018, 21:59
Ich hatte heute wieder neue WUs bekommen. :)

MagicEye04
10.04.2018, 23:07
Mein Ryzen wurde sogar unbeabsichtigt überschwemmt. Das Projekt war nicht auf no new work, was aber nicht auffiel, weil ja seit Wochen eh nichts mehr kam.
Und heute guck ich nach, hunderte WUs warten auf Berechnung.

Laufen die Black Holes auch auf ARM? Mein C2 rechnet ja mit Android bei WCG, für Universe müsste ich erst wieder Ubuntu booten und nachschauen.

JagDoc
10.04.2018, 23:16
Laufen die Black Holes auch auf ARM? Mein C2 rechnet ja mit Android bei WCG, für Universe müsste ich erst wieder Ubuntu booten und nachschauen.
Nein. Auf den C2 laufen die nicht.

observers_0815
14.06.2018, 11:19
Hallo, ich habe mal eine Laufzeitenfrage:
Wo im Feld siedeln sich Laufzeiten von 16.700 bis 18.900s an?
Ich vermute, dass das einigermaßen schlechte Werte sind.

(Hintergrund:
Der fragliche PC ist ein Phenom II 920 mit 8GB DDR2 bestückt. Hier steht die Frage, wozu er überhaupt noch taugt, weil crunchen sollte man damit sicher nicht mehr.
CPUID-HW sagt unter Volllast was von Package 132Watt. Das erscheint glaubwürdig, ich werde aber nochmal ein Schätzeisen in die Leiung schalten.)

--- Update ---

Ergänzung:
Das Schätzeisen sagt Volllast 130-132Watt.

Schlimmer ist die Idle-Last von 65-70Watt. :-/
Und da ist nur ein einziges Laufwerk dran, eine Notebookplatte für das OS!
Das mag noch taugen für jemand, der nur mal einen Brief schreiben will und Mails abrufen. Die Komponenten kommen für lau in die Bucht.

MagicEye04
14.06.2018, 21:33
Mein Odroid macht aktuell 20.000-40.000s - bei 4,5W.
Und der Athlon5350 20.000s bei 25W

Meinen PhenomII bekam ich im idle auf ca. 50W, mit einem sparsamen Nforce-Mainboard.
Vollast waren mit 2,5GHz knapp unter 100W und mit 3GHz 120W.
Da liegt mein Ryzen leider in beiden Fällen verbrauchsmäßig deutlich darunter und bietet die 10fache Leistung.
Darum setze ich meinen PhenomII eigentlich nur noch als gelegentlichen HTPC und beim Pentatlon ein, der ist einfach zu ineffizient.
Für Universe sind irgendwie die Low-End-CPUs mit wenig Spezialfunktionen sehr effizient.
Ich denke mal, für den PhenomII sind andere Projekte besser geeignet.

Wenn ich wieder mehr als 1x im Monat Filme vom HTPC gucke, wird der PhenomII sicher auch rausfliegen.

observers_0815
15.06.2018, 19:54
Ja gut, bestätigt mir nur, was ich schon vermutet habe. Ist eben Steinkohle, das Ding - zumindest, was das Crunchen angeht.
Wobei das Board (Asus M3A78-EM) auch seinen Teil verbraucht. Habe mal einen Sempron 3400+ (ein kern :D ) eingesetzt, Idle immer noch >60 Watt.

MagicEye04
15.06.2018, 23:36
Ja, das ist heftig.
Mit einem Sempron habe ich bei Nutzung der Onboard-Grafik und nur mit der Intel-SSD so um die 20W gehabt im idle. Also es ging damals auch durchaus sparsam. ;)

MagicEye04
22.07.2018, 16:53
Ich finds gerade nicht mehr wieder - aber ich meine mich entsinnen zu können, dass Irgendwer mal ein Script gepostet hatte, um die extrem lange laufenden WUs automatisch abzubrechen?
Also wenn nach 1 Stunde erst 1% erreicht ist oder so, dann weg damit.
Aktuell scheint jede 2. WU auf dem Odroid über einen Tag zu brauchen, das ist Mist. :(

JagDoc
22.07.2018, 17:32
Ich finds gerade nicht mehr wieder - aber ich meine mich entsinnen zu können, dass Irgendwer mal ein Script gepostet hatte, um die extrem lange laufenden WUs automatisch abzubrechen?
Also wenn nach 1 Stunde erst 1% erreicht ist oder so, dann weg damit.
Aktuell scheint jede 2. WU auf dem Odroid über einen Tag zu brauchen, das ist Mist. :(
Auf dem C2 läuft die Universe BHspin v2 v0.06 (64bit) viel langsamer als die v0.07 (32bit).
https://universeathome.pl/universe/forum_thread.php?id=346&postid=2989#2989

MagicEye04
22.07.2018, 18:30
OK, dann hoffe ich mal, dass keine 0.06er mehr reinkommen, die vorhandenen habe ich nun alle abgebrochen. Die neuesten scheinen aber alle 0.07 zu sein.

Das mit dem Script interessiert mich aber unabhängig davon trotzdem noch, denn irgendwelche Gründe gibt es ja immer, warum einige WUs deutlich länger brauchen und von denen trenne ich mich lieber rechtzeitig.
Denn selbst mit der 0.07 habe ich gerade eine WU, die nach 4 Stunden bei 75% ist - eine andere ist nach 7 Stunden gerade mal bei 53%. Am Ende stehen da 6h und 14h - und beides sind 0.07

koschi
27.06.2019, 00:43
Falls mal jemand nicht dauerhaft auf seine Geräte schaut.
Universe hat aktuell wegen Serverupgrade die Erzeugung neuer WUs eingestellt.

LordNord
27.06.2019, 01:24
Danke

Joels
25.08.2019, 23:19
Mahlzeit,
nachdem neue WUs eine 2- bis 3- fach längere Laufzeit besitzen als Bisherige, ist es im Forum
https://universeathome.pl/universe/forum_thread.php?id=448
zu einer Diskussion darüber gekommen, warum dann nicht auch die vergebenen Credits entsprechend angepaßt werden.
Gruss

Thyler Durden
25.08.2019, 23:35
Krzysztof 'krzyszp' Piszczek:
"I think, we give too much credits recently. Seriously, at the time when I set credit it takes 6 hours to finish on single core on i7 CPU.
Recently, some tasks finish in 18 minutes on same machine.

I really don't like to be a person, who make "inflation" on BOINC projects..."

Das sehe ich genau so, Punkte sind nicht Alles.
Dann dauert es noch ein bischen länger zu meinen 100Mio

koschi
05.09.2019, 23:25
Ich bekam Mittwoch/Donnerstag neben BHspin2 viele ULX WUs. Die Laufzeit ist ähnlich bis kürzer als bei BHspin2 (dafür stabiler), es gibt jedoch 1333 Credit pro WU...
Meine Wingmen mit Intel CPU rechnen da idR. 2-3x so lang dran wie ich. Zufall, oder Glück gehabt? Ich nehm das gern mit :-)
Leider sind aktuell schon alle WUs in progress, keine ULX mehr verfügbar auf dem Server :-(

JagDoc
06.09.2019, 07:54
Für die BHspin2 _284_ gibt es auch 1333 Credit.

thorsam
07.09.2019, 23:38
Gibt es eigentlich eine optimierte App?
TAL9000 und ich sind mit dem Cluster jetzt mit 116 Kernen dabei. Dafür kommt mir der Output ein bisschen niedrig vor?

Über 90 WUs wurden mit Berechnungsfehler abgebrochen. Die meisten davon auf dem Naples-System.
Gibt es hin und wieder Serien von defekten WUs?

LordNord
08.09.2019, 01:09
Optimierte Anwendungen kenne ich keine, aber Universe läuft unter Linux besser als unter Windows.

koschi
08.09.2019, 02:10
Nach wenigen Tagen die ich jetzt wieder rechne, stehen bei mir Valid (1267) vs Invalid (0) & Error (2) in der Auswertung. Passt also.
Die ersten beiden Tage ging aber viel ins Pending, da dachte ich auch erst das liefe ein bissl unrund...
Die Clusterknoten sind aktuell versteckt, viel lässt sich also derzeit kaum sagen.

thorsam
08.09.2019, 06:00
Moin Jungs. Ich sitze gerade auf der Fähre von Gozo nach Malta.

Rechner laufen alle mit Linux.

Zugangsdaten vom Account sind die gleichen wie bei den anderen Projekten auch. Falls du darüber gucken möchtest.

koschi
08.09.2019, 21:57
Hmm, joa, bis auf den EPIC sind die Laufzeiten bei den anderen Hosts gefühlt doppelt so lang wie bei meinem 3.2 GHz R7. Auch einige Langläufer mit 10.000-20.000 Sekunden sind darunter. Die sind beim EPIC dann oft auch langsamer als Intel unter dem an sich langsameren Windows. Erklärungen habe ich dafür nicht, meine Ergebnisse liegen auch dichter beieinander.

TAL9000
21.10.2019, 14:38
Kann es sein das Universe kein älteres Linux mehr unterstützt?
Lubuntu 14.04 3.13.0-170-generic ldd (Ubuntu EGLIBC 2.19-0ubuntu6.15) 2.19

<core_client_version>7.2.42</core_client_version>
<![CDATA[
<message>
process exited with code 127 (0x7f, -129)
</message>
<stderr_txt>
../../projects/universeathome.pl_universe/BHspin2_19_x86_64-pc-linux-gnu: error while loading shared libraries: libmvec.so.1: cannot open shared object file: No such file or directory

</stderr_txt>
]]>


<core_client_version>7.2.42</core_client_version>
<![CDATA[
<message>
process exited with code 1 (0x1, -255)
</message>
<stderr_txt>
../../projects/universeathome.pl_universe/BHDB_8_x86_64-pc-linux-gnu: /usr/lib/x86_64-linux-gnu/libstdc++.so.6: version `GLIBCXX_3.4.20' not found (required by ../../projects/universeathome.pl_universe/BHDB_8_x86_64-pc-linux-gnu)
../../projects/universeathome.pl_universe/BHDB_8_x86_64-pc-linux-gnu: /usr/lib/x86_64-linux-gnu/libstdc++.so.6: version `CXXABI_1.3.9' not found (required by ../../projects/universeathome.pl_universe/BHDB_8_x86_64-pc-linux-gnu)
../../projects/universeathome.pl_universe/BHDB_8_x86_64-pc-linux-gnu: /usr/lib/x86_64-linux-gnu/libstdc++.so.6: version `GLIBCXX_3.4.21' not found (required by ../../projects/universeathome.pl_universe/BHDB_8_x86_64-pc-linux-gnu)

</stderr_txt>
]]>

Upgrade auf 16.04/18.04 wegen fglrx/OpenCL Treiber Problematik nicht möglich :(

EDIT: Workaroundtest

<app_info>
<app>
<name>BHspin2</name>
<user_friendly_name>Universe BHspin v2</user_friendly_name>
</app>
<file_info>
<name>BHspin2_16_x86_64-pc-linux-gnu</name>
<executable/>
</file_info>
<app_version>
<app_name>BHspin2</app_name>
<version_num>16</version_num>
<platform>x86_64-pc-linux-gnu</platform>
<avg_ncpus>1.00</avg_ncpus>
<max_ncpus>1.00</max_ncpus>
<flops>3000000000</flops>
<file_ref>
<file_name>BHspin2_16_x86_64-pc-linux-gnu</file_name>
<main_program/>
</file_ref>
</app_version>
<app>
<name>BHDB</name>
<user_friendly_name>Black Hole Database</user_friendly_name>
</app>
<file_info>
<name>BHDB_6_x86_64-pc-linux-gnu</name>
<executable/>
</file_info>
<app_version>
<app_name>BHDB</app_name>
<version_num>6</version_num>
<platform>x86_64-pc-linux-gnu</platform>
<avg_ncpus>1.00</avg_ncpus>
<max_ncpus>1.00</max_ncpus>
<flops>1000000000</flops>
<file_ref>
<file_name>BHDB_6_x86_64-pc-linux-gnu</file_name>
<main_program/>
</file_ref>
</app_version>
</app_info>

cyrusNGC_224
25.10.2019, 22:07
Ja, leider seit dem letzten App-Upgrade.
Die Server hab ich deshalb hochgezogen, aber wegen OpenCL & Tahiti kann ich den Hauptrechner auch nicht mehr damit bedienen.

Joels
30.12.2019, 23:17
Mahlzeit,
seit einiger Zeit bedarf es der ausdrücklichen Zustimmung in den persönlichen Einstellungen zur Weitergabe der Ergebnisse an einen externen Auswerter, wie z.Bsp. boincstats. Ferner gab es gewisse Abstimmungsprobleme zwischen boincstats und dem Projekt, sodass die Datenweitergabe stockte: das gehört nun abba der Vergangenheit an und heute wurden mir die fehlenden Credits gut geschrieben.
Oich Allen einen guten Rutsch wünscht

Johannes Elsner

observers_0815
27.01.2020, 17:32
Keine Ahnung, wie, aber ich habe es bei Universe in die Topp100 geschafft. Mit dem S5Mini.

sompe
27.01.2020, 21:20
Glückwunsch! *party*

observers_0815
09.02.2020, 11:50
Congratulations observers_0815! You earned Mars badge from project Universe