Allgemeiner Plauderchat über das Thema DC Part II

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Hi
habt ihr für VGTU mal parr zahlen in sec.? mein 1800x liegt bei 12500-136000.
dafür bekamen sie 150-164 Punkt
lg

So kurze hatte ich noch Keine.
Der 1700@3,6GHz produziert zwischen 25.000 und 28.000s mit 300-400cr.

Ich habe jetzt auf Sommerbetrieb umgestellt, nur noch 3,2GHz@1,0V, spart immerhin um die 35W.
Ohne den Lüfterlärm hör ich jetzt auch wieder die Vögel im Garten zwitschern. :)

Der Nvidia-Karte würde ich gern auch noch sowas verpassen. Aber unter Ubuntu dürfte eine Senkung von Powerlimit und Temperaturtarget ein Ding der Unmöglichkeit sein. Ich kann zwar im Treiber die Lüfterdrehzahl fixieren, aber das hilft nur bedingt.
 
Woran erkennt ein Boinc Server den sich anmeldenden Rechner?
Sprich wenn ich eine weitere VM (Debian Image von koschi) zum Bunkern anmelden möchte, sagt der Server es ist der selbe Rechner und senden bestenfalls die WUs nochmal, schlimmstenfalls markiert er die WUs als aufgegeben und sie werden neu verteilt und sind für VM1 wertlos geworden inklusive Rechenzeit...
hostname/RAM Menge/MAC Adressen ändern hat nicht gereicht.
 
hi Tal
ändere mal die mac Adresse der vm immer sonst sind das clone und das funktioniert nicht.
andere Projekte senden dir dann die selbe arbeit nochmal ;)
lg
 
Müsste es nicht auch reichen mit einem anderen Account zu rechnen?
 
Nachtrag
VGTU sollte man auf ryzen immer mit HT rechnen zwar sind die Laufzeiten dann natürlich länger aber die Punkte Ausbeute ist deutlich höher.
Link

lg
 
Also bis jetzt hatte ich damit nie Probleme und die vm wurde immer als einges System gewertet hab bis jetzt aber immer was Richtung Ubuntu bzw mint benutzt
 
probiere es bei Gelegenheit mal mit dem Clusteraccount, zum Projekt sehe meinen anderen Thread
 
Bei VGTU bekomme ich eine WU nun schon seit 2 Tagen nicht hochgeladen.

So 08 Apr 2018 13:13:54 CEST | VGTU project@Home | <![CDATA[Started upload of vgtuApp_GrillageOpt_1522825737_23025_0_r11776796090]]>
So 08 Apr 2018 13:13:56 CEST | VGTU project@Home | <![CDATA[[error] Error reported by file upload server: can't open file]]>
So 08 Apr 2018 13:13:56 CEST | VGTU project@Home | <![CDATA[Temporarily failed upload of vgtuApp_GrillageOpt_1522825737_23025_0_r11776796090: transient upload error]]>

Am Server liegt es definitiv nicht, ich habe gerade mal kurz den Netzwerkzugriff deaktivier, live zugeschaut, wie eine andere WU fertig wurde, dann Netzwerkzugriff wieder aktiviert und beide zusammen wurden zum Hochladen geschickt - die Problem-WU will einfach nicht.
Die Datei existiert auf dem Laufwerk, ich kann reingucken. Sie will aber einfach nicht mehr nach Hause.

Ansonsten habe ich festgestellt, dass bei nur noch 3,2GHz zwar die Laufzeiten um ca. 10-15% zunehmen, aber dafür gibts nun gut 20% mehr credits. Das verstehe mal Einer...
 
Woran erkennt ein Boinc Server den sich anmeldenden Rechner?
Sprich wenn ich eine weitere VM (Debian Image von koschi) zum Bunkern anmelden möchte, sagt der Server es ist der selbe Rechner und senden bestenfalls die WUs nochmal, schlimmstenfalls markiert er die WUs als aufgegeben und sie werden neu verteilt und sind für VM1 wertlos geworden inklusive Rechenzeit...
hostname/RAM Menge/MAC Adressen ändern hat nicht gereicht.

"boinc.berkeley.edu/wiki/Host_identification_and_merging"

(Ich darf mangels genug Beiträge noch keine richtigen Links posten..)


Meine Erfahrung ist, wenn 2 Rechner diesele ID haben, denkt BOINC du hast die Aufgaben gelöscht und versendet die dann an andere Computer und sie bekommen den Status Detached
Eventuell reicht es in der client_state.xml die HostId zu löschen damit du eine neue bekommst
 
"boinc.berkeley.edu/wiki/Host_identification_and_merging"
Das Image war ohne client_state.xml dementsprechend sollte laut dem Link eine neue ID vergeben werden.
Als Workaround kann ich alternativ ein anders Image nutzen (oder Account), aber wie nun das 2. VM System doppelt erkannt wurde (ID zweimal vergeben), da gleiches Host System nur andere Gast mit geänderter MAC & IP, weniger RAM, andere Hostname (naja _1 angehängt), verstehe ich nicht ganz...
 
(fast) allgemeine Fragen über Fragen:
- kann man grundsätzlich BOINC beibringen, eine WU mit mehreren CPUs bearbeiten zu können oder ist das von der App selbst abhängig?
- soll man beim RasPi 3b bei Raspbian bleiben oder Android installieren oder kommt das auch auf die Projekte an, die man rechnen möchte/muss?
- gibt es eine Art credits pro watt Tabelle für CPUs/GPUs? Ich meine mal unabhängig von BOINC gelesen zu haben, dass der RasPi trotz des geringen Stromverbrauchs, kein gutes Performance (welche auf immer) zu Verbrauch Verhältnis hat. Auch, dass bei aktuellen CPUs das untertakten gewaltig an Effizienzzuwachs bringt.
 
Ich kann nur was zur ersten Frage sagen: nein, um mehrere Kerne zu nutzen muss die Anwendung SMT unterstützen, da kann BOINC überhaupt nichts machen.
 
(fast) allgemeine Fragen über Fragen:
- kann man grundsätzlich BOINC beibringen, eine WU mit mehreren CPUs bearbeiten zu können oder ist das von der App selbst abhängig?
- soll man beim RasPi 3b bei Raspbian bleiben oder Android installieren oder kommt das auch auf die Projekte an, die man rechnen möchte/muss?
- gibt es eine Art credits pro watt Tabelle für CPUs/GPUs? Ich meine mal unabhängig von BOINC gelesen zu haben, dass der RasPi trotz des geringen Stromverbrauchs, kein gutes Performance (welche auf immer) zu Verbrauch Verhältnis hat. Auch, dass bei aktuellen CPUs das untertakten gewaltig an Effizienzzuwachs bringt.
2. das hängt vom Projekt ab. Manche laufen auf beiden Systemen, andere nur auf Android oder Linux. Und manchmal braucht man sogar noch eine extra App irgendwoher.
3. Da könnte man sich grob an wuprop halten.
Es kommt ansonsten stark auf die CPU und das Gesamtsystem an, wo das Effizienzmaximum liegt. Meinen FX-8350 betreibe ich bei deutlich niedrigeren 3GHz am effizientesten. Der Ryzen 1700 hat beim Standardtakt schon eine hoeh Effizienz, die natürlich durch undervolting noch mal besser wird. Beim X4-945 meine ich sogar in Erinnerung zu haben, dass der erst beim Übertakten auf 3,3GHz am effizientesten war - zumindest auf meiner Plattform.
Wie effizient die ARM-Kerne sind, hängt stark vom Projekt ab. Wenn ich an Universe@Home denke - da rechnet der C2 so schnell wie der Athlon5350, aber mit einem Bruchteil des Stromes. Mir war so, als ob der Ryzen7 gerade so Gleichstand geschafft hat mit dem C2. (4x so viele Threads, 5x so schnell)
 
Morgen werden wir bei Goofyxgrid SUSA überholen und damit auf #3 aufsteigen!
 
CPU oder NCI?
 
Bei NCI steuern wir Platz 3 an
beim CPU Projekt sind wir dagegen auf Platz 7.
 
Ich glaube Universe liefert wieder WUs aus, bei mir tickern hier gerade ein paar davon durch. *kopfkratz
 
Jupp, neue WUs zugelassen und gleich mal 2 schwarze Löcher bekommen. :o
 
Wunderbar. Das freut auch WUProp.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten