SETI@Home Wow!-Event 2019

Maintance complete (successful), aber die Seite ist immer noch down - Operation gelungen, Patient tot... :]
 
Nur das ich es mir schonmal hinter die Ohren schreibe: Dienstag ist wieder normale Down-Time?
Von 16 - 21 Uhr?

Update:

Upload läuft. Langsam, aber läuft.

Update:

Nach 10 WUs war wieder Schluß. Jetzt versuchen natürlich Alle ihr Zeug los zu werden.
 
Zuletzt bearbeitet:
Bisher konnte ich nur WUs runterladen aber hochladen konnte ich die noch nicht wirklich. *noahnung*
 
Hab nach der OS Update Runde die ersten WUs geladen und die waren natürlich für OpenCL. *buck*
Danach kann ich noch ein paar Vergleichs WUs mit der vorhandenen Windows Test Installation machen.
Wenn man CUDA100 per optimierter App korrekt implementiert hat, dürften eigentlich keine OpenCL mehr gezogen werden , außer Astropulse.

Mal ehrlich, wenn es um das lohnen geht dann wäre Seti nur noch ein reines nvidia Projekt denn anscheinend wird es nur noch für CUDA optimiert.
Nein, das Gegenteil ist der Fall. Es wird vor allem auf OpenCL optimiert. Das läuft ja dann immerhin auf beiden GPU-Sorten.
CUDA wird ja gerade deswegen links liegen gelassen. Die optimierten Apps sind von Dritten, also nicht offiziell.

Das liegt auch an den Nutzern. Wenn Alles ohne Murren hingenommen wird. 8-( Sobald Seti mal vernünftige Apps für AMD hat, kann mir ja mal jemand bescheid sagen. Bis dahin boykotiere ich Seti lieber und rechne von mir aus für Lindenstraße@Home. 8)
Also für AMD hat Seti aktuelle und vernünftige apps. Die vom Projekt für Nvidia sind deutlich lah

Nur das ich es mir schonmal hinter die Ohren schreibe: Dienstag ist wieder normale Down-Time?
Von 16 - 21 Uhr?
So ungefähr. Die Dauer der Auszeit wird aber jede Woche neu ausgewürfelt. ;)
 
@MagicEye04
Wenn dem beim OpenCL Support so ist dann frage ich mich ernsthaft was da getrieben wird. ???
Meine Vega64 Referenz (Referenzkühler) boostet wegen der mangelhaften Hardware Auslastung trotz der optimierten Settings lt. hwinfo64 fast dauerhaft auf 1,6 GHz rauf (avg. 1,54 GHz) und kam dabei auf auf max. 200W (ca. 150W avg.) und das über eine Zeit von mehreren Stunden.
Bei der VII sieht das noch schlimmer aus. Trotz Boost auf ca. 1,8 GHz sehe ich als ASIC Power max. ca. 200W. Oftmals taktet die GPU auch deutlich geringer und gleichzeitig geht auch der Verbrauch deutlich runter, was in einem durchschnittlichen Verbrauch von ca. 100 - 120W resultiert. Angesichts des Gesammtverbrauchs von derzeit ca. 1050W inkl. dem Ripper Cruncher mit 32 CPU WUs sowie der GPU WU auf der GT1030 und der restlichen Kühl- und Kommunikationsanlage des Schranks halte ich diese Werte auch für durchaus plausibel.

Wenn derzeit wirklich so viel Arbeit in den OpenCL Part gesteckt wird dann nur weil der inzwischen in einem geradezu katastrophalen Zustand ist was die effiziente Nutzung der Hardware angeht. Des weiteren scheint der OpenCL Part auch deutlich an der Kern Power der CPU zu hängen denn die VII in meiner Daddelkiste kommt mit dem übergangsweise verbauten 2700x auf ca. 2 Minuten, die 3 VIIs in meinem 2nd DP-Cruncher kommen mit dem TR 1950x auf durchschnittlich ca. 2:20 und die unverbastelte (Referenzkühler) VII in dem Test Cruncher ist mit den gleichen Einstellungen mit ca. 2:40 dabei weil der zuständige Kern der verbaute A10-6800k vor allem am Anfang der WU (ca. 16-20s) voll ausschlägt und zum limitierenden Faktor wird. Danach liegt die Kern Auslastung trotz der ca. 4,2 GHz Takt bei ca. 80% und fällt bei den letzten ca. 20% der WU auf ca. 40% runter. Gut, der Prozessor ist mit seinen Bulli Kernen alles andere als ein Renner aber das Verhalten ist dennoch verdammt happig.

Warum ich darauf so gereizt reagiere?
Es war einmal mein Lieblingsprojekt und ging im laufe der Jahre diesbezüglich mehr und mehr den Bach runter wärend sich andere Projekte weiter entwickelten und halbwegs Schritt halten konnten. :(
 
Zuletzt bearbeitet:
Ja, nachdem sich die Lage "normalisiert" hat und auf einem PC alles wieder klappt, hat der andere trotzdem nichts mehr gekriegt. Der ist jetzt aus.
Also noch immer mit einer GTX750Ti dabei - aber eben unter Windows und mit openCL, bringt also kaum was. :-/
ca. 3 WU pro Stunde eben, eventuell auch mal 4.
 
Das anheben des VRAM-Taktes von 945 MHz auf 1050 MHz, bei den Vega64-Karten, hat nochmal 30 Sekunden Zeitersparniss gebracht. Läuft. ;D

Pending allerdings auch. 4.500.
 
Zuletzt bearbeitet:
Nice!
Dann läuft es bei dir ja ziemlich rund. :D
 
@MagicEye04
Wenn dem beim OpenCL Support so ist dann frage ich mich ernsthaft was da getrieben wird. ???
Meine Vega64 Referenz (Referenzkühler) boostet wegen der mangelhaften Hardware Auslastung trotz der optimierten Settings lt. hwinfo64 fast dauerhaft auf 1,6 GHz rauf (avg. 1,54 GHz) und kam dabei auf auf max. 200W (ca. 150W avg.) und das über eine Zeit von mehreren Stunden.
Bei der VII sieht das noch schlimmer aus. Trotz Boost auf ca. 1,8 GHz sehe ich als ASIC Power max. ca. 200W. Oftmals taktet die GPU auch deutlich geringer und gleichzeitig geht auch der Verbrauch deutlich runter, was in einem durchschnittlichen Verbrauch von ca. 100 - 120W resultiert. Angesichts des Gesammtverbrauchs von derzeit ca. 1050W inkl. dem Ripper Cruncher mit 32 CPU WUs sowie der GPU WU auf der GT1030 und der restlichen Kühl- und Kommunikationsanlage des Schranks halte ich diese Werte auch für durchaus plausibel.

Wenn derzeit wirklich so viel Arbeit in den OpenCL Part gesteckt wird dann nur weil der inzwischen in einem geradezu katastrophalen Zustand ist was die effiziente Nutzung der Hardware angeht. Des weiteren scheint der OpenCL Part auch deutlich an der Kern Power der CPU zu hängen denn die VII in meiner Daddelkiste kommt mit dem übergangsweise verbauten 2700x auf ca. 2 Minuten, die 3 VIIs in meinem 2nd DP-Cruncher kommen mit dem TR 1950x auf durchschnittlich ca. 2:20 und die unverbastelte (Referenzkühler) VII in dem Test Cruncher ist mit den gleichen Einstellungen mit ca. 2:40 dabei weil der zuständige Kern der verbaute A10-6800k vor allem am Anfang der WU (ca. 16-20s) voll ausschlägt und zum limitierenden Faktor wird. Danach liegt die Kern Auslastung trotz der ca. 4,2 GHz Takt bei ca. 80% und fällt bei den letzten ca. 20% der WU auf ca. 40% runter. Gut, der Prozessor ist mit seinen Bulli Kernen alles andere als ein Renner aber das Verhalten ist dennoch verdammt happig.

Warum ich darauf so gereizt reagiere?
Es war einmal mein Lieblingsprojekt und ging im laufe der Jahre diesbezüglich mehr und mehr den Bach runter wärend sich andere Projekte weiter entwickelten und halbwegs Schritt halten konnten. :(
Das Seti-Projekt steht finanziell nicht gerade auf einem soliden Fundament. Es gab ja vor Jahren sogar mal Gerüchte von einem Aus.
Ich mutmaße jetzt einfach mal mangels Wissen:
Daher wird womöglich mit OpenCL eine Lösung genutzt werden, wo man nur einmal was programmieren muss, was dann auf allen Karten läuft. Nur wird man dann keine speziellen Optimierungen einbauen, die vielleicht nur auf Nvidia oder AMD möglich wären. Dann würde das Projekt halt versuchen, mit möglichst wenig Aufwand möglichst viele Rechner für das Projekt zu gewinnen.
CPUseitig wird ja viel von Freiwilligen beigetragen. Man müsste eher fragen, warum die CUDA-Lösungen nicht mal offiziell geprüft werden und dann ins Projekt aufgenommen werden - aber vielleicht will der Programmierer das ja gar nicht oder es gibt rechtliche Hindernisse.

Es ist auch mein Lieblingsprojekt, ich bin da schon über 20 Jahre dabei, das müsste 1998 rum gewesen sein, wo ich infiziert wurde.

Ich bin eigentlich froh, dass die GPUs nicht so stark ausgelastet werden. Denn dann würde ich die Radeon VII nur dann anschalten, wenn ich nicht zu Hause bin.
 
@MagicEye04
Ich habe so den Eindruck dass das Projekt beim OpenCL Ableger ein recht massives Sheduling Problem hat und vielleicht deshalb nicht inn der Lage ist die Hardware vernünftig auszulasten.

Bei mir fing es damals an wo man auf den damaligen ATI Karten die ersten Gehversuche mit der GPU Beschleunigung machte und wo die Geforce Karten damit nicht zurecht kamen. Ich bin mir gerade nicht ganz sicher aber ich glaube das war damals zur Zeit der X1000 Serie von ATI bzw. der Geforce 7 Serie von nvidia, also so um 2005/2006 rum. Tja, heute sieht das komplett anders aus....
Nun ja, froh bin ich darüber definitiv nicht denn den gleichen Effekt hätte man auch bei einer guten Auslastung mit einer erheblichen Untertaktung haben können und wäre vermutlich dennoch fixer unterwegs gewesen.

Bei den CPU WUs ist der Ripper übrigens ganz gut unterwegs.
Die 8.00 WUs sind in ca. einer Stunde durch und die 8.05 WUs liefen die ich bisher sah liefen ebenfalls ca. 1 Stunden, einige davon aber auch erheblich länger.
Vielleicht ein Ergebnis durch die teilweise indirekte Speicher Anbindung des Rippers oder 2 WUs teilen sich dennoch zeitweise einen Kern da SMT nicht abgeschaltet ist sondern lediglich 50% der Kerne genutzt werden soll.
Ach ja, alles mit der Standard App da es nur ein Testlauf ist. Über die Credit Ausbeute der CPU und GPU WUs des Rechners kann ich nichts sagen da bisher wirklich alle ins Pending gerannt sind. :]
 
Ich finde, es gibt schlimmere Projekte, wo selbst uralte CPUs oder ARM-Kerne genau so schnell pro MHz rechnen wie moderne CPUs. Da scheint rein gar nichts optimiert zu sein, ein paar 0815-Befehle aus der Mottenkiste, fertig.

Mein 1700er Ryzen lässt sich bei gemächlichen 3GHz so um die 5000s Zeit für die 55cr WUs. In Anbetracht der ca. 45W, die er dafür braucht, ist das akzeptabel.
 
@sompe habe auch ne Vega 64 laufen ... auf 1500mhz und 955mv gestellt, daran hält sie sich auch max 1520 ... Auslastung springt zwischen 55 und 99 % hin und her dabei max 145W

verstehe dein Problem nicht*kopfkratz möchtet du permanente 100% Auslastung? Da würden luftgekühlte Karten nicht lange überleben....



mal getestet... VRam auf 1000 mhz GPU auf 1500 mhz bei 960mv ... geht die Karte beim berechnen auf max 1440 und verbraucht max 117 watt meistens unter 100watt, Zeiten etwa 3:30
 
Zuletzt bearbeitet:
@MagicEye04
Das sind die allerersten Projekte/Unterprojekte die ich meide. ;)


@boehser_wolf
Das ist doch ganz einfach, mit einer vernünftigen Hardware Auslastung würde man für die gleiche Arbeit weniger Taktfrequenz benötigen und damit Strom sparen, beim gleichen Verbrauch entsprechend mehr oder bei gleicher Taktfrequenz (aber mehr Strombedarf) deutlich mehr raus bekommen. So oder so ist die ineffiziente Nutzung der Hardware ausschließlich zu unserem Nachteil.

--- Update ---

Ich denke ich klinke mich hier erstmal aus
 
Sehe gerade, dass ich schon am 14.05.1999 Seti@Home beigetreten bin.:o Ob das noch mit dem DX4-100 war? Monster Maschine! Vielleicht aber auch schon ein K6(2)?! Der älteste Rechner in der Liste ist der Athlon 64 3500+ - mit ähnlich hohen FLOPS wie später ein S4 Mini ;D

Mir ist auch grundsätzlich egal, wie effizient das Projekt die Hardware der Teilnehmer ausnutzt. Im Race geht es ohnehin nicht darum. Eigentlich geht es nie darum. Die Idee hinter BOINC verstehe ich als ideelle. Wer gerne Aliens sucht, soll es machen. Die Sinnhaftigkeit mal dahingestellt. Wer Primzahlen mag und auf viele Credits steht, wird bei den Projekten auch fündig. Die Sinnhaftigkeit dieser Projekte zweifel ich noch mehr an.

Jean-Luc hat es schon 1996 sehr schön zusammengefasst (oder wird es 2063 zusammenfassen) ;)
https://www.youtube.com/watch?v=MySHQpkkakQ
 
Ich bin seit 20.09.2004 bei Seti. War auch bei mir mein ältestes Projekt.
Kann mich aber nicht mehr erinnern, welcher Rechner das damals war, aber mit ziemlicher Sicherheit noch ein Einkerner.
 
Wir kleben geradezu an RKN, mehr Power!
 
Wir kleben geradezu an RKN, mehr Power!

Ich hätte noch 300 WUs auf der Win-Partition meines "frischen" Linux-Crunchers rumoxidieren - aber ich komm nicht ran, um die hochzuladen - der doofe Pinguin hat sich zum Alleinherrscher aufgeschwungen und zeigt mir nicht mal mehr den Grub-Bootloader, sondern bootet direkt in Mint. Das hat aber schon funktioniert! *admin*

Wir krieg' ich Linux / Grub (efibootmgr?) dazu, sich zu zeigen und die Windows-Installation zu booten - ich will doch nur kurz ein paar WUs abwerfen...
 
Zuletzt bearbeitet:
Mittlerweile sind wir ja auch 28, aber beim gesamten Event ist die Teilnehmerzahl von über 700 letztes Jahr auf etwas über 500 doch deutlich zurückgegangen.


Und was zusätzlich angenehmes: Intel schwächelt gerade massiv: https://www.boincstats.com/stats/0/team/detail/26483/lastDays

Deutlich unter 100k pro Tag, da kann man als positiver Nebeneffekt doch gut aufholen. ;D


Ich werde am Sonntag noch mal was Werbung per News machen. ;)
 
@Maverick-F1
Hast du es schonmal mit dem GRUB Customizer versucht?
 
Wir krieg' ich Linux / Grub (efibootmgr?) dazu, sich zu zeigen und die Windows-Installation zu booten - ich will doch nur kurz ein paar WUs abwerfen...

Ist in der grub.conf Windows überhaupt drinnen?
Befinden sich die beiden Betriebsysteme auf der gleichen Platte?
Wenn Win auf einer anderen Platte ist, müsstest Du beim booten im BIOS die andere als Startplatte wählen können.
 
Der Grub Customizer sagt mir nix - mal ausprobieren...

Win & Linux teilen sich eine SSD - und ich komm' nicht mal ins BIOS (ist schon UEFI) - beim Booten seh' ich nix (Monitor blinkt nur), bis das Mint-Logo kommt. Der EFIBootmgr hat sich da scheinbar total eingeklinkt. Wär' ja auch kein Beinbruch, wenn er mir - wieder - die Bootauswahl bringen würde, wo ich zumindest alternativ Windows booten kann...
Vielleicht hilft da ja dieser Grub-Customizer...
Der Windows Eintrag war jedenfall drin - ich konnte ja schon mehrfach erfolgreich zwischen den OS wechseln - deswegen verstehe ich das aktuelle Verhalten auch nicht... :]
 
Der macht sich bei mir ganz gut um z.B. schnell mal die Bootreihenfolge vom GRUB zu ändern.
Selbst ich als bekennender Linux Dummy komme damit dank der grafischen Oberfläche ganz gut klar.
 
So, das erste Mal BOINC. Erstmal einfach Blindflug mit Windows, BOINC Manager, SETI Anmeldung, P3DN join, und 50% vom Threadripper. Optimieren kann man später^^
 
Mit dem Grub-Customizer konnte ich jetzt zwar Windows booten und die WUs hochladen - aber jetzt startet Linux nicht mehr - und damit crunchen die 1070Ti und die 1030 nicht mehr mit CUDA90/100! *admin*

Gibt's den Grub-Customizer auch für Windows? *chatt*

Ich weiß nicht, wann ich welche Taste drücken muss, damit wieder Linux bootet - ich habe immer noch einen komplett schwarzen Bildschirm beim Booten (selbst beim Windows-Boot wird nicht das Windows-Logo angezeigt, sondern erst der Desktop)!
Ich hab im Grub-Customizer eine Option gefunden "splash silent" oder so ähnlich - und deaktiviert - (wo ich die Bootreihenfolge geändert hab') hat aber keinen Unterschied gemacht...

Das ist echt zum Mäuse-Melken...
 
Zurück
Oben Unten