SETI@Home Wow Event 2017

Also, das gucke ich mir eine Weile an, und dann entscheide ich, ob 2x GTX750Ti oder 1x R9 280X and den Start gehen. Ich denke, die R9 wird es sein.

@Magic: ja, Installation ist ein Kinderspiel (unter win)
 
Meine GTX750ti spielt gerade auswärts, aber ich fürchte, das wäre sowieso ein Chaos geworden, wenn die zusammen mit der RX460 in einem Rechner was machen soll.
 
Hm, die paar Wuzen, die Seti mir gegeben hat, sind in ca.8 min durch und ich kriege keine neuen. SUPER
 
einfach ein paar tage vorher anfangen zu crunchen damit das pending ein konstanten lvl erreicht (RX480 *180 wus im pending)
ein tag vorher bunkern und dan mit einem konstanten output das event genießen ;)

und denkt daran die auslastung der gpu zu checken bei machen gpus lohnt es sich 2 wus gleichzeitig zu berechnen!

wie sieht der tagesouput bei den cpus eigentlich aus? lohnt sich das überhaupt ?!
 
Die Wuzen auf meiner 280X haben sich bedauerlicher Weise doch irgendwie "verlängert" und haben sich aktuell so um die 600s eingependelt.

Ist aber trotzdem nicht übel, wenn ich bedenke, dass die GTX7540Ti so zwischen 1.200 und 3.600s liegt, die Intel HD4600 und die R3 vom Athlon sogar zwischen 6.500 und 8.000s.
Passt alles schon irgendwie. :D
 
wie sieht der tagesouput bei den cpus eigentlich aus? lohnt sich das überhaupt ?!
Kommt auf die CPU an. :D
Mein Ryzen macht vermutlich so um die 10k, die GTX970 so etwa 13K.
Mikes Ryzen mit den optimierten Apps scheint fast doppelt so schnell zu sein. :o

Ich stell jetzt erstmal auf no new work und versuche mich morgen mal an der Optimierung.
 
da lohnt es sich ja sogar mit der cpu zu crunchen Oo
meine RX 480 macht 16k-20k
 
Wollte gestern einen Probelauf machen, nach 3 WUs wurde am Zweitrechner der Bildschirm schwaz und die HD 7870 XT hatte sich verabschiedet. *traurig*

Jetzt hab ich nur noch eine HD 5850 als Ersatz und die braucht doppelt so lange für eine WU.
 
Wow. Wow.

Das ist irre. Ich komme in Versuchung. Die R9 280X mit Lunatics 0.45Beta frisst die Wuzen weg, das geht gar nicht.
Bisher hatte ich erst eine, die über 5 min lag. :o


Auf der mit bekannten Seite http://lunatics.kwsn.info finde ich gerade mal eine beta für Nvidia vom Februar 2017 und für die CPU 64bit Multibeam v8 for SSE4.2 CPUs (r3306) - vom Februar 2016.
Und dann gibts noch 64bit Multibeam v8 for AVX CPUs (r3345), January 2016.

Was ist denn für den Ryzen und für den FX am besten? AVX oder SSE4.2 ?

Edit: Ah, bei Mikes World bin ich fündig geworden hinsichtlich Beta.

Ich glaub, ich boote mal spaßeshalber Windows, installiere dort lunatics und anhand der dabei erzeugten config-Datei kann ich dann vielleicht auch eine solche für Linux zusammenbasteln.
 
Zuletzt bearbeitet:
Ach nee, ich wollte noch mal üben und auf einer 80 GB HDD zum vorhandenen Ubuntu Mate noch ein Mint 17.3 für den Seti-WOW-Event
dazu installieren - da hat Mint wohl ein Problem damit.

Na ja, egal, nach mehreren Versuchen bootet zum Glück Ubuntu Mate noch immer, aber mit Mint ist nix los -
geht nicht, egal was ich mache.

Ubuntu auf vorhandenem Mint-System installieren geht, Mint auf Ubuntu geht nicht - ich habe wohl zu wenig Linux Erfahrung -
dennoch, I have the nose gestriche full.
Noch ne externe HDD hab ich nicht mehr und mit USB-Sticks versuch ichs erst gar nicht.
Ende der vor Seti-WOW-Event-Start vorgesehenen Aktivitäten.

Wieder etwas dazu gelernt.
 
Meine ersten Ergebnisse mit der optimierten Beta-App sind ernüchternd.
Die CPU rechnet nicht schneller als unoptimiert unter Linux.
Ich musste mich blöderweise zwischen CUDA und OpenCL entscheiden, beides parallel ging nicht. Und CUDA scheint deutlich weniger Punkte abzuwerfen als OpenCL. Ich stelle dann noch mal auf OpenCL, wenn die CUDAs durch sind, aber wenn das so bleibt, dann ist von Optimierung keine Spur.

Oder ich muss mal SSE probieren, vielleicht mag der Ryzen kein AVX?

Einziger Lichtblick: Auch mit 3 WUs parallel merke ich rein gar nichts davon, dass die Grafikkarte beschäftigt ist. Mit OpenCL gabs in Linux Ruckel-Orgien ohne Ende.

Ob ich die 40kB große app_config an Linux anpassen kann, bin ich mir auch noch nicht sicher, das ist ja irre, was da alles drin steht.
 
Zuletzt bearbeitet:
Ach, wie gut zu hören (lesen), daß nicht nur ich Probleme mit dem ganzen Kram habe.
Für OpenCL wünsche ich dir viel Erfolg und massig Durchsatz !

--- Update ---

@MagicEye04
Hast Du es schon mal mit der APP für CUDA80 probiert (siehe Beitrag #9 hier im Fred = für Linux) ?
 
Nee. CUDA50 (mehr wurde nicht angeboten) hab ich aktuell und auch noch in Windows.
 
Welche GPU nutzt Du ?

--- Update ---

Die mitgelieferte APP für CPU scheint auch nicht verkehrt zu sein
!
 
Aktuell die GTX970. Jetzt noch die letzte WU abwarten, dann stell ich mal um auf OpenCL.

Ich hatte mich nur gewundert, dass Mike bei halber Rechenzeit die gleichen credits hat. Aber vielleicht hat er ja ordentlich übertaktet und die Ausbeute schwankt eh stark.
 
Also ich hatte auf einem 5350 mit 750Ti die CUDA80 probiert.
Ich kann nicht sagen ob die APPs schnell waren, aber die anvisierte Rechenzeit wurde um ca. den Faktor 8-10 unterboten.
Ob dabei mehr Punkte herauskommen habe ich nicht geprüft - die APPs waren aber verdammt schnell - verglichen mit der
vorgegebenen Rechenzeit.
Für die 750TI habe ich "-unroll 5" in einer mitgelieferten Datei definiert.
Bei der GTX 970 habe ich keine Ahnung wie der Parameter gesetzt werden soll - Anzahl der CUs der GPU ist da gefragt.
Zum Anfang ist vielleicht auch "-unroll 5" passabel, oder Du findest heraus, wieviele CUs Deine GTX 970 hat.
 
Die vorgegebene Zeit ist frisch vom Mond.
Da bin ich mir sicher, dass die mehr als 1 Stunde unterschritten wird. ;)

Die GTX970 scheint 13 Recheneinheiten zu haben.
Das ist dann morgen dran, heute nacht wird erstmal OpenCL getestet.

3 CUDAs haben sich genau einen CPU-Kern geteilt, die OpenCL brauchen natürlich wieder je einen ganzen Kern.
 
Na dann, viel Erfolg !
 
MagicEye04 schrieb:
Ich hatte mich nur gewundert, dass Mike bei halber Rechenzeit die gleichen credits hat. Aber vielleicht hat er ja ordentlich übertaktet und die Ausbeute schwankt eh stark.
Seine Linux Stderr Ausgabe zeigt den Cpu Takt an.

Code:
<core_client_version>7.6.31</core_client_version>
<![CDATA[
<stderr_txt>
Not using mb_cmdline.txt-file, using commandline options.

Build features: SETI8 Non-graphics FFTW FFTOUT JSPF [b]SSE4.1 64bit[/b] 
 System: Linux  x86_64  Kernel: 4.11.12-041112-generic
 CPU   : AMD Ryzen 7 1800X Eight-Core Processor
 [b]16 core(s), Speed :  2200.000 MHz[/b]
 L1 : 64 KB, Cache : 512 KB
 Features : FPU TSC PAE APIC MTRR MMX SSE  SSE2 HT PNI SSSE3 SSE4A SSE4_1 SSE4_2 AVX  AVX2
 
Sieht nach Leerlauf aus. ;)

Ich warte zwar noch auf die letzten Ergebnisse, aber für ein erstes Fazit reicht mein Testwochenende.

Ubuntu, Standard-Apps:
R7=13k...14k pro Tag (je nachdem, ob ich eine oder 2 CPU-Kerne für die Graka reserviert habe, muss ich nachgucken später)
GTX970=16k pro Tag (alles nur OpenCL Setiv8, )

Windows7, lunatics 0.45beta:
R7=15k (mit AVX)
R7=16k (mit SSE3 - dabei war ich mir sicher, SSE4_2 ausgewählt zu haben)
GTX970=18k (OpenCL, 2 WUs parallel)
GTX970=8k (CUDA50, 2 WUs parallel)

Also wenn die experimentelle CUDA80-App nicht gerade die 3fache Leistung verspricht, würde ich CUDA mal irgendwie als tot betrachten.
Bisher sieht es auch nicht so aus, als würde Windows und damit die optimierten Apps einen sehr deutlichen Schub bringen. Das sind so um die 10-15%

Wenn die letzten WUs durch sind, probier ich es noch mal, ob ich SSE4 erzwingen kann.

--- Update ---

Jetzt kenn ich Mikes Geheimnis: Kein HT/SMT. Dadurch rechnen die Kerne eben doppelt so schnell, insbesondere mit AVX.
Damit schrumpft der Unterschied in den Rahmen, der durch den deutlich Mehrtakt auch zu erwarten ist.
Da ich sonst eh kein Seti auf der CPU laufen lasse, werde ich das aber nicht auch noch austesten.
Aktuell schaue ich, was SSE4.1 bringt und CUDA32, dann überlege ich, was für den Wettbewerb laufen wird.
 
Zuletzt bearbeitet:
Heute hatte ich eine fehlerhafte AVX-WU, die geisterte leider 8 Stunden herum, ehe ich sie gekillt habe. Sowas kann ich eigentlich bei einem Event dann nicht gebrauchen.
Hoffentlich bleibts ein Einzelfall.
 
Also ich hatte mit meinem Ryzen noch nicht eine ungültige WU weder auf win noch auf Linux Mint 18.2.
Auf Linux ist übrigens die SSE 4.1 die schnellste auf win die AVX.

Gruß
Mike
 
Kann auch an Windows, RAM oder sonstwas liegen. Vor dem letzten Bios-update war es viel schlimmer, da konnte ich den Rechner nicht einfach mal ne Woche durchlaufen lassen.

Also nach meinen Tests kann ich nun sagen, dass es bei AVX wohl einen leichten Peak gibt mit 6 WUs gleichzeitig (so etwa 18.500cr/d). 5 ist theoretisch noch ein Hauch besser, aber da fehlt dann schon wieder eine Instanz für die Punkte, 7 führt bereitszu steigenden Laufzeiten.
Unterm Strich fand ich die SSE4.2 doch am handlichsten (14x ergibt 17.500cr/d), und auf der Jagd nach Wuprop-Sternchen ist das auch nicht verkehrt, wenn viele WUs gleichzeitig laufen. Darum werde ich die für den Wettbewerb nehmen.

Die GTX970 hat Dank der TXT-Optimierung noch mal gut 20% zugelegt auf nun knapp 19.500cr/d. :)
Hätte ich der alten Dame gar nicht mehr zugetraut.
Ich hoffe, das macht die dann auch unter Linux weiterhin so.
Evtl. liegt es aber auch nur daran, dass die CPU nur zu 50% belegt war wegen AVX. Werde ich ja morgen sehen.

Leider sind die ganzen Results viel zu schnell wieder vom Server verschwunden. Obwohl ich nun jeden Tag 1x mühsam alle Ergebnisse nach Excel kopiert habe, gibt es Lücken.
Kann man das eigentlich recht simpel automatisieren? Alle paar Stunden mal alle Results ablegen?
 
Das macht Koschi ganz fix mit einem kleinen Skript. Nun muss er es nur mal hier lesen.
 
Ripper da, Speicher da, SSD da und was fehlt mal wieder? Das Mainboard.
Irgendwie fühle ich mich an den Penta erinnert, nur das ich diesmal nur noch bis Montag Zeit hätte und das Wochenende dazwischen ist.
 
Zurück
Oben Unten