PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neues Projekt: 3x+1@home



heavy-Ions@boinc
20.02.2008, 12:43
Ein matheprojekt, dass sich mit der sogenannten Collatz Problem befasst.
hier mehr dazu
http://allprojectstats.com/collatz/index.php

die kollgen von rechenkraft haben schon ein wiki dazu
http://www.rechenkraft.net/wiki/index.php?title=3xplus1%40home

Zur zeit gibt es nur eine 64bit Linux applikation.
es gibt etwa 25Credits die stunde pro WU zur zeit


edit. Im titel muss es natürlich 3x+1@home heissen :D

TiKu
20.02.2008, 14:16
die kollgen von rechenkraft haben schon ein wiki dazu
http://www.rechenkraft.net/wiki/index.php?title=3xplus1%40homeWir auch. ;)
http://dc.planet3dnow.de/wiki/index.php?title=3x%2B1%40home

affenkopf
20.02.2008, 20:22
AMD CPUs scheinen dort auch eine gute Change zu haben:

http://allprojectstats.com/collatz/top_hosts.php

MrBad
20.02.2008, 22:35
AMD CPUs scheinen dort auch eine gute Change zu haben:

http://allprojectstats.com/collatz/top_hosts.php

Ähm, Ja. Aber bisher wird wohl nur Linux64 unterstützt:


Feb 18, 2004 3x+1@home Alpha Test
Currently only 64bit Linux systems are supported


Hab aber gesehen das sich da viele mit ihrem Win reinhängen...auch ein paar von uns. ;)

MB

Mie,Ma,Meise
13.04.2008, 21:14
Hab gerade meine ersten zwei WUs auf meinem WinXP 32Bit System erhalten.


The 32 and 64bit Windows and OS-X applications are finally ready!

Lets rock!

kenny1988
04.11.2008, 18:28
Wer ist eigentlich hier noch aktief?

Weil schenbar tuen doch ein Par kleine Chruncher das projekt seit neustens rechen inmoment sind es 4 :)

Output last 24H Schlape 20k für 4 Chruncher nicht schlecht *lol*

DonGeilo
06.11.2008, 14:49
Hier gibts ja nen Credit Regen, mein Phenom 9750 mach über 4000 Credits am Tag.

kenny1988
06.11.2008, 17:35
Ja so kan MAn sagen Ist nicht ganz so Knausrig wie gewisse andere Projekte.*suspect*


Aber bei 200K bzw in 12Tagen werd ich dan doch das Projekt eventuel verlasen das sind mir doch einwenig zu viel Chredits Pro tag *lol*

heavy-Ions@boinc
12.11.2008, 17:36
Gerade bei SUSA im Forum gelsen.
Das projekt wird am Freitag 14.11 beendet!



roject will soon close down
from 3x+1@home
Due to a lack of time and resources, we have to close down 3x+1@home soon. On Friday, 14th November, we'll stop generating new work units but results can still be returned for a long time. Of course the project page will stay on-line for everyone to view or download (available soon) the project results. Thanks to everyone who has participated in this project!

DonGeilo
12.11.2008, 18:00
Gerade bei SUSA im Forum gelsen.
Das projekt wird am Freitag 14.11 beendet!

Schade, dann werde ich wohl nochmal ein bisschen Rechnen.

hann2
13.11.2008, 09:23
Hallo

da ja leider das Projekt beendet wirt
was kann ich weider Rechnen?
mein System Linux 64bit AMD CPU (Phenom)


Gruß Hannes

heavy-Ions@boinc
13.11.2008, 09:57
Hallo

da ja leider das Projekt beendet wirt
was kann ich weider Rechnen?
mein System Linux 64bit AMD CPU (Phenom)


Gruß Hannes
vieles ;)
ein 64bit linux-system ist z.b. bei simap und abc gut aufgehoben. abc@home profitiert von 64bit ebenso wie die HMMER-WU von simap (aber denk drann das es bei simap immer nur am monatsanfang WUs gibt).
ansonsten haben eigentlich fast alle anderen projekte auch Linux unterstützung.
Einstein@home wäre auch eine möglichkeit, da die linux-applikation von einstein auch von 64bit Linux profitiert.
such dir einfach was aus.

hann2
13.11.2008, 10:02
@heavy-Ions@boinc

Danke für die schnelle Antwort
simap hab ich schon
abc@home werde ich dann mal testen
um zu sehen wie viele Punkte es ab wirft


Gruß Hannes

TiKu
13.11.2008, 11:24
Folding@Home mit dem SMP-Client wäre auch eine Option. Das läuft aber halt nicht über BOINC.

Riddler82
13.11.2008, 22:41
Ich hab mich erstmal mit 3x+1 WUs vollgesaugt;)

Danach werd ich erstmal POEM bzw Einstein und meine einzelne CPDN WU fertig rechnen.
btw, Einstein@Home hat keine 64bit App afaik, nur ne i686. Die aber trotzdem deutlich schneller ist, als die Windows App.

Gipsel
13.05.2009, 14:44
Wollte mal berichten, daß das Projekt eventuell demnächst wiederbelebt wird. Ein SUSA Member hat sich des Ganzen angenommen und sogar schon GPU-Applikationen sowohl für nVidia (CUDA) als auch ATI (Brook+) erstellt. Das Problem eignet sich recht gut für GPUs (auch ältere Karten funktionieren), der Geschwindigkeitsgewinn einer GTS250 gegenüber einem 45nm 2.8GHz Quad beträgt mit einer vorläufigen Version knapp Faktor 9 (Faktor 35 für einen Kern).
Bei der ATI-Version gibt (gab ;)) es noch ein paar Performanceprobleme, weshalb ich da ins Spiel kam. Aber ich habe schon einen Vorschlag gemacht, der die ATI-Version deutlich beschleunigen sollte und außerdem eine Änderung am Algorithmus vorgeschlagen, der den möglichen Zahlenbereich bei praktisch gleichem Aufwand um Einiges erweitert. Meine Version mit 242 Bit-Zahlen (72 Dezimalstellen) ist auf einer HD4870 nicht viel langsamer als eine GTS250 mit der Originalversion, die nur Zahlen mit bis zu 48 Dezimalstellen behandeln kann. Wenn man das auf eine identische Stellenanzahl runterkocht, sollte der von mir vorgeschlagene Algorithmus (auch auf nvidias) schneller sein.

Keine Ahnung, wie weit das ansonsten mit der Infrastruktur gediehen ist, aber die Apps sind fast fertig.

heavy-Ions@boinc
13.05.2009, 17:12
Wollte mal berichten, daß das Projekt eventuell demnächst wiederbelebt wird. Ein SUSA Member hat sich des Ganzen angenommen und sogar schon GPU-Applikationen sowohl für nVidia (CUDA) als auch ATI (Brook+) erstellt. Das Problem eignet sich recht gut für GPUs (auch ältere Karten funktionieren), der Geschwindigkeitsgewinn einer GTS250 gegenüber einem 45nm 2.8GHz Quad beträgt mit einer vorläufigen Version knapp Faktor 9 (Faktor 35 für einen Kern).
Bei der ATI-Version gibt (gab ;)) es noch ein paar Performanceprobleme, weshalb ich da ins Spiel kam. Aber ich habe schon einen Vorschlag gemacht, der die ATI-Version deutlich beschleunigen sollte und außerdem eine Änderung am Algorithmus vorgeschlagen, der den möglichen Zahlenbereich bei praktisch gleichem Aufwand um Einiges erweitert. Meine Version mit 242 Bit-Zahlen (72 Dezimalstellen) ist auf einer HD4870 nicht viel langsamer als eine GTS250 mit der Originalversion, die nur Zahlen mit bis zu 48 Dezimalstellen behandeln kann. Wenn man das auf eine identische Stellenanzahl runterkocht, sollte der von mir vorgeschlagene Algorithmus (auch auf nvidias) schneller sein.

Keine Ahnung, wie weit das ansonsten mit der Infrastruktur gediehen ist, aber die Apps sind fast fertig.
Klingt doch super. Du entwickelst dich scheinbar langsam zum ATI-GPU Papst in der BOINC-Welt ;)

Gipsel
13.05.2009, 17:40
Klingt doch super. Du entwickelst dich scheinbar langsam zum ATI-GPU Papst in der BOINC-Welt ;)
Na mal ganz ruhig, so würde ich das nicht sagen. 3x+1 ist eigentlich sowas von einfach, da gehört auch nicht viel dazu. Und die Behebung des Performance-Problems war eher das Wissen, wie man einen Bug des alten Stream-SDK 1.3 umgeht :]
Prinzipiell sollten nvidia-Karten dort auch nicht schlecht aussehen. Man hat doch ziemlich viele abhängige Instruktionen, so daß die 5 Slots der VLIW-Einheiten bei ATI ziemlich schwer gut auszulasten sind (mein kleiner Codeschnipsel nutzt im Schnitt nur 2,54 2,73 ;D, was deutlich unterdurchschnittlich ist, MW liegt bei etwa 3,6 oder so). Aber trotzdem sind sind sie wohl halbwegs konkurrenzfähig (die Shader haben ja einfach mehr Rohleistung, falls davon nur 50% rüberkommen, ist das oft immer noch gleichauf mit den nvidia-Karten, solange deren SFUs nicht genutzt werden können) und ein oder zwei Tricks habe ich vielleicht noch übrig ;)
Übrigens ist die genutzte Speicherbandbreite der Karte noch lächerlicher als bei MW (wo man ab 250MHz Speichertakt anfängt, Einbußen zu sehen), eine HD4870 nutzt nur 20MB/s *lol*
Anders als bei MW müssen allerdings diese 20MB/s auch über PCI-Express/AGP wieder in den Hauptspeicher kommen, allerdings ist das eine noch überschaubare Größenordnung.

Der Entwickler hat sich zwar an mich gewendet, trotzdem muß man erst mal sehen, was mit den Vorschlägen passiert (und ob ich später noch die Möglichkeit habe, daran rumzuspielen). Und wie es mit der ganzen Serverinfrastruktur aussieht, habe ich überhaupt keinen Plan von. Sieht momentan auch nicht danach aus, als wenn ich da eingeweiht werden sollte.

Dj_Ninja
13.05.2009, 18:29
braucht er nicht wiederzubeleben, ich hab ein eigenes 3x+1 projekt so gut wie fertig. falls jemand cuda apps oder openCL schreiben kann könnte man die gerne mit einbauen.

heavy-Ions@boinc
13.05.2009, 18:46
braucht er nicht wiederzubeleben, ich hab ein eigenes 3x+1 projekt so gut wie fertig. falls jemand cuda apps oder openCL schreiben kann könnte man die gerne mit einbauen.
ein BOINC DC projekt?? wär ja mal was nettes ;)

Dj_Ninja
13.05.2009, 20:17
yep boinc... :-)

habe die app vollständig in assembler geschrieben, die geht daher auch auf älterer hardware richtig gut los. kann aber im moment nur windows (win32, auch auf 64bit) wenn ich noch einen win64 assembler kriege bastel ich noch eine win64 app. linux/andere betriebssysteme wird schwer weil ich zu wenig ahnung von denen habe bzw. auch nicht die software um win32 assembler-code nach linux oder so zu portieren.

im moment bastel ich noch den boinc server html kram und debugge alles wo ich fehler finde... der scheduler selber läuft schon ganz gut.

also noch paar tage geduld dann gibts mal offiziell ein paar test-WUs...

Gipsel
02.07.2009, 01:27
@DJ_Ninja:
Wie sieht es denn bei Dir aus? Das von SUSA wiederbelebte 3x+1 (Collatz Conjecture) (http://boinc.thesonntags.com/collatz/index.php) steht kurz vor dem offiziellen Start (noch benötigt man einen Invite Code). Falls Dein Projekt noch nicht läuft, kommst Du wohl zu spät.

Zur Erinnerung, das Projekt kommt mit Anwendungen sowohl für CPU, CUDA und ATI, also der volle Rundumschlag. Im Moment laufen die letzten Tests. Außerdem muß noch sichergestellt werden, daß sich die Milkyway-ATI-App mit der von 3x+1 verträgt, da ja der BOINC-Manager da noch nicht greift. Im Moment ist eine 9800GTX+ etwa 20% schneller als eine HD4870, aber da werde ich wohl noch was tun können ;)

Ein Acknowledgement für mich steht zwar schon auf der Startseite, dabei hat Slicker (der sowohl die ATI als auch die CUDA-Version gebastelt hat) bisher ja nur ein paar Tipps bekommen. Aber mein kleiner Testkernel vom Mai sollte auf einer HD4870 eigentlich schneller sein als seine 9800GTX+ Variante ;D
Na mal sehen, was draus wird.

Das wird wohl auf jeden Fall ein ziemliches High-Credit-Projekt (hat irgendwer was anderes erwartet, wenn sich ein paar SUSA-Member zusammentun?). Die Credits sind fest und bei einem 800MHz P3 auf etwa 100 pro Tag festgepinnt. Aber wofür so ein alter P3 mit der (wahrscheinlich recht suboptimalen CPU-Anwendung :]) 7 Tage benötigt, rennt die genannte 9800GTX+ in 13 Minuten oder so durch. Ich denke mal, da sollte man noch mal sanften Druck ausüben, die Stock-CPU-Anwendung etwas zu beschleunigen. Die sogenannte optimierte SSE2-Version wirft auf einem Core2 wohl auch schon exorbitant was ab.

camo
02.07.2009, 09:03
[...]Ein Acknowledgement für mich steht zwar schon auf der Startseite[...]

= "Gipsel/Cluster Physik - ATI application guru" *greater*

Twodee
02.07.2009, 09:20
@Gipsel

Wäre es nicht sinnvoller Dj_Ninja im SG Forum zu antworten?

Gipsel
02.07.2009, 10:57
@Gipsel

Wäre es nicht sinnvoller Dj_Ninja im SG Forum zu antworten?
Der kommt von SG?
Bei so vielen Posts hier im Forum (hat ja mehr als ich *buck*), hätte ich das nicht gedacht.

DonGeilo
02.07.2009, 11:12
Ich bin gespannt, aber es steuert ja ehr in Richtung reines GPU Projekt ich glaube das kann ordentlich für aufrühr sorgen, wenn die Credits so unfair verteilt werden.

Jeeper74
02.07.2009, 11:36
Der kommt von SG?


Er ist RKNler, nicht SGler. ;)

VG Jeeper

Twodee
02.07.2009, 11:49
Aber er war mal bei euch, oder? Zumindest ist er im SG Forum häufiger unterwegs.

Jeeper74
02.07.2009, 12:04
Aber er war mal bei euch, oder? Zumindest ist er im SG Forum häufiger unterwegs.

Richtig, ist aber schon ne Weile her.

VG Jeeper

Twodee
02.07.2009, 12:34
Personalkarusell *buck* Wo ist eigentlich Sway? *buck*

Dj_Ninja
02.07.2009, 12:38
/me bekommt alles mit... obwohl ich weder bei SG noch bei P3D bin - sondern bei RKN.

ich werd das projekt nicht fertigstellen, jedenfalls nicht so schnell. im moment hab ich irgendwie die lust am DC verloren, da rücken andere hobbies wieder in den vordergrund.

der "vorteil" bei 3x+1 ist, daß es unendlich viel arbeit gibt. ich glaube nicht, daß man eine folge findet, die nicht bei 1 endet bzw. überhaupt nicht endet. folglich bleibt nur die suche nach möglichst langen folgen, und was sowas angeht ist mein client auf 500kb große (hexadezimale) zahlen vorbereitet. da könnten also problemlos mehrere projekte parallel laufen. mir ging es auch eher darum einen eigenen boinc-server zu basteln, weniger um eine 3x+1-lösung. mal schauen, evtl. kommt irgendwann mal eine neue idee irgendeinen code zu knacken - das würde mich im moment mehr interessieren als 3x+1 - dann bau ich bestimmt dran weiter.

heavy-Ions@boinc
02.07.2009, 12:58
mir ging es auch eher darum einen eigenen boinc-server zu basteln, weniger um eine 3x+1-lösung.
wenn es darum geht, ich hätte da was für dich ;)

Dj_Ninja
02.07.2009, 14:04
eine wirklich sinnvolle app? ;)

heavy-Ions@boinc
02.07.2009, 14:18
Molekulardynamik, drug-design, quantum chemistry, Sequenzanalysen.
in diese richtung. mit cuda auf nvidia gpus

Dj_Ninja
02.07.2009, 15:08
sollten wir mal im IRC bequatschen wenns apps sind die man bekommen kann und das ganze mit beschränkter bandbreite laufen kann.

TiKu
03.07.2009, 21:31
Das wird wohl auf jeden Fall ein ziemliches High-Credit-Projekt (hat irgendwer was anderes erwartet, wenn sich ein paar SUSA-Member zusammentun?). Die Credits sind fest und bei einem 800MHz P3 auf etwa 100 pro Tag festgepinnt. Aber wofür so ein alter P3 mit der (wahrscheinlich recht suboptimalen CPU-Anwendung :]) 7 Tage benötigt, rennt die genannte 9800GTX+ in 13 Minuten oder so durch. Ich denke mal, da sollte man noch mal sanften Druck ausüben, die Stock-CPU-Anwendung etwas zu beschleunigen. Die sogenannte optimierte SSE2-Version wirft auf einem Core2 wohl auch schon exorbitant was ab.Gibts irgendwelche Bestrebungen o. ä., die Creditvergabe nach unten zu korrigieren? Ist da was bekannt?

Gipsel
03.07.2009, 23:47
Gibts irgendwelche Bestrebungen o. ä., die Creditvergabe nach unten zu korrigieren? Ist da was bekannt?
Ja, die gibt es.
Es soll prinzipiell die alte Standarddefinition des Cobblestones eingehalten werden, d.h. 100 credits am Tag für einen Rechner der eine Milliarde Fließkommaoperationen und 1 Milliarde Integer-Operationen pro Sekunde schafft. Dafür wird mit der jeweils aktuellen CPU-App ein 800MHz P3 gebencht und die (fixen) Credits so justiert, daß dieser etwa 100 credits pro Tag bekommt. Verbesserungen der Stock CPU-App führen also direkt zu einer Verminderung der Credits der optimierten bzw. der GPU Apps.

Es ist gerade eine neue CPU-Version fertig geworden, die wohl auch deutlich schneller ist. Die wird gerade gebencht (dauert ein paar Tage, bis der eine WU durch hat, die alte brauchte über 7 Tage). Ein P3-800 wird selbst mit gutem x86er Code bei der aktuellen WU-Größe wohl Mühe haben unter einen Tag zu kommen (gerade mal von der ATI-Version überschlagen). Selbst wenn man schlußendlich nur auf zwei Tage mit dem P3 kommt, würde eine GTS250 (benötigt momentan etwa 13 Minuten, eine HD4870 noch 16 Minuten ;))
172.800s / 780s * 100 = 22.000 credits am Tag bekommen.
Das ist jetzt nicht soo viel mehr als z.B. eine GTX260 bei GPUGrid bekommt. Den Vorteil, den die GTX (GT200 basiert) gegenüber der GTS (G92 basiert) bei GPUGrid hat (bestimmt 40% oder so), wird hier wohl entfallen, da die SFUs ziemlich unterbeschäftigt sein werden. Bei ATI ist das etwas anders, die HD4000er werden sich von den HD2000er und HD3000er etwas absetzen können (stärker, als man nach der Rohleistung erwarten würde), da die HD4000er schneller bei Bit-Shifts sind. Allgemein ist der (sehr kurze) Code branchintensiv und eigentlich skalar, was gut für nvidia ist, aber von ATI einfach mit roher Shaderpower totgeschlagen werden kann (ich hoffe mal, meine letzte Idee diesbezüglich funktioniert ;D).

Das Projekt ist ja noch nicht mal richtig gestartet (man kann nur mit Invite Code ein Konto erstellen und es ist auch noch bei keiner Stats-Seite gelistet), da kann man noch eine Weile gefahrlos zuschauen, wie sich das entwickelt. Allgemein kann man aber schon sagen, daß optimierte Anwendungen (SSE, SSE2 und auch 64Bit) gegenüber einer normalen x86-Version deutlich schneller sein können, da sich das prinzipiell gar nicht so schlecht dafür eignet. Aber das ist ja bei einigen Mathe-Projekten so.

Edit:
Der angesprochene Benchmark mit dem P3-800 ist fertig. Die Laufzeit wurde fast halbiert (etwa 4 Tage) und damit auch die Credits, von 783 pro WU auf glatt 400 pro WU. Da ist aber bestimmt noch ein wenig was drin ;)