Neues Projekt: 3x+1@home

heavy-Ions@boinc

Grand Admiral Special
Mitglied seit
03.10.2007
Beiträge
3.405
Renomée
23
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
Zuletzt bearbeitet:
Hab gerade meine ersten zwei WUs auf meinem WinXP 32Bit System erhalten.

The 32 and 64bit Windows and OS-X applications are finally ready!

Lets rock!
 
Wer ist eigentlich hier noch aktief?

Weil schenbar tuen doch ein Par kleine Chruncher das projekt seit neustens rechen inmoment sind es 4 :)

Output last 24H Schlape 20k für 4 Chruncher nicht schlecht *lol*
 
Ja so kan MAn sagen Ist nicht ganz so Knausrig wie gewisse andere Projekte.*suspect*


Aber bei 200K bzw in 12Tagen werd ich dan doch das Projekt eventuel verlasen das sind mir doch einwenig zu viel Chredits Pro tag *lol*
 
Gerade bei SUSA im Forum gelsen.
Das projekt wird am Freitag 14.11 beendet!

roject will soon close down
from 3x+1@home
Due to a lack of time and resources, we have to close down 3x+1@home soon. On Friday, 14th November, we'll stop generating new work units but results can still be returned for a long time. Of course the project page will stay on-line for everyone to view or download (available soon) the project results. Thanks to everyone who has participated in this project!
 
Hallo

da ja leider das Projekt beendet wirt
was kann ich weider Rechnen?
mein System Linux 64bit AMD CPU (Phenom)


Gruß Hannes
 
Hallo

da ja leider das Projekt beendet wirt
was kann ich weider Rechnen?
mein System Linux 64bit AMD CPU (Phenom)


Gruß Hannes
vieles ;)
ein 64bit linux-system ist z.b. bei simap und abc gut aufgehoben. abc@home profitiert von 64bit ebenso wie die HMMER-WU von simap (aber denk drann das es bei simap immer nur am monatsanfang WUs gibt).
ansonsten haben eigentlich fast alle anderen projekte auch Linux unterstützung.
Einstein@home wäre auch eine möglichkeit, da die linux-applikation von einstein auch von 64bit Linux profitiert.
such dir einfach was aus.
 
Zuletzt bearbeitet:
@heavy-Ions@boinc

Danke für die schnelle Antwort
simap hab ich schon
abc@home werde ich dann mal testen
um zu sehen wie viele Punkte es ab wirft


Gruß Hannes
 
Folding@Home mit dem SMP-Client wäre auch eine Option. Das läuft aber halt nicht über BOINC.
 
Ich hab mich erstmal mit 3x+1 WUs vollgesaugt;)

Danach werd ich erstmal POEM bzw Einstein und meine einzelne CPDN WU fertig rechnen.
btw, Einstein@Home hat keine 64bit App afaik, nur ne i686. Die aber trotzdem deutlich schneller ist, als die Windows App.
 
Wollte mal berichten, daß das Projekt eventuell demnächst wiederbelebt wird. Ein SUSA Member hat sich des Ganzen angenommen und sogar schon GPU-Applikationen sowohl für nVidia (CUDA) als auch ATI (Brook+) erstellt. Das Problem eignet sich recht gut für GPUs (auch ältere Karten funktionieren), der Geschwindigkeitsgewinn einer GTS250 gegenüber einem 45nm 2.8GHz Quad beträgt mit einer vorläufigen Version knapp Faktor 9 (Faktor 35 für einen Kern).
Bei der ATI-Version gibt (gab ;)) es noch ein paar Performanceprobleme, weshalb ich da ins Spiel kam. Aber ich habe schon einen Vorschlag gemacht, der die ATI-Version deutlich beschleunigen sollte und außerdem eine Änderung am Algorithmus vorgeschlagen, der den möglichen Zahlenbereich bei praktisch gleichem Aufwand um Einiges erweitert. Meine Version mit 242 Bit-Zahlen (72 Dezimalstellen) ist auf einer HD4870 nicht viel langsamer als eine GTS250 mit der Originalversion, die nur Zahlen mit bis zu 48 Dezimalstellen behandeln kann. Wenn man das auf eine identische Stellenanzahl runterkocht, sollte der von mir vorgeschlagene Algorithmus (auch auf nvidias) schneller sein.

Keine Ahnung, wie weit das ansonsten mit der Infrastruktur gediehen ist, aber die Apps sind fast fertig.
 
Wollte mal berichten, daß das Projekt eventuell demnächst wiederbelebt wird. Ein SUSA Member hat sich des Ganzen angenommen und sogar schon GPU-Applikationen sowohl für nVidia (CUDA) als auch ATI (Brook+) erstellt. Das Problem eignet sich recht gut für GPUs (auch ältere Karten funktionieren), der Geschwindigkeitsgewinn einer GTS250 gegenüber einem 45nm 2.8GHz Quad beträgt mit einer vorläufigen Version knapp Faktor 9 (Faktor 35 für einen Kern).
Bei der ATI-Version gibt (gab ;)) es noch ein paar Performanceprobleme, weshalb ich da ins Spiel kam. Aber ich habe schon einen Vorschlag gemacht, der die ATI-Version deutlich beschleunigen sollte und außerdem eine Änderung am Algorithmus vorgeschlagen, der den möglichen Zahlenbereich bei praktisch gleichem Aufwand um Einiges erweitert. Meine Version mit 242 Bit-Zahlen (72 Dezimalstellen) ist auf einer HD4870 nicht viel langsamer als eine GTS250 mit der Originalversion, die nur Zahlen mit bis zu 48 Dezimalstellen behandeln kann. Wenn man das auf eine identische Stellenanzahl runterkocht, sollte der von mir vorgeschlagene Algorithmus (auch auf nvidias) schneller sein.

Keine Ahnung, wie weit das ansonsten mit der Infrastruktur gediehen ist, aber die Apps sind fast fertig.
Klingt doch super. Du entwickelst dich scheinbar langsam zum ATI-GPU Papst in der BOINC-Welt ;)
 
Klingt doch super. Du entwickelst dich scheinbar langsam zum ATI-GPU Papst in der BOINC-Welt ;)
Na mal ganz ruhig, so würde ich das nicht sagen. 3x+1 ist eigentlich sowas von einfach, da gehört auch nicht viel dazu. Und die Behebung des Performance-Problems war eher das Wissen, wie man einen Bug des alten Stream-SDK 1.3 umgeht :]
Prinzipiell sollten nvidia-Karten dort auch nicht schlecht aussehen. Man hat doch ziemlich viele abhängige Instruktionen, so daß die 5 Slots der VLIW-Einheiten bei ATI ziemlich schwer gut auszulasten sind (mein kleiner Codeschnipsel nutzt im Schnitt nur 2,54 2,73 ;D, was deutlich unterdurchschnittlich ist, MW liegt bei etwa 3,6 oder so). Aber trotzdem sind sind sie wohl halbwegs konkurrenzfähig (die Shader haben ja einfach mehr Rohleistung, falls davon nur 50% rüberkommen, ist das oft immer noch gleichauf mit den nvidia-Karten, solange deren SFUs nicht genutzt werden können) und ein oder zwei Tricks habe ich vielleicht noch übrig ;)
Übrigens ist die genutzte Speicherbandbreite der Karte noch lächerlicher als bei MW (wo man ab 250MHz Speichertakt anfängt, Einbußen zu sehen), eine HD4870 nutzt nur 20MB/s *lol*
Anders als bei MW müssen allerdings diese 20MB/s auch über PCI-Express/AGP wieder in den Hauptspeicher kommen, allerdings ist das eine noch überschaubare Größenordnung.

Der Entwickler hat sich zwar an mich gewendet, trotzdem muß man erst mal sehen, was mit den Vorschlägen passiert (und ob ich später noch die Möglichkeit habe, daran rumzuspielen). Und wie es mit der ganzen Serverinfrastruktur aussieht, habe ich überhaupt keinen Plan von. Sieht momentan auch nicht danach aus, als wenn ich da eingeweiht werden sollte.
 
Zuletzt bearbeitet:
braucht er nicht wiederzubeleben, ich hab ein eigenes 3x+1 projekt so gut wie fertig. falls jemand cuda apps oder openCL schreiben kann könnte man die gerne mit einbauen.
 
yep boinc... :-)

habe die app vollständig in assembler geschrieben, die geht daher auch auf älterer hardware richtig gut los. kann aber im moment nur windows (win32, auch auf 64bit) wenn ich noch einen win64 assembler kriege bastel ich noch eine win64 app. linux/andere betriebssysteme wird schwer weil ich zu wenig ahnung von denen habe bzw. auch nicht die software um win32 assembler-code nach linux oder so zu portieren.

im moment bastel ich noch den boinc server html kram und debugge alles wo ich fehler finde... der scheduler selber läuft schon ganz gut.

also noch paar tage geduld dann gibts mal offiziell ein paar test-WUs...
 
@DJ_Ninja:
Wie sieht es denn bei Dir aus? Das von SUSA wiederbelebte 3x+1 (Collatz Conjecture) steht kurz vor dem offiziellen Start (noch benötigt man einen Invite Code). Falls Dein Projekt noch nicht läuft, kommst Du wohl zu spät.

Zur Erinnerung, das Projekt kommt mit Anwendungen sowohl für CPU, CUDA und ATI, also der volle Rundumschlag. Im Moment laufen die letzten Tests. Außerdem muß noch sichergestellt werden, daß sich die Milkyway-ATI-App mit der von 3x+1 verträgt, da ja der BOINC-Manager da noch nicht greift. Im Moment ist eine 9800GTX+ etwa 20% schneller als eine HD4870, aber da werde ich wohl noch was tun können ;)

Ein Acknowledgement für mich steht zwar schon auf der Startseite, dabei hat Slicker (der sowohl die ATI als auch die CUDA-Version gebastelt hat) bisher ja nur ein paar Tipps bekommen. Aber mein kleiner Testkernel vom Mai sollte auf einer HD4870 eigentlich schneller sein als seine 9800GTX+ Variante ;D
Na mal sehen, was draus wird.

Das wird wohl auf jeden Fall ein ziemliches High-Credit-Projekt (hat irgendwer was anderes erwartet, wenn sich ein paar SUSA-Member zusammentun?). Die Credits sind fest und bei einem 800MHz P3 auf etwa 100 pro Tag festgepinnt. Aber wofür so ein alter P3 mit der (wahrscheinlich recht suboptimalen CPU-Anwendung :]) 7 Tage benötigt, rennt die genannte 9800GTX+ in 13 Minuten oder so durch. Ich denke mal, da sollte man noch mal sanften Druck ausüben, die Stock-CPU-Anwendung etwas zu beschleunigen. Die sogenannte optimierte SSE2-Version wirft auf einem Core2 wohl auch schon exorbitant was ab.
 
Zuletzt bearbeitet:
Zurück
Oben Unten