Welche Projekte sind besonders für Linux und welche für Windows geeignet?

Ich habe halt alle App durch einander gewürfelt, weil bestimmt keiner schaut, welche App bei dem jeweiligen Projekt läuft und die dann wieder zruück schickt, wenn die auf einem anderen System schneller wäre.
Eben doch. Als YoYo PdM war hab ich mir sehr wohl die beste Anwendung heraus gepickt und diesen auf jedem System eingesetzt. Da hab ich mit einem Ph2 allein schon 20K am Tag errechnet ;)
 
Aber das macht doch kein Ottonormalcruncher ;)
 
Achso, stimmt genauso wie das kein Ottonormalcruncher powerApps verwendet :P
 
Pfennigfuchser ;) Also ich habe nicht die Zeit zu schauen, dass meine PC's, sind nur 2 auf immer die richtige App laufen hat. Solche geschichten machen nicht alle, bzw. nur wenige wenn ich das mal so behaupten darf.

Ist mein Vorschlag überhaupt möglich, das über die Projektseiten auszulesen und errechnen zu lassen?
 
Du brauchst doch nur mal einen Tag lang sämtliche Anwendungen laufen lassen. Am Ende rechnest du dir die Credits pro Sekunde der jeweiligen WU/Anwendung aus. Je höher desto besser. Fertig.
 
Schöner wäre das, wenn das in der Stat.-Seite z.B. dort angeschaut werden kann. ;)
 
Heeee, nicht sterben lassen! Ist doch ein ganz sinnvolles Thema. :)

Mit dem CI2 lassen sich die Tendenzen auch gut ablesen/untermauern.
 
Aber mit dem CI2 läßt sich das aber alles viel besser und genauer darstellen, und somit ist, glaub ich mein Thread hinfällig geworden.
 
Als nächstes müssten wir noch die Kriterien für die Auswertung bestimmen, erst dann wäre der CI2 brauchbar.
 
Das stimmt aber selbst so wie es im Moment läuft kann man(n) sich jetzt schneller ein Bild machen, welches Projekt mit welcher CPU und unter welchem OS schneller läuft als andere.
 
Naja kommt bisschen drauf an wie groß und gut gefüllt die Liste ist.

Bei RCN bringt Linux+64bit auf jeden Fall nichts, im Gegenteil. Ist arschlahm das ganze.
 
Inwiefern ist RCN lahm unter Linux64?
Ich muss das zum direkten Vergleich natürlich nochmal auf der gleichen CPU unter Windows laufen lassen.
Aber im Vergleich zu den Werten die ich mit meiner anderen CPU unter WindowsXP 32bit erreiche sind die Werte deutlich schlechter, siehe Einträge im CI2.
 
ein boinc-manager mit besseren benchmarkwerte würde mehr bringen ;D

[hast du die geschichte von rcn schon wieder vergessen, bist doch schon eine zeit lang in dem geschäft :D]
 
Ja ich erinnere mich schon noch, nur dachte ich naiver Weise das wäre mal behoben worden. ^^


Sieht halt so aus:
Host 1:
Win XP 32
Measured floating point speed 2983.74 million ops/sec
Measured integer speed 5968.8 million ops/sec
Day-credits: 3,066.76

Host 2:
Ubuntu 9.10 64
Measured floating point speed 1920.48 million ops/sec
Measured integer speed 5871.44 million ops/sec
Day-credits: 1,807.20

Host 1 hat 55% bessere Fließkommawerte, aber 70% mehr Gesamtoutput. Irgendwo muss es also doch noch am unterschiedlichen BS bzw. eben der Umsetzung dafür liegen.
 
Ja ich erinnere mich schon noch, nur dachte ich naiver Weise das wäre mal behoben worden. ^^


Sieht halt so aus:
Host 1:
Win XP 32
Measured floating point speed 2983.74 million ops/sec
Measured integer speed 5968.8 million ops/sec
Day-credits: 3,066.76

Host 2:
Ubuntu 9.10 64
Measured floating point speed 1920.48 million ops/sec
Measured integer speed 5871.44 million ops/sec
Day-credits: 1,807.20

Host 1 hat 55% bessere Fließkommawerte, aber 70% mehr Gesamtoutput. Irgendwo muss es also doch noch am unterschiedlichen BS bzw. eben der Umsetzung dafür liegen.
klar, der unterschied kommt durch den verwendeten compiler für den boinc-manager zustande, mehr steckt da nicht dahinter.
 
Also sollte wohl ma einer nen extreme-Phenom2-optimizes Boinc-Manager kompilieren...
am besten mit dem neuesten GCC mit amdfam10 - optimierungen... ;)
 
Also sollte wohl ma einer nen extreme-Phenom2-optimizes Boinc-Manager kompilieren...
am besten mit dem neuesten GCC mit amdfam10 - optimierungen... ;)

Das würde aber nicht der "Wahrheit" entsprechen.

Weil der Benchmark eigentlich keinen Bezug zur tatsächlichen Berechnung im Projekt hat.
Der Benchmark lastet nur einen kleinen Teil der CPU aus [INT/FPU], im Projekt kommt es aber dann auf RAM-Transfer/SSEx-Leistung/ALU usw. an.

Beispiel: Ein Projekt X, mit 2 Apps, einmal per INT/FPU (so wie gewöhnlich), die 2. wird per SSEx beschleunigt

Würde der Benchmark entsprechend hoch ausfallen, weil er z.B. vektorisiert ist, im Projekt aber nur per FPU-gerechnet, fallen die claimed credits entsprechend höher aus, weil es länger gedauert hat, als vorher per (optimierten) Benchmark geschätzt wurde.

Wird das Projekt dagegen per SSEx beschleunigt, der Benchmark aber nicht, so fallen die claimed credits niedriger aus.

Man bekommt für die "gleiche" Arbeit unterschiedliche Credits.
Abhilfe bringen nur feste Credits, den Benchmark sollte man gänzlich ignorieren.
Leider gibt es immer noch eine Handvoll Projekte, die das nicht kapiert haben.
 
Tach@Twodee

RCN rechnet aber (bis auf die schnellen) immer auf 23 oder 24 Stunden, dann ist es so, dass ich aber beispielsweise nur die Hälfte der creds bekomme, wie z.B. ein Intel?
Das war früher bei Einstein so, wobei da die Intels glaub ich schneller waren. Die haben trotzdem unverhältnismäßig mehr Punkte bekommen, dann war ich da raus.
 
Tach@Twodee

RCN rechnet aber (bis auf die schnellen) immer auf 23 oder 24 Stunden, dann ist es so, dass ich aber beispielsweise nur die Hälfte der creds bekomme, wie z.B. ein Intel?
Das war früher bei Einstein so, wobei da die Intels glaub ich schneller waren. Die haben trotzdem unverhältnismäßig mehr Punkte bekommen, dann war ich da raus.
problem bei RCN ist, das RCN nicht irgendetwas ausrechnet, sondern für eine "feste" Zeit etwas sucht, bzw. vorher abbricht, wenn es gefunden wurde.

Und da die Intels im allg. beim Benchmark besser abschneiden, bekommen diese einen höhere Score, werden aber trotz höheren Score nicht "eher" fertig (da ja die Laufzeit auf z.b. 23h fest ist), so wird angenommen das mehr berechnet wurde, wodurch ein höherer claim zustande kommt.

bzw. beim AMD, niedriger Bench-Score => längere Laufzeit erwartet, normaler claim.
 
RCN setzt seit geraumer Zeit auf einen Korrekturfaktor, der sich aus kleinen, definierten WU errechnet. D.h. sie werden ab und an verschickt, das Ergebnis ist bekannt, die tatsächliche Rechenleistung wird für jeden Rechner ermittelt und demnächst dann mit den geforderten Cr. multipliziert. "Cheaterclients"/ Optimierte Benchmarks sollen/helfen somit nur kurzzeitig. ;)
.
EDIT :
.

nachgereicht: http://dist.ist.tugraz.at/cape5/forum_thread.php?id=472&nowrap=true#23060

Das soll so sein. Jeder Host hat einen Faktor zugeordnet, mit dem er bewertet
wird. Anfangs ist dieser Faktor 1, d.h. wir glauben erst mal innerhalb gewisser
Grenzen was der Host claimt. Zu einigen Workunits ist aber der Arbeitsumfang
genau definiert, und wenn der Host so eine löst, dann berechnen wir, um
wieviel der Host under-/overclaimt. Aus solchen Events bilden wir dann einen
gleitenden Mittelwert, und nach einer gewissen Einschwingphase hat jeder Host
einen stabilen Bewertungsfaktor. Der kann sich natürlich auch danach noch
erhöhen, falls der Rechner schneller wird. Oder er geht in den Keller, wenn
plötzlich ein Cheat-Client zum Einsatz kommt.
 
RCN setzt seit geraumer Zeit auf einen Korrekturfaktor, der sich aus kleinen, definierten WU errechnet. D.h. sie werden ab und an verschickt, das Ergebnis ist bekannt, die tatsächliche Rechenleistung wird für jeden Rechner ermittelt und demnächst dann mit den geforderten Cr. multipliziert. "Cheaterclients"/ Optimierte Benchmarks sollen/helfen somit nur kurzzeitig. ;)
.
EDIT :
.

nachgereicht: http://dist.ist.tugraz.at/cape5/forum_thread.php?id=472&nowrap=true#23060

Statt einfach die Flops zu zählen und diese nach Seti/Berkley zu bewerten, basteln die sich lieber so einen Scheiß, welchen man wieder irgendwie umgehen kann..... :(

Aber Danke für die Info.
 
Yoyo-ecm-WUs sind unter WinXP 32bit absolut für die Tonne. *buck* Da komm ich mit dem Q9550 pro Tag auf etwa 1500 Credits, unter 64bit ist das dann fast Faktor 3 besser.
Da stimmt irgendwas mit der Anwendung nicht?
 
Zurück
Oben Unten