Rechenleistung und elktr. Leistung Graka vs. CPU

jensibensi

Admiral Special
Mitglied seit
10.05.2002
Beiträge
1.132
Renomée
8
Standort
Lübeck
Hi,

habe gerade einen Test gefunden. Scheinbar verbrät die Graka deutlich mehr Strom als die CPU wenn sie für Stanford rechnet.

Ciao Jens

Link:
 
Ich denke das Problem wird (auch) sein, dass die CPU in solch großem Maße mitgenutzt wird. Bei der Testkonstellation 1x CPU + 1xGPU auf einem Dual-Core System läuft ja Effektiv der zweite Core fast auf Anschlag nur für den GPU-Client.

Wenn Stanford das noch in den Griff kriegt, dass die zweite CPU nicht so viel zu tun hat dann stimmen auch die Relationen wieder.

Und zweitens sollte das Punktevergabesystem natürlich angepaßt werden, ist zwar schön mit einer XT 660 Credits am Tag zu produzieren aber eigentlich müßten es eher 1200 oder noch mehr sein wenn man sich die "Stats" so ansieht.

29 TFlops durch 447 GPU-Client´s
gegenüber
21 TFlops durch 17465 Linux-CPU´s :o
 
@Artikel: eigentlich sollten bei einem Projekt wie F@H ja die Berechnungen/Watt im Vordergrund stehen, und nicht Punkte/Watt ;)

Und zweitens sollte das Punktevergabesystem natürlich angepaßt werden, ist zwar schön mit einer XT 660 Credits am Tag zu produzieren aber eigentlich müßten es eher 1200 oder noch mehr sein wenn man sich die "Stats" so ansieht.

29 TFlops durch 447 GPU-Client´s
gegenüber
21 TFlops durch 17465 Linux-CPU´s :o
Als Begründung, warum es nicht 20-40x Punkte gibt, obwohl die GPU 20-40x schneller ist, wird von Stanford immer angegeben, dass der GPU Client, im Gegensatz zur CPU, bei weitem nicht für alle WUs zu gebrauchen ist.
Die gleiche Situation gab es schon bei der Einführung des Gromacs Client. Der war deutlich schneller als der alte Amber Client, kann aber auch nicht für alle WUs benutzt werden. Daher werden Gromac WUs auch nicht deutlich besser als Amber WUs bepunktet.

Aber weitere Punktänderungen sind natürlich nicht auszuschließen, die erste gab es ja schon. Bei einer XT auf 3D Takt sind es übrigens ca. 730ppd, nicht 660 ;)
 
Die gleiche Situation gab es schon bei der Einführung des Gromacs Client. Der war deutlich schneller als der alte Amber Client, kann aber auch nicht für alle WUs benutzt werden. Daher werden Gromac WUs auch nicht deutlich besser als Amber WUs bepunktet.
Amber? Du meinst Tinker, oder?
 
wobei ja bei den cores das schnellere rechnen schon die bessere bepunktung ergibt ;) zumindest im ansatz
 
Wusste nicht, worein ich die Frage(n) schreiben soll, mache es deswegen hierein:

Frage 1:
Wieviel PPD bringt ein core2Duo E6600 @default Takt?

Frage 2:
Der GPU-Client scheint also einen kompletten Core für sich zu beanspruchen.
Das bedeutet, dass immerhin noch der zweite Core meines C2D komplett für eine weiteren Client übrig ist. Demnach müsste der PPD eines PC mit C2D-E6600 und 1900XTX also aus den Punkten des GPU-client und den Punkten des einen Cores des C2D bestehen, richtig?

Frage 3:
Wenn ich auf oben beschriebenen System also einen normalen F@H-client und einen GPU-client laufen lasse, lässt sich mit dem System unter Windows normal arbeiten, oder drückt der GPU-client gewaltig auf die Bremse?


Danke schonmal vorab!

PS: lasse auf dem System derzeit zwei F@H-Textclients laufen.
 
Frage 1:
Wieviel PPD bringt ein core2Duo E6600 @default Takt?
von fahinfo.org (PPD/GHz, du mußt die Werte also x2,4 für einen E6600 rechnen):
conroe.png


Frage 2:
Der GPU-Client scheint also einen kompletten Core für sich zu beanspruchen.
Das bedeutet, dass immerhin noch der zweite Core meines C2D komplett für eine weiteren Client übrig ist. Demnach müsste der PPD eines PC mit C2D-E6600 und 1900XTX also aus den Punkten des GPU-client und den Punkten des einen Cores des C2D bestehen, richtig?
Richtig.

Frage 3:
Wenn ich auf oben beschriebenen System also einen normalen F@H-client und einen GPU-client laufen lasse, lässt sich mit dem System unter Windows normal arbeiten, oder drückt der GPU-client gewaltig auf die Bremse?
Der GPU-Client nimmt sich, genauso wie der CPU-Client, nur die Idle Rechenleistung der CPU. Allerdings kann ich bei mir bei manchen Anwendungen eine Art "Lag" feststellen, wenn der GPU-Client läuft. Lau offiziellen FAH Forum scheint das normalerweise nur bei 256MB Karten aufzutreten. Probiers einfach aus ;)
 
von fahinfo.org (PPD/GHz, du mußt die Werte also x2,4 für einen E6600 rechnen):
conroe.png



Richtig.


Der GPU-Client nimmt sich, genauso wie der CPU-Client, nur die Idle Rechenleistung der CPU. Allerdings kann ich bei mir bei manchen Anwendungen eine Art "Lag" feststellen, wenn der GPU-Client läuft. Lau offiziellen FAH Forum scheint das normalerweise nur bei 256MB Karten aufzutreten. Probiers einfach aus ;)

Vielen Dank!
Also wenn ich mit einer 1900XTX so ca. 660 PPD habe und mein C2D einen PPD von ca. 450 (also auf einem Core 225 PPD), dann würde durch die Graka mein täglicher Output von 450 auf 875 PPD steigen. Da meine Kiste durchschnittlich 8h am Tag an ist, verringert sich der Effekt natürlich. Hinzu kommt, dass mein PC dann automatisch mehr Strom verbraucht...dan könnte ich ggf. den PC meiner frau (AXP3000+) auf DualCore umrüsten und hätte denselben Effekt.

Ich wollte eigentlich noch mit dem Graka-Kauf warten (auf die nächste Generation, die es derzeit nur von NVidia gibt).

Ich mache es jetzt wie folgt:
Ich warte wie geplant ab, würde aber im Fall eines Races vorab bereits auf eine 1900XTX 512 MB upgrade (derzeit eine X800XL 256 MB).
 
Ich schaff mit meiner XT ca. 700ppd ohne Übertaktung. Die XTX dürfte da ja nochmal was draufpacken.

Edit: Das mit dem leichten "Lag" kann ich bestätigen. Betrifft aber nur die Ausgabe am Monitor.
 
Zuletzt bearbeitet:
Zurück
Oben Unten