Folding@Home Client für NVIDIA-GPUs in der Beta-Phase

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<div style="float:left;margin-right:10px"><a href="http://www.planet3dnow.de/photoplog/index.php?n=2558"><img src="http://www.planet3dnow.de/photoplog/file.php?n=2558" border="1" alt="Folding@Home"></a></div>Eines muss man der Leitung des Folding@Home Projekts der Stanford University lassen: wenn es um die Unterstützung verschiedener Rechnerarchitekturen geht, sind die Kalifornier ganz vorne mit dabei. Während die Distributed Computing Projekte von BOINC bis auf wenige Ausnahmen hauptsächlich Prozessoren der x86-Klasse unterstützen, hat Folding@Home die Fachwelt bereits vor 2 Jahren überrascht, indem man einen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1159547317">Client für ATI Radeon Grafikkarten veröffentlicht hat</A>, um die enorme Rechenleistung dieser GPUs für das Projekt zu nutzen. Kurze Zeit darauf folgte ein <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1174685584">Client für den IBM Cell-Prozessor der Playstation 3</a>, dessen Fließkomma-Performance die Rechenleistung des Folding@Home Projekts in der Folge regelrecht explodieren ließ.

Nur Anwender von NVIDIA-Grafikkarten gingen damals leer aus. Man munkelte der Befehlssatz der damaligen NVIDIA-GPUs wäre zu primitiv, um etwas anderes als 3D-Beschleunigung damit zu machen. Seit der GeForce 8 und der NVIDIA-eigenen Programmiersprache CUDA, die explizit für die Nutzung der GPU für wissenschaftliche Berechnungen entworfen wurde, hat sich das jedoch geändert und die Stanforder konnten sich an die Entwicklung eines GPU-Client für NVIDIA machen. In einer neuen <a href="http://foldingforum.org/viewtopic.php?f=42&t=3188" TARGET="_blank">Beta-Version des GPU2-Client</a> werden nun auch NVIDIA-Karten unterstützt.

<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=342108">Erste Tests bei uns im Forum</a> bescheinigen dem NVIDIA GPU-Client eine enorme Leistung. Auf einer GeForce 8800GT erreichte der Client 3000 Points per Day (PPD). Zum Vergleich: eine ATI Radeon 3850 mit dem GPU2-Client erreicht je nach WU ca. 1500 PPD. Zudem scheint die NVIDIA-Implementierung den Haupt-Prozessor (CPU) relativ wenig zu belasten. Während bei den ATI-Karten bei der Nutzung des GPU-Clients das gesamte System praktisch ausgelastet ist, begnügt sich die NVIDIA-Variante mit einem CPU-Kern. Auf einem Quad-Core Prozessor können sich so die drei übrigen CPU-Kerne noch anderen Aufgaben widmen, wie z.B. BOINC.

Folding@Home untersucht die sogenannte Proteinfaltung. Fehlfaltungen können eine Vielzahl von Krankheiten auslösen. Um diese besser behandeln zu können, ist ein genaues Verständnis der komplexen bei der Proteinfaltung ablaufenden Prozesse nötig. Da ein Supercomputer zu teuer wäre, bedient das Projekt sich des bewährten Konzepts des Verteilten Rechnens. Jeder, der über einen Internetanschluss verfügt, kann die überschüssige Rechenkapazität seines Computers dem Projekt zur Verfügung stellen.

<b>Links zum Thema:</b><ul><li><a href="http://dc.planet3dnow.de/wiki/index.php?title=Portal:Folding%40Home/Beschreibung">Was ist Folding@Home?</A></li><li><a href="http://dc.planet3dnow.de/wiki/index.php?title=Portal:Folding%40Home/Installation">Wie kann ich bei Folding@Home mitmachen?</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1174685584">PlayStation 3 lässt Rechenkapazität explodieren</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1211576078">Mehr Power für die Gravitationswellen- und Krankheitsforschung</A></li><li><a href="http://de.wikipedia.org/wiki/CUDA" TARGET="_blank">Compute Unified Device Architecture (CUDA)</A></li><li><a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=88">Folding@Home Forum bei Planet 3DNow!</A></li><li><a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing Foren bei Planet 3DNow!</A></li><li><a href="http://www.nvidia.com/object/cuda_learn_products.html" TARGET="_blank">CUDA kompatible Grafikkarten</a></li></ul>
 
Wollts glatt mal ausprobieren, dann erzäht mir das Teil ich hätt keine CUDA kompatible Graka.
Ist aber ne Quadro FX 5600 drin, die is definitiv CUDA-fähig.
Braucht man da nen ganz bestimmten Treiber?
 
So weit ich mich erinnern kann, hat der GPU2-Client für ATI auf dem Rechenr meiner Freundin (X2 BE) nur einen Kern bei Betrieb mit Standardeinstellung ausgelastet. Ein Betrieb des SMP-Clients und des GPU-Clients war auf dem Dualcore-Rechner nicht möglich ;D.

Finde die Leistung jedenfalls sehr ordentlich. Gefällt mir aber gar nicht, da es immer lustig anzusehen war, wie sich die nVidia-Jünger ausgegrenzt vorgekommen sind 8). Bekommt der Client auch solche Winzig-WUs? Beim ATI-GPU2-Client habe ich damals immer nur WUs mit 96 Punkten bekommen.

MfG
 
Hier wird der G200 mit seiner beachtlichen Register-Armada sein wahres Gesicht zeigen.
 
Sehr interessant. Da bau' ich die 8400GS zusätzlich in den Rechner und mit den anstehenden Treibern lasse ich diese dann in Games die Physik-Effekte berechnen und außerhalb der Games bekommt die Karte einen Kern des QuadCores und darf falten.
 
Wollts glatt mal ausprobieren, dann erzäht mir das Teil ich hätt keine CUDA kompatible Graka.
Ist aber ne Quadro FX 5600 drin, die is definitiv CUDA-fähig.
Braucht man da nen ganz bestimmten Treiber?

Ist ja ein G80. Keine Ahnung, obs da einen bestimmten Treiber braucht. Aber da das alles eh noch beta ist, wäre sicher im Zweifel eine kurze Rückmeldung bei folding ganz nett. So furchtbar viele Quadros werden nicht dabei sein, da ist die Info einschl. weiteres System, OS, Treiberversion etc. sicher hilfreich für das team.

Ob ein bestimmter Treiber nötig wäre für Cuda kann Dir vielleicht auch der nvidia-Support sagen. Bei high-end Quadro Kunden antworten die ja vielleicht auch....
 
<a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=342108">Erste Tests bei uns im Forum</a> bescheinigen dem NVIDIA GPU-Client eine enorme Leistung. Auf einer GeForce 8800GT erreichte der Client 3000 Points per Day (PPD). Zum Vergleich: eine ATI Radeon 3850 mit dem GPU2-Client erreicht je nach WU ca. 1500 PPD. Zudem scheint die NVIDIA-Implementierung den Haupt-Prozessor (CPU) relativ wenig zu belasten. Während bei den ATI-Karten bei der Nutzung des GPU-Clients das gesamte System praktisch ausgelastet ist, begnügt sich die NVIDIA-Variante mit einem CPU-Kern. Auf einem Quad-Core Prozessor können sich so die drei übrigen CPU-Kerne noch anderen Aufgaben widmen, wie z.B. BOINC.
Das kommt sehr stark auf die WUs an. Wenns mal wieder die großen WUs gibt, zieht meine 3870 auch ca. 2500 PPD durch. Mit den kleinen, die die Karten nicht richtig auslasten, sinds nur ca. 1300-1400 (CPU ist ein 3 GHz A64-X2).
Außerdem ist die Information zur Systemlast falsch, auch mit Ati-Karten wird nur ein CPU-Kern für den GPU-Client benötigt, so daß hier im Normalfall ein Kern (+ GraKa) Folding machen, der andere Kern mit Boinc beschäftigt ist.

Cherry
 
Zuletzt bearbeitet:
wie siehts mit sli aus? kann man dann beide grafikkarten nutzen?

habe mich noch nie mit folding beschäftigt, aber wenn eine g80 um die 3000 ppd schafft, wieviel schafft dann ein normaler quad core oder eine p3?
 
Wollts glatt mal ausprobieren, dann erzäht mir das Teil ich hätt keine CUDA kompatible Graka.
Ist aber ne Quadro FX 5600 drin, die is definitiv CUDA-fähig.
Braucht man da nen ganz bestimmten Treiber?
Der Client hat einen bestätigten Bug, der eine Nutzung mit Quadro-Karten verhindert. Die Beta 7 wird dann auch auf Quadro laufen.
Hier wird der G200 mit seiner beachtlichen Register-Armada sein wahres Gesicht zeigen.
http://media.bestofmicro.com/M/Y/110986/original/bench15.gif
wie siehts mit sli aus? kann man dann beide grafikkarten nutzen?
SLI wird wie auch CrossFire noch nicht unterstützt. Aber es werden mehrere GPUs unterstützt, d. h. wenn man die Karten nicht verbindet, kann man beide nutzen.
habe mich noch nie mit folding beschäftigt, aber wenn eine g80 um die 3000 ppd schafft, wieviel schafft dann ein normaler quad core oder eine p3?
http://media.bestofmicro.com/M/Y/110986/original/bench15.gif
 
:-/ ich mag den Link nicht.

Und was sollen diese Smileys *oesi2* - da kommt man sich ja glatt diskriminiert vor ;D. Deutschland hat übrigens sehr schwach gespielt. Ihr sollte einen Gang zulegen sonst sieht es nicht gut aus.
Orginalradiokommentar der ARD 15min vor Schluss: "Deutschland führt 1:0, es spielt Österreich ..." das triffts ganz gut ...

ciao

Alex
 
Ich würd den NV Client ja auch gern mal ausprobieren, wenn auch nur auf einer 8600M GS unter Vista 32bit. Leider funzt keiner der dafür erforderlichen 17x.xx Geforce Treiber (mit gemoddeter .inf installiert) auf meinem Notebook. Erzeugen alle Grafikfehler in Spielen und CAD Software :(.
Scheinbar ist CUDA aber auch noch ne Beta für Vista (auf der NV Seite gibts nur Vista Cuda Treiber für ne CUDA Beta 2.0) und der NV Client scheint laut dem FAQ von folding@home auch noch nicht richtig rund mit Vista zulaufen. Muss ich wohl auch warten.
 
So weit ich mich erinnern kann, hat der GPU2-Client für ATI auf dem Rechenr meiner Freundin (X2 BE) nur einen Kern bei Betrieb mit Standardeinstellung ausgelastet. Ein Betrieb des SMP-Clients und des GPU-Clients war auf dem Dualcore-Rechner nicht möglich ;D.

Ich hab damals die Radeon 2400 Pro spasshalber mitrechnen lassen. Dabei war ein Kern vom Quad zu 100% mitausgelastet...

Zusätzlich den Standard-Client installiert, welcher ebenfalls einen Core 100% ausgelastet hatte...Die restlichen 2 Cores waren im Idle...

Der "Trick" dabei war zuerst den SMP-Clienten zu starten und danach den GPU-Client..Ansonsten hat der SMP-Client beim starten gemeckert und den Dienst quittiert..

Auif die Art konnten dann zwei WUs parallel laufen...

Grüße!
 
Zuletzt bearbeitet:
im anderen Thread hab ich bereits erste Erfahrungen gepostet (im Folding-Forum, News vom Bot). Rund 3300 PPD mit einer 8800Gt und mit einem CPU-Core genutzt sind schon eine Hausnummer
 
Grad gelesen: Man muss derzeit die Treiberversion 174.55 nutzen.

http://foldingforum.org/viewtopic.php?f=43&t=3186

Hab natürlich nicht darauf geachtet und nach der Inkompatibilitätsmeldung den aktuellen 175.16 draufgepackt, der funzt soweit auch. Allerdings hängt sich das System meistens ganz auf, sobald ich auf Display gehe, um die Graphik anzuzeigen, kA ob das allerdings am Betastatus oder an dem Treiber liegt *noahnung*
 
Ich hab damals die Radeon 2400 Pro spasshalber mitrechnen lassen. Dabei war ein Kern vom Quad zu 100% mitausgelastet...

Zusätzlich den Standard-Client installiert, welcher ebenfalls einen Core 100% ausgelastet hatte...Die restlichen 2 Cores waren im Idle...

Der "Trick" dabei war zuerst den SMP-Clienten zu starten und danach den GPU-Client..Ansonsten hat der SMP-Client beim starten gemeckert und den Dienst quittiert..

Auif die Art konnten dann zwei WUs parallel laufen...

Grüße!

Danke Starled für den Tipp. Betrieb war bei mir eh möglich. Allerdings wurden dann meine SMP-WUs nicht rechtzeitig vor Ablauf der Deadline fertig.

MfG
 
Verwendung des 177.35 Treibers (wichtig: Download auswählen als GX200 Serie, für 8800GT Karten udn ähnliche benötigt man ein INF-UPDATE)

Damit sinkt die Berechnungszeit nochmal um rund ein Drittel. Laut Forum sind dann auf einer 8800GT rund 5500 PPD zu erreichen. Ich werds aber selbst mal testen, der Treiber lädt gerade runter.

Die Anwendung läuft übrigens rein in den Shadern - wer will kann also mal die Karte übertakten. Z.B. mit Rivatuner die Linkage zwischen Core und Shadertakt rausnehmen und den Shader hochprügeln. Wenn die WU abbricht eben den Takt um 10 Mhz runternehmen. 1750 Mhz statt 1500 (Default) packt meine Karte ohne Probleme.

Ich werde später weiter berichten....
 
Zurück
Oben Unten