Rasante Aufholjagd des Distributed Computing Teams bei PS3Grid

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Das Distributed Computing Team von Planet 3DNow! ist erst recht spät eingestiegen beim Projekt <a href="http://dc.planet3dnow.de/wiki/index.php?title=PS3GRID">PS3Grid</a>, das sich mit molekularen Simulationen befasst, um der Ursache für bestimmte Krankheiten auf die Spur zu kommen. Wie der Name des Projekts bereits andeutet beschränkten sich die Betreiber am Anfang auf die Power des <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173999674">IBM Cell-Prozessors</a>, der in den PlayStation 3 Spielekonsolen verbaut ist. Seit das Projekt jedoch auch NVIDIA-Grafikkarten für die Berechnung nutzen kann und damit den Zweitnamen GPUGrid trägt, ist es auch unseren meist mit x86-Systemen operierenden Anwendern zugänglich. Wenig überraschend holt Planet 3DNow! seither in den <a href="http://www.ps3grid.net/top_teams.php" target="_blank">Bestenlisten dieses Projekts</a> enorm auf. Mittlerweile liegt unser Team auf Rang 8 der Gesamtwertung und streitet sich um Rang 3 bei der Wertung des höchsten durchschnittlichen Tagesausstoßes an berechneten WUs.

GPUGrid nutzt dabei die GPGPU-Fähigkeit der NVIDIA Grafikchips. GPGPU bedeutet General Purpose GPU, also ein Grafikchip, der zu allgemeinen Aufgaben und nicht nur zur Darstellung von Grafik genutzt werden kann. Bei NVIDIA ermöglicht dies die Schnittstelle CUDA. Damit ist es Programmierern möglich ohne Kenntnisse des strukturellen Aufbaus der GPUs Grafikkarten-Computing mit einer handelsüblichen Programmierhochsprache zu nutzen. Sofern sich die Berechnungen gut parallelisieren lassen (aktuelle NVIDIA Grafikkarten besitzen bis zu 240 Shader-Prozessoren) ist hier gegenüber normalen CPUs ein erheblicher Leistungsgewinn zu erwarten.

Um die Power der NVIDIA-Grafikkarten für unser Distributed Computing Team nutzbar zu machen, sind ein paar Voraussetzungen nötig. Zum einen muss mindestens eine GeForce 8 Grafikkarte (G84 oder höher) im System verbaut sein. Zwar werden auch Mainstream-Chips wie GeForce 8400 GS oder 8600 GT unterstützt, allerdings sind diese Chips zu langsam, um die knappen Deadlines bei normaler Nutzung zu schaffen. Ferner gilt: je langsamer die Grafikkarte, desto deutlicher wird für den Anwender spürbar, dass sie im Hintergrund eigentlich mit etwas anderem beschäftigt ist als auf die Eingaben des Users zu reagieren. Richtig Sinn macht ein Engagement bei GPUGrid erst mit Grafikkarten vom Schlage einer 8800 GT, 9800 Serie oder natürlich der aktuellen 260/280 Modelle. Das Topmodell GeForce GTX 280 etwa zerstückelt so eine Workunit in weniger als 8 Stunden und schickt die fertigen Berechnungen an den Betreiber zurück - ohne dass der Anwender etwas davon spürt. Eine 8600 GT dagegen benötigt über 2 Tage und der PC ist nebenbei kaum noch "ansprechbar".

Ferner notwendig ein aktueller 177+ Grafiktreiber, der CUDA unterstützt wie etwa der aktuelle <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1222375253">178.13 WHQL</a>. Und last but not least eine BOINC-Version 6.3, die derzeit von Berkeley noch als Alpha-Version geführt wird. Die entsprechenden Versionen können auf der PS3Grid-Webseite heruntergeladen werden. Anschließend nur noch dem Projekt PS3Grid beitreten (URL: http://www.ps3grid.net wenn bei der Anmeldung danach gefragt wird) und dem <a href="http://www.ps3grid.net/team_display.php?teamid=598" target="_blank">Team von Planet 3DNow!</a> beitreten. Anschließend holt sich der BOINC-Client die ersten Workunits vom Projektbetreiber und die lässt sie von der Grafikkarte berechnen. Auf diese Weise wird die enorme Rechenpower der aktuellen NVIDIA-GPUs für die Wissenschaft nutzbar.

<b>Links zum Thema:</b><ul><li><a href="http://dc.planet3dnow.de/wiki/index.php?title=Distributed_Computing">Was ist Distributed Computing?</a></li><li><a href="http://dc.planet3dnow.de/wiki/index.php?title=PS3GRID">Das Projekt PS3Grid bzw. GPUGrid</a></li><li><a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing Support-Forum bei Planet 3DNow!</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=345744">Der große PS3Grid/GPUGrid Thread im Forum</a></li><li><a href="http://www.nvidia.com/object/cuda_learn.html" target="_blank">CUDA bei NVIDIA</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1220518421">BOINC-Projekt PS3Grid nun auch mit CUDA-Support</a></li><li><a href="http://www.ps3grid.net/team_display.php?teamid=598" target="_blank">Team Planet 3DNow! bei PS3Grid/GPUGrid</a></li></ul>
 
Kommt sowas auch für ATI Karten? Ich weiss es gibt bereits einen GPU Client für die ATI Karten, der ist aber glaub ich projektspezifisch..
 
Kommt sowas auch für ATI Karten? Ich weiss es gibt bereits einen GPU Client für die ATI Karten, der ist aber glaub ich projektspezifisch..
Bei PS3Grid mittelfristig nicht.

Um ATI Grafikkarten für ein Distributed Computing Projekt zu nutzen, muss man sich Folding@Home anschließen. Meines Wissens nach derzeit das einzige Projekt, das auch ATI GPUs als GPGPU nutzt. Allerdings nutzt Folding@Home nicht das BOINC-Framework der University of Berkeley, sondern ist (da von der Stanford University betrieben) ein eigenständiger Client. Mehr dazu hier:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1219757451
 
Ich muss eh noch ein paar Cases testen und da kommt mir eine volle Auslastung der drei 8800 Ultras ganz recht 8)
Gleich mal fürs Team crunchen.

Edit:
Schade:
Computing capability 1.0 - it won't run

G80:
* Geforce 8800 GTS - 320/640M - 96 shader units
* GeForce 8800 GTX - 768M - 128 shader units
* GeForce 8800 Ultra - 768M - 128 shader units
 
Ich muss eh noch ein paar Cases testen und da kommt mir eine volle Auslastung der drei 8800 Ultras ganz recht 8)
Gleich mal fürs Team crunchen.

Edit:
Schade:
Computing capability 1.0 - it won't run

G80:
* Geforce 8800 GTS - 320/640M - 96 shader units
* GeForce 8800 GTX - 768M - 128 shader units
* GeForce 8800 Ultra - 768M - 128 shader units
Wenn Du den G80 Karten Beine machen willst, kannst Du Folding@Home dafür verwenden:
http://www.planet3dnow.de/vbulletin/showthread.php?t=345707

P3D-Team (Team Nummer 34361) joinen nicht vergessen ;D
 
Yes Sir, aber kein SLI/triple SLI wie ich sehe? Ich werd mich mal reinarbeiten ;)
Doch, müsste schon. Siehe hier:
http://folding.stanford.edu/English/FAQ-NVIDIA#ntoc17
What about multi-gpu support?

Yes, you can add the "-gpu N" flag (N starts at 0) to your extra parameters in the advanced page of the systray clients, or the advances settings of the console clients. Again N starts with 0 not 1, so your primary display is 0, the next is 1, etc. Each client if you are running more then one needs a different -gpu and a different machineD, and a different working directory, so follow the instructions for multiple clients.

oder allgemein
http://folding.stanford.edu/English/FAQ-NVIDIA
 
Seit den neuesten Versionen von BOINC (6.3.14) und der PS3Grid-App (6.45) nicht mehr. Davor wurde je GPU ein kompletter CPU-Kern ausgelastet :o Inzwischen benötigt der Steuerprozess für PS3Grid auf der CPU so gut wie keine Rechenleistung mehr, sodass z.B. auf einem Quad-Core Prozessor 4 anderweitige BOINC-Prozesse laufen können (z.B. SETI, Poem, Einstein, etc.) und ZUSÄTZLICH die Berechnung auf der Grafikkarte oder - noch besser ;D - auf den Grafikkarten ;)
 
Ich hab nur 3 andere Tasks mit PS3Grid
 
Zurück
Oben Unten