NVIDIA GPUs übernehmen die Spitze bei Folding@Home

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Das <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing</a> Projekt <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=88">Folding@Home</a> ist seit einigen Jahren bereits sehr rührig was die Unterstützung verschiedener Rechner-Architekturen betrifft. Während sich die BOINC-Projekte meist auf x86-Prozessoren mit Windows oder Linux beschränken oder zumindest auf Computer-Prozessoren im Allgemeinen, blicken die Entwickler bei F@H regelmäßig über den CPU-Tellerrand hinaus und bieten auch Clients für Grafikkarten-Prozessoren (GPUs) und die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1174685584">Spielkonsole Playstation 3</A> an.

Folding@Home untersucht die sogenannte Proteinfaltung. Fehlfaltungen können eine Vielzahl von Krankheiten auslösen wie Krebs oder Alzheimer. Um diese besser behandeln zu können, ist ein genaues Verständnis der komplexen bei der Proteinfaltung ablaufenden Prozesse nötig. Da ein Supercomputer zu teuer wäre, bedient das Projekt sich des bewährten Konzepts des Verteilten Rechnens. Jeder, der über einen Internetanschluss verfügt, kann die überschüssige Rechenkapazität seines Computers dem Projekt zur Verfügung stellen.

Im Juni 2008 erst startete die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1213774714">Beta-Phase des GPU2-Client für NVIDIA-Grafikkarten</a>. Aufgrund der CUDA (Compute Unified Device Architecture) API, eine von NVIDIA zur Verfügung gestellte Programmiersprache bzw. -Schnittstelle zur allgemeinen Programmierung der NVIDIA GPUs, ist es für Entwickler relativ einfach Anwendungen zu erstellen, welche den enormen Durchsatz einer modernen GPU "zweckentfremdet", also nicht zur Darstellung von Grafik, nutzen können.

Inzwischen hat Folding@Home die neuen Zahlen bekannt gegeben, welche die Rechenleistung im Projekt anteilig ausweisen. Damit hat die PS3 nun ihren Spitzenplatz verloren. 1.080 TFLOPS erreichen die Spielkonsolen auf Platz 2. Den Platz an der Sonne dagegen haben nun die NVIDIA-GPUs mit 1.251 TFLOPS inne. Zum Vergleich: sämtliche Windows-CPUs zusammen erreichen lediglich eine Rechenleistung von 198 TFLOPS.

Bei all den schönen Zahlen darf man jedoch nicht vergessen, dass Architekturen wie GPUs oder die PS3 andere Aufgaben (WUs; Workunits) berechnen, als etwa die CPUs. Aufgrund von architektonischen Limitierungen macht es z.B. mit der PS3 oder GPU keinen Sinn Double-Precision Berechnungen anzustellen. Zudem ist der Befehlssatz der GPUs deutlich beschränkter, als bei einer CPU. Will heißen: auch wenn die CPUs in reinen TFLOPS-Zahlen ausgedrückt vernachlässigbar scheinen, sind sie für das Projekt nach wie vor unabdingbar, da nur sie jede Art von Berechnungen durchführen können und universell einsetzbar sind.

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3703931#post3703931">Pressemitteilung</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1213774714">Folding@Home Client für NVIDIA-GPUs in der Beta-Phase</A></li><li><a href="http://dc.planet3dnow.de/wiki/index.php?title=Portal:Folding%40Home/Beschreibung">Was ist Folding@Home?</A></li><li><a href="http://dc.planet3dnow.de/wiki/index.php?title=Portal:Folding%40Home/Installation">Wie kann ich bei Folding@Home mitmachen?</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1174685584">PlayStation 3 lässt Rechenkapazität explodieren</A></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1211576078">Mehr Power für die Gravitationswellen- und Krankheitsforschung</A></li><li><a href="http://de.wikipedia.org/wiki/CUDA" TARGET="_blank">Compute Unified Device Architecture (CUDA)</A></li><li><a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=88">Folding@Home Forum bei Planet 3DNow!</A></li><li><a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing Foren bei Planet 3DNow!</A></li><li><a href="http://www.nvidia.com/object/cuda_learn_products.html" TARGET="_blank">CUDA kompatible Grafikkarten</a></li></ul>
 
Hätte nicht gedacht, dass nVIDIA ATi zahlenmäßig so weit abhängt. Dafür liegen beide Hersteller in der Leistung dicht beieinander (sogar erstaunlich dicht, de facto gleich auf): 9,10 CPUs/TFLOP ATi gegenüber 9,09 bei nVIDIA. Im Vergleich das "Rechenmonster" PS3: 35,47. Also weg mit den Konsolen - es ist für unser aller Gesundheit. 8) Böser Smiley! Rauchen ist noch schlimmer. ;)
 
Die ATI stinken gegen die NVIDIA so ab, weil der ATI-Client nicht so stark optimiert ist. Ich glaube, CUDA erzeugt allerdings auch weniger Overhead als CAL.
 
In Sicht auf die 4850/4870/X2 wäre es sinnvoll auch hier noch wieder was zu optimieren - in der reinen Rechenleistung dürfte eine 4870 X2 eine 280er vermutlich abhängen. Der Trend geht ja auch hier zu Multicore-Karten.
 
Die ATI stinken gegen die NVIDIA so ab, weil der ATI-Client nicht so stark optimiert ist. Ich glaube, CUDA erzeugt allerdings auch weniger Overhead als CAL.

Die stinken einzig und allein deswegen ab, weil es weniger sind - bei den Flops/Karte liegen beide gleichauf. Aus der Pressemitteilung:
ATI GPU

Current TFLOPS: 334
Active Processors: 3.032
Total Processors: 6.148

NVIDIA GPU

Current TFLOPS: 1.251
Active Processors: 11.370
Total Processors: 17.152
 
Wenn man es durchrechnet, kommt es tatsächlich erstaunlich gut hin. Allerdings bringen die ATI ein gutes Stück weniger Punkte, das ist zumindest die Erfahrung, die in unserem Folding-Forum gemacht wurde/wird.
 
.. GPU keinen Sinn Double-Precision Berechnungen anzustellen. Zudem ist der Befehlssatz der GPUs deutlich beschränkter, als bei einer CPU. ...


Zumindest dieser Punkt müsste doch mit dem GT200 Chip Geschichte sein?
 
Es scheint zumindest so:
http://www.3dcenter.org/artikel/was-bringt-uns-der-gt200 schrieb:
Der einzige Ausweg ist dann, von vornherein in höherer Genauigkeit zu rechnen. GT200 bietet dafür das Double-Precision-Format (kurz "Double") an, also 64 Bit pro Wert. Dieses Format ist (mit Ausnahme von Flags) vollständig nach der IEEE754-Spezifikation implementiert. Double gibts beim GT200 inklusive Denorms, obwohl man bei Verwendung von Double eigentlich nie in diesen Bereich gelangt. Im Gegensatz zu Single werden auch alle vier Rundungs-Modi nach IEEE754 unterstützt. Die Ausführungsgeschwindigkeit bei Verwendung des Double-Formats beträgt ein Achtel der Single-Leistung, da jedes Array (a 8 Single-Precision-SP) nur ein Double-Precision-Rechenwerk hat. Dieses bietet auch "nur" MAD (und kein zusätzliches MUL). Der GT200 kommt so insgesamt auf knapp 78 Gigaflop/s für Double – das ist sehr viel.

Wobei aber die 78 Gigaflop/s nicht mehr so exorbitant hoch sind wie bei Single Precision, wenn ich mich net irre. Und die pro Watt Leistung dürfte dann auch definitiv unter der einer CPU liegen. (geschätzt ! ich hab hier keine Daten)
 
Zuletzt bearbeitet:
Es gibt übrigens einen brandneuen Forceware (177.84) mit CUDA Unterstützung für die GeForce 8, 9 und 200 Serie.

Download
 
Im Vergleich das "Rechenmonster" PS3: 35,47. Also weg mit den Konsolen - es ist für unser aller Gesundheit. 8) Böser Smiley! Rauchen ist noch schlimmer. ;)

afaik wird bei der ps3 aber (noch) nicht die gpu eingesetzt
 
Welche Double-Precissions-Leistung hat den eine 4870? Ich glaube mal was von 200 GFlop/s gelesen zu haben...
 
Wenn man es durchrechnet, kommt es tatsächlich erstaunlich gut hin. Allerdings bringen die ATI ein gutes Stück weniger Punkte, das ist zumindest die Erfahrung, die in unserem Folding-Forum gemacht wurde/wird.
Die Frage, die sich mir dabei stellt, ist, warum das so ist?! Von der Rechenleistung liegen sie gleichauf, aber die NVIDIA-Grakas kriegen vier mal so hohe Credits gut geschrieben. Verstehe nicht so ganz, was das soll bzw. warum das so ist...
 
Ich kann es mir nur so erklären, dass für die Berechnung der erreichten FLOPS nicht nur die Operationen herangezogen werden, die direkt mit der Berechnung der WU zu tun haben, sondern auch diejenigen, die für die Verwaltung draufgehen. Der Overhead soll ja bei CAL, also bei ATI, um einiges höher sein als bei CUDA/NVIDIA.
Die Creditvergabe wird sich wohl nach dem richten, was hinten an nutzbaren Daten rauskommt. In die Berechnung der FLOPS fließt dagegen wohl alles ein, inklusive Overhead.
 
Die Frage, die sich mir dabei stellt, ist, warum das so ist?! Von der Rechenleistung liegen sie gleichauf, aber die NVIDIA-Grakas kriegen vier mal so hohe Credits gut geschrieben. Verstehe nicht so ganz, was das soll bzw. warum das so ist...
Guck mal ins F@H Forum:
http://foldingforum.org/viewtopic.php?f=51&t=4879&st=0&sk=t&sd=a

Hab den kurz überflogen, 2 Gründe hab ih auf die Schnelle gefunden:

1. Dicker Shadertaktvorteil von nV (~ 1 GHz)
2. nV WUs sind / waren größer und nutzten mehr Shader

ciao

Alex
 
Zurück
Oben Unten