Lässt Stanford bald die Graka glühen?

TiKu

Administrator
Teammitglied
Mitglied seit
16.11.2001
Beiträge
21.665
Renomée
1.248
Standort
München
  • SIMAP Race
  • QMC Race
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2021
Nachdem in letzter Zeit Nachrichten über BOINC die Welt des Distributed Computing beherrschten, könnte bald die Universität Stanford mit ihrem Projekt Folding@Home für Aufsehen sorgen. Wie die Projektleitung verlauten ließ, arbeitet man an einem Core, der neben der brach liegenden CPU-Leistung auch die GPU der Grafikkarte für die Berechnungen nutzt. Immerhin sind NV40 und Co auf brachiale Fließkomma-Rechenleistung getrimmt.
Neu ist die Idee nicht unbedingt - entsprechende Vorschläge wurden schon des öfteren gemacht; jedoch waren die Grafikchips bisher für wissenschaftliche Berechnungen schlicht ungeeignet. Erst mit der durch PCI-Express gesteigerten Bandbreite und den letzten Chipgenerationen mit programmierbaren Shadern, die auch Schleifenkonstrukte unterstützen, ist das möglich geworden. Nach wie vor ist es aber alles andere als trivial, Grafikchips zum Erforschen von Proteinen zu "missbrauchen", deshalb wird es auch noch eine ganze Weile dauern bis Stanford den Core freigibt. Man arbeitet allerdings mit nVidia und ATI zusammen.
 
Nett...
Obwohl PCI-E wohl kaum der Hauptgrund sein wird.
Schließlich ist PCI-E auch "nur" doppelt so schnell wie AGP.
 
Jepp, bisher scheiterte es vor allem daran, dass die Chips nicht flexibel genug programmierbar waren. Aber die Bandbreite wird wohl auch eine Rolle spielen.
 
Hm ja dann können die Rechner dann ja bald die ganze Zeit durchglühen..! Nee also wirklich da wird ja wohl langsam auch immer mehr Strom verbraucht, wenn mehr und mehr Teile irgendwelche Sachen rechnen...
 
Dafür geht's aber auch schneller :P

Mal Spaß bei Seite, abgesehen davon ob jetzt DC-Projekte GPUs verwenden, sollten ATI und besonders nVidia mal über ihre Stromfresser nachdenken.
 
Original geschrieben von Koraktor
Nett...
Obwohl PCI-E wohl kaum der Hauptgrund sein wird.
Schließlich ist PCI-E auch "nur" doppelt so schnell wie AGP.
PCI-E ist so der einzige Grund! AGP besitzt zwar eine ordentliche Uplink-Geschwindigkeit, aber der Downlink ist zu langsam. Du mußt bedenken, daß Du die von der GPU berechneten Daten zurück in den Arbeitsspeicher des Rechners schicken mußt - und das verdammt nochmal oft. PCI-E bietet in beide Richtungen dieselbe Bandbreite. Das GROMACS-Team hatte schon mal mit den Leuten des Brook-GPU-Projektes zusammen an einer Umsetzung von GROMACS für GPUs gearbeitet. Damals hatten sie aufgrund von AGP leider nur 50% der Leistung der schnellsten verfügbaren Desktop-CPUs erreicht.

Ich hoffe, daß die GPU so bald wie möglich für molekulardynamische Berechnungen genutzt werden kann. Allerdings ist es schade, daß die Grafikkarten bisher nur 32bit floats unterstützen ... oder hat sich da was geändert?
 
Original geschrieben von Sargnagel
Ich hoffe, daß die GPU so bald wie möglich für molekulardynamische Berechnungen genutzt werden kann. Allerdings ist es schade, daß die Grafikkarten bisher nur 32bit floats unterstützen ... oder hat sich da was geändert?
Echt nur 32 Bit? Hätte ich nicht gedacht. Hmmm, kannst ja mal im CPU-Forum fragen. Auf P3DN gibt's ja doch ein paar Member mit einem enormen Wissen über Prozessorarchitektur.
Ansonsten wäre das mal eine gute Frage für einen Themenabend mit nVidia/ATI/Matrox.

/e: Im verlinkten Thread im Folding-Forum hat jmd. folgendes geschrieben:
The Nvidia GeForce FX series and new GeForce 6800 series support 32bit FP
Ob das stimmt, ist natürlich eine andere Frage.
 
Zuletzt bearbeitet:
Ich habe mal ein wenig nachgelesen. Bisher werden nur bis zu 32bit floats von Nvidia/ATI unterstützt. Das macht aber auch nichts, weil die meisten molekulardynamischen Berechnungen mit single precision floats auskommen. ;D
Es wäre schön, wenn Nvidia/ATI zukünftige GPUs auch im Hinblick auf wissenschaftliche Berechnungen entwickeln würden. Damit könnten sie sich einen neuen Markt erschließen. Anstelle von Rechner-Clustern kauft man dann GraKa-Cluster. ;)
Dann kann ich endlich die Anschaffung von für einen Arbeitsrechner völlig überdimensionierten Grafikkarten rechtfertigen. *lol*
 
Hmm...
Wurde GeForce 1 damals nicht auch schon GeForce256 genannt? Selbst die alten Voodoo-Karten hatten 128bit. Oder hat die Bitzahl da eine andere Bedeutung? Kenne mich mit den Innereien von GPUs nicht so gut aus.
 
Intel_hasser hat das im Thread zu 128Bit-CPUs mal etwas genauer beleuchtet. Bei CPUs steht die Bitzahl heutzutage idR für die Länge der Integer-Register. Bei Grakas wird dagegen ganz gerne das Speicherinterface herangezogen. Hatte die Voodoo schon ein 128 Bit Speicherinterface? *noahnung*

Hmmm, in dem Thread schreibt auch jmd., dass die 6800er Geforce mit 128 Bit Genauigkeit rechnet... Ich glaube, ich mache mal einen Thread zur Architektur von GPUs auf, von Prozessorarchitektur habe ich leider nicht so die Ahnung.

/e: Sodele, da isser.
 
Zuletzt bearbeitet:
Also meine erste 3D-Karte war eine Voodoo-Banshee (die erste richtige 2D/3D-Karte - heute sind ja alle so), die hatte 128bit. Der Chip basierte auf der Voodoo2, ob die Voodoo1 auch schon 128bit hatte, weiß ich nicht.
 
Die 32bit reichen für f@h aus, sonst könnten sie nicht mit SSE oder 3DNow! arbeiten. SETI@HOME benötigt 64bit.
 
Original geschrieben von Koraktor
Also meine erste 3D-Karte war eine Voodoo-Banshee (die erste richtige 2D/3D-Karte - heute sind ja alle so), die hatte 128bit. Der Chip basierte auf der Voodoo2, ob die Voodoo1 auch schon 128bit hatte, weiß ich nicht.
Diese Angaben (wie auch GeForce 256 bit usw.) sind eigentlich Marketing und beziehen sich oft herstellerunterschiedlich auf die in einem Takt verarbeiteten Pixel-, Textur-, Z-Buffer-Werte usw. Das ist heutzutage etwas eindeutiger mit der Angabe der Anzahl der Pixel- und Vertexpipelines usw.
 
Aktueller Stand der Dinge:
Der GPU-Client wird derzeit intern getestet und ist weitgehend fertiggestellt.
More info on GPUs in the coming weeks. We're doing internal testing, but most of the code is written.
*auf die nächsten Wochen gespannt bin*
Nach dieser Quelle werden ATIs ab der 9700 (per DirectX 9) und NVidias ab dem NV30 (per OpenGL) unterstützt. Das würde heißen, dass Besitzer einer ATI diese nur unter Windows für F@H nutzen können. So wie ATI Linux "supported" ist das aber verständlich.
 
"nur 50% der leistung der schnellsten desktopcpus" ?!

das ist doch mal fett, oder was. was erwarten die denn, das man normale cpus ums xfache versägt? warum machen amd und intel nich gleich den laden dicht und wir lassen alles von einer hochintegrierten southbridge berechnen? der trend geht doch dahin.

/hehe, rofl, da guckt man einmal weg, klickt ausversehen mit der maus irgendwohin, und findet sich in nem thread wieder, der total asbach ist und man hält ihn für neu

=)
 
Zuletzt bearbeitet:
GPUs sind spezielle Prozessoren, die bei bestimmten Arten von Fließkommaberechnungen sehr gut sind, sonst aber nicht viel können. Eine CPU ist dagegen ein Allrounder. Deshalb kannst Du CPUs nicht durch Grafikkarten ersetzen.
 
die alles entscheidene frage ist was machen die mobile user :P geht den auch eine mobile 9700 :P und die frage ist wieviel bringt das ????????


den wenn man sich fragt das in den potenten servern mit potenten cpus kaum eine potente graka sitzt fragt man sich doch wer dan den vorteil hat ?

potente server mit SLi ?
 
GPUs sind spezielle Prozessoren, die bei bestimmten Arten von Fließkommaberechnungen sehr gut sind, sonst aber nicht viel können. Eine CPU ist dagegen ein Allrounder. Deshalb kannst Du CPUs nicht durch Grafikkarten ersetzen.

mein reden, trotz massiver GPU Leistung, und immer mehr Transistoren bei den GPUs, aber ob es dann wirklich reicht, wage ich doch zu beweifeln...

und ob es auch was bringt...

mfg
Sir Ulli
 
Gibt es schon neue Infos über die GraKa Co-Prozessoren? Ab welchem Chipsatz lohnt sich das?
 
Es geht voran, aber halt ziemlich schleppend. Was die zu erwartende Performance angeht, habe ich diese Grafik gefunden:
20051006_folding.gif

Vijay Pande meint dazu allerdings, dass die bei diesem Benchmark berechnete Gromacs-WU eher untypisch ist. Insgesamt soll der Geschwindigkeitsvorteil der GPUs gegenüber den CPUs wohl noch eine ganze Ecke größer sein. Dass die 7800GTX gegenüber der X1800XT so abstinkt, soll am deutlich niedrigeren Takt liegen. Und wenn die ATI 512 MB hatte und die nVidia nur 256 MB, kann es auch daran liegen, dass die nVidia sehr viel häufiger auf den relativ langsamen RAM zugreifen musste.
Aber schön zu sehen, dass die Probleme mit ATI-Karten inzwischen wohl behoben sind.

Brauchbare Angaben darüber wann der Client nun rauskommt, habe ich leider nicht gefunden. Es ist übrigens nicht geplant, einen eigenen Client rauszubringen, sondern man wird die GPU optional (standardmäßig deaktiviert) zuschalten können.
 
Bin ja mal gespannt wann endlich der client raus kommt. Werden die wohl auch wieder einen client für Linux machen???
Was mich ein bißchen frustriert ist die Tatsache daß meine neue 7800GTX so "langsam" ist *abgelehnt
 
Ob das wohl noch lange dauert? Abwarten, auch wie dann die tatsächliche Performance ist!

OT: Warum habt Ihr alle so einen Knick in der F@H SIG-Grafik?
 
OT: Warum habt Ihr alle so einen Knick in der F@H SIG-Grafik?
Weil sich direkt über dem Bild die Trennlinie befindet, die die Signatur vom Beitrag trennt.
rudi821 schrieb:
Bin ja mal gespannt wann endlich der client raus kommt. Werden die wohl auch wieder einen client für Linux machen???
Ich denke mal, es wird keinen speziellen Client geben, sondern nur spezielle Cores. Und die sind für Windows und Linux doch eh gleich oder täusche ich mich da?
rudi821 schrieb:
Was mich ein bißchen frustriert ist die Tatsache daß meine neue 7800GTX so "langsam" ist *abgelehnt
Folding@Home ist kein Spiel. Bei Spielen kommt es auf die Gesamtarchitektur an (und da steht die 7800GTX meines Wissens sehr gut da), bei Folding@Home dagegen vor allem auf den Chiptakt. Außerdem ist ja nicht bekannt wieviel Speicher die verwendeten Karten hatten. Der Datentransfer zwischen System-RAM und Graka ist ziemlich langsam. Je mehr RAM auf der Graka sitzt, desto seltener muss mit dem System-RAM kommuniziert werden.
 
Folding@Home ist kein Spiel. Bei Spielen kommt es auf die Gesamtarchitektur an (und da steht die 7800GTX meines Wissens sehr gut da), bei Folding@Home dagegen vor allem auf den Chiptakt. Außerdem ist ja nicht bekannt wieviel Speicher die verwendeten Karten hatten. Der Datentransfer zwischen System-RAM und Graka ist ziemlich langsam. Je mehr RAM auf der Graka sitzt, desto seltener muss mit dem System-RAM kommuniziert werden.

Hm aber bei PCIe sollte da ja doch auch schon einiges an Bandbreite da sein...heisst das, dass man für gute Performance wohl schon ne 512MB Karte brauchen wird..?
 
Hm aber bei PCIe sollte da ja doch auch schon einiges an Bandbreite da sein...
Eine Festplatte ist verglichen mit einem Diskettenlaufwerk auch sehr schnell. Aber trotzdem bremsen häufige Festplattenzugriffe die CPU ein - der Geschwindigkeitsunterschied und auch die Latenz ist zu groß. Ähnlich ist es mit der Graka und dem System-RAM: Der Unterschied ist zu groß, die Graka muss bei Zugriffen auf den System-RAM relativ lange Däumchen drehen.
heisst das, dass man für gute Performance wohl schon ne 512MB Karte brauchen wird..?
Ich denke, es ist noch zu früh, sowas zu sagen. Ich vermute außerdem, dass 512MB-Karten keine Seltenheit mehr sind, wenn der Client bzw. der Core dann endlich rauskommt.
 
Zurück
Oben Unten