Ist GPGPU-Computing ein Argument für Dich eine NVIDIA-Grafikkarte zu kaufen?

Beeinflusst GPGPU-Computing via BOINC Dein Kaufverhalten bei Grafikkarten?

  • Ich habe mir deswegen bereits eine NVIDIA-Grafikkarte gekauft

    Stimmen: 31 8,5%
  • Ja, das wäre ein Grund für mich.

    Stimmen: 40 11,0%
  • Nein, nur wegen BOINC nicht.

    Stimmen: 219 60,2%
  • Nein, denn GPGPU-Computing ist für mich grundsätzlich irrelevant

    Stimmen: 56 15,4%
  • Was ist BOINC?

    Stimmen: 18 4,9%

  • Anzahl der Umfrageteilnehmer
    364

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Bisher waren starke High-End Grafikkarten im Endkunden-Markt nur etwas für Gamer. In den letzten Monaten jedoch hat sich viel auf dem Gebiet GPGPU-Computing getan, <b>G</b>eneral <b>P</b>urpose <b>G</b>raphics <b>P</b>rocessor <b>U</b>nit Computing, also allgemeine Berechnungen, die eigentlich eine CPU erledigen sollte, über die GPU laufen zu lassen. Vor allem NVIDIA mit seiner proprietären Schnittstelle namens CUDA legt hier derzeit ordentlich vor, während ATI bzw. AMD - auf die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1228820673">offene Schnittstelle OpenCL</a> wartend, die kürzlich vorgestellt wurde - noch eine Weile brauchen werden, um den verlorenen Boden wieder gut zu machen.

Fragt sich was ein Endanwender, der nicht spielt, mit der enormen Rechenleistung einer aktuellen GPU anfangen soll. Neben Video-Encoding gibt es nicht sehr viele für Endkunden relevante Einsatzgebiete, wo eine hohe Dauerleistung gefragt ist. Außer natürlich bei den <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing</a> Projekten wie SETI@Home, GPUGrid, Einstein@Home oder Folding@Home. Wenig überraschend haben sich just diese Projekte auf das Thema GPGPU-Computing gestürzt, um ihre Rechenleistung zu ver-x-fachen. Und noch weniger überraschend leistet NVIDIA fleißig Überstützung, um die Projekte zu "CUDA-fizieren", schließlich verspricht man sich so die Gunst der hundertausenden von Distributed-Computing Usern. Daher unsere Frage an die Leser:<ul><b><i>Ist der Umstand, dass Distributed Computing via BOINC derzeit nur mit einer NVIDIA-Grafikkarte möglich ist, ein Grund für Dich eine NVIDIA-Grafikkarte zu kaufen?</i></b></ul>Wir sind auf die Antworten gespannt.
 
Ja, für mich war es der Grund. Ich habe mir erst eine 9800GTX+ Karte gekauft. Da diese immer wieder Fehler zeigt bei GPUGRID habe ich die Karte dann durch eine GTX260² Karte ersetzt. Die hat dann knapp 300 € gekostet. Mir war es das wert. Aber es muss jeder für sich emntscheiden.
 
neee....
BOINC auf der GPU wäre zwar evtl. ein netter Nebeneffekt - aber da die Grafikkarten eh zu laut werden bei 100% Auslastung würde ich BOINC eh nicht drauf laufen lassen.

Eher gewünscht wäre ne OpenCL Unterstützung für zukünftiges Video-Encoding (bei mir Hobby) bzw. Effektberechnung. Und das werden beide Anbieter anbieten.

Bei mir läuft so nur der QuadCore mit WaKü. Da bleibts leise.
 
Auf der ewigen Suche nach mehr und effektiverer Rechenleistung definitiv ja, allerdings warte ich nach wie vor auf breitere Unterstuetzung und eine elegantere Umsetzung.
Da steckt noch einiges an Optimierungspotential drin.
 
Ich kaufe keine Nvidia-Karten mehr, Nvidias Geschäftspolitik
wird mir immer suspekter. Daher als Antwort auf die Frage: NEIN.

Da warte ich lieber bis ich GPGPU dank OpenCL auch
sinnvol auf Radeon-Karten nutzen kann.
 
cuda ist schon wieder geschichte, die zukunft gehört open-cl und dx11.

persönlich glaube ich eher an open-cl, da es eben nicht vista-bzw windows 7 abhängig ist, also auch unter xp läuft.
genau so unter linux und apple.
 
Grafikkarten sind bei der Rechenleistung pro Watt zwar vermutlich effizienter als CPUs, aber absolut gesehen verbrauchen sie mir zuviel Strom, deshalb ist Crunchen mit der GPU für mich irrelevant - egal ob AMD oder NVIDIA.
 
Ich installiere extra das neueste BOINC, melde mich bei dem Beta-Krams an, installiere CUDA-Treiber, installiere das neueste CUDA-Toolkit und -SDK (wenn ich schonmal dabei bin... vielleicht programmiere ich selber mal damit...), durchsuche stundenlang alle denkbaren Foren, probiere alles mögliche aus, nur um festzustellen, daß BOINC meine 8800 GTX anscheinend nicht mag (aber auch keine wirklich aussagekräftige Fehlermeldung von sich gibt, im Gegenteil, eine CUDA-fähige Grafikkarte wird sogar gefunden). Obwohl sie sogar in der vom BOINC-Projekt verlinkten Liste der CUDA-fähigen Grafikkarten aufgeführt ist!

Ne, is klar. :]

Mal ganz abgesehen davon, daß ich meinen PC nicht absichtlich 100W extra verbraten lasse... das kostet dann doch ganz schön...

- GPGPU ganz allgemein ist zwar interessant, aber es gibt keine sinnvolle Software für mich (bisher zumindest). Eine Portierung von x264 oder DivX auf CUDA wäre gut. Aber diese unsäglich schlechten Transcoder-Tools von ATI oder nievidia... neee...
 
[X]Nein, GPGPU ist zwar grundsätzlich interessant, aber entsprechende Software erwarte ich erst mit OpenCL (was die Herstellerwahl wieder ausschließt).

Finde die für mich passende Antwortmöglichkeit nicht.
 
Wenn die Entscheidung ansteht eine neue GPU zu kaufen wird das mit Sicherheit ein sehr wichtiges Kriterium. Nvidia werde ich hier auf absehbare Zeit favorisieren da ich nicht glaube das ATI hier in absehbarer Zeit aufschließen kann. OpenCL wird noch 12 Monate brauchen um Fahrt aufzunehmen.
 
Nein, gut finde ich dass mann ATI Karten zum XviD encoden nutzen kann jetzt, aber so ein Bionic/Seti blabla gedöns ist, kann und darf kein Argument zum Kauf sein. In erster Linie muss ein Produkt ja meine Ansprüche befriedigen. Eine Grafikkarte ist eine Grafikkarte und dat muss auch so bleiben.

mfg
 
Grafikkarten sind bei der Rechenleistung pro Watt zwar vermutlich effizienter als CPUs, aber absolut gesehen verbrauchen sie mir zuviel Strom, deshalb ist Crunchen mit der GPU für mich irrelevant - egal ob AMD oder NVIDIA.

Genau meine Meinung wenn auch schöner geschrieben ;D

Eigentlich fehlt aber noch nach dieser Antwortmöglichkeit:
"Ich habe mir deswegen bereits eine NVIDIA-Grafikkarte gekauft "
irgendwas wie:
"Ja aber ich warte auf eine ATI Karte."
^^
 
Kann man nur hoffen das die anderen Projekte auch mögl. schnell auf Cuda umsteigen. Die Leistung pro Watt des Gesamtsystems steigt ja schon sehr stark an. Zwar ist der Gesamtverbrauch deutlich höher aber dafür erhält man ja auch ein vielfaches an Durchsatz. :w_reden:
 
neee....
BOINC auf der GPU wäre zwar evtl. ein netter Nebeneffekt - aber da die Grafikkarten eh zu laut werden bei 100% Auslastung würde ich BOINC eh nicht drauf laufen lassen.

Eher gewünscht wäre ne OpenCL Unterstützung für zukünftiges Video-Encoding (bei mir Hobby) bzw. Effektberechnung. Und das werden beide Anbieter anbieten.

Bei mir läuft so nur der QuadCore mit WaKü. Da bleibts leise.

Das Argument "zu laut" scheint mir nur vorgeschoben zu sein. Es gibt entsprechende sehr leise Kühler, so dass die Karten nicht hörbar sind.
 
Ich denke die BOINC Projekte haben hier Torschlußpanik - keiner will der letzte sein, der Grafikkarten unterstützt, aber hier rein auf CUDA zu gehen ist ein Fehler in meinen Augen.

Eins ist ganz sicher:
CUDA ist bekannter als die AMD Implementierungen und bekommt auch weitaus mehr Marketing ab.

Die AMD Implementierungen sind dadurch aber nicht schlechter, obwohl sie in der Anzahl der Libraries momentan kleiner sind. Die Brook Nachkommen z.B. sind ja schon lange in Folding@Home integriert und 'relativ' einfach zu programmieren.

Meine Ansicht ist aufgrund der Entwicklungszeiten: Auf OpenCL warten ist die beste Alternative. Der Standard ist nun draussen und man kann anfangen zu programmieren. Wenn man nun anfängt eine wissenschaftliche Applikation zu porten, dann würde ich immer auf eine einheitliche Schnittstelle gehen. Wenn man nun zu CUDA geht, darf man in einem Jahr nochmal auf OpenCL wechseln.
 
Ich denke die BOINC Projekte haben hier Torschlußpanik - keiner will der letzte sein, der Grafikkarten unterstützt, aber hier rein auf CUDA zu gehen ist ein Fehler in meinen Augen.

:]

Cuda ist halt zurzeit am weitesten. Heißt ja nicht das auch in Zukunft nur darauf gesetzt wird. Spätestens wenn DirectX11 größere Verbreitung findet hat sich das mit Cuda und Stream eh erledigt.

PS: Ich habe gerade Seti über CUDA am laufen und es ist zurzeit noch fast unbrauchbar. Der Quadcore langweilit sich und trotzdem ist surfen nebenbei kaum möglich. Das ganze System verhält etwas träge. Hab mal noch Poem nebenbei am laufen damit der Quadcore wieder Arbeit bekommt. Hab somit jetzt 5 Tasks die gleichzeitig bearbeitet werden. :)

PPS: Pro Seti Workunit braucht er jetzt etwas unter 8 Minuten. ;)
 
Zuletzt bearbeitet:
Da ich kein Boinc mehr mache ist es für mich uninteressant. Momentan ist für mich ein Argument pro nvidia, dass die Linux-Treiber unkomplizierter sind bzw. die ATi-Treiber bei mir noch nie richtig gelaufen sind. Ausserdem ist bei meinem Zockverhalten PhysX ein Argument... Aber halt nicht Boinc, ich bin immer noch der Meinung, dass es nicht im Sinne des Erfinders ist, extra Rechner anzuschaffen und unnötig dafür laufen zu lassen :]
 
Auf jeden Fall ist es für mich ein Grund.

Da die beiden Hersteller im Moment eh sehr eng beieinander liegen (GTX260 216 vs. HD 4870 1GB) und jeder seine Schwächen hat (30€ teurer vs. idle Verbrauch), hat dieses Feature letztendlich den Ausschlag gegeben!
 
Da ich kein Boinc mehr mache ist es für mich uninteressant. Momentan ist für mich ein Argument pro nvidia, dass die Linux-Treiber unkomplizierter sind bzw. die ATi-Treiber bei mir noch nie richtig gelaufen sind. Ausserdem ist bei meinem Zockverhalten PhysX ein Argument... Aber halt nicht Boinc, ich bin immer noch der Meinung, dass es nicht im Sinne des Erfinders ist, extra Rechner anzuschaffen und unnötig dafür laufen zu lassen :]
Richtig, im Sinne des Erfinders ist es, die Idlezeit der CPUs/GPUs zu nutzen nicht mehr und nicht weniger.

Zum Thema: Ich kauf mir die Grafikkarte, die für mich das beste P/L Verhältnis hat - mit leichter Preferenz für NVidia (beim nächsten mal) wegen der Linuxtreiber. Wenn meine Graka nicht unterstützt wird - Pech läuft sie eben für FAH oder garnicht.
Auf Lange sicht wird es dank OpenCL egal sein und auf noch längere Sicht wird wohl NVidea aussterben, wenn Intel und AMD ihre Grafikkarten in die CPU integrieren.
 
Also ich schwöre eh auf nVidia, hatte deshalb auch eine 8800GTS in meinem System. Ich habe allerdings trotzdem "Das war bereits ein Grund" gewählt, da DC eines der großen Argumente war weshalb ich auf eine GTX 260 Black Edition von XFX umgestiegen bin.

Natürlich war auch das Spielen ein Grund, allerdings konnte meine 88er da ja auch noch gut mithupen ^^


Generell muss ich sagen das ich im gesamten mit den nVidia-Lösungen zufriedener bin. Besonders auch da nVidia meistens den richtigen Riecher hat was neue Technologien angeht. Mit CUDA haben sie das mal wieder bewiesen. =)
 
Hi,

also ich finde schon der Umstand das manche dieser Grafikmonster über 200 Watt verbraten als Grund genug sich nicht extra dafür eine neue Grafikkarte anzuschaffen.

Der löbliche Gedanke hinter Distributet Computing heist sicherlich nicht Ressourcen (in dem Fall Energie = Co2) verschwenden auf Teufel komm raus.

Solange zwar eine normale Multicore CPU "etwas" langsamer ist als eine Grafikkarte, aber dafür dann nur einen Bruchteil an Strom verbraucht, solange ist sowas einfach nur Ressourcen Verschwendung hoch 10:[
 
Wäre ganz klar auch mit ein Grund für eine NVidia Karte, wobei meine derzeitige 4850 von Ati bei F@H auch gute Dienste leistet. Vorher hatte ich eine 8800GTS-640... bin also irgendwie immer asynchron mit der GPGPU Entwicklung.
Früher ging F@H nur mit Ati ... ich hatte eine NVidia.
Jetzt läuft F@H auf NVidias schneller und Boinc ist derzeit Nvidia-only... ich habe eine Ati Karte.
Ich wette, wenn ich nun wieder auf NVidia umsteige, läuft DC auf Atis besser :w_traurig: .
 
Obwohl ich zur Zeit - aus purer Bequemlichkeit BOINC nicht installiert habe, vermisse ich bei einer Grafikkarte die Verlustleistung nach oben zu begrenzen...Einen Leistungsstarken Quad kann ich entweder sehr leicht untertakten im idle, oder aber BOINC anweisen nur einen Teil der vorhandenen Rechenkerne für die Berechnung zu verwenden..

BOINC ist für mich daher vorläufig auf den Quad beschränkt. Es reicht schon, wenn der Hauptrechner <> Produktivrechner 100 Watt im Idle benötigt, obwohl es theoretisch mit 50 Watt getan wäre....

Und mal ganz unabhängig von den Stromkosten, finde ich das alles momentan noch zu "unkomfortabel" bzgl Installation und Administration. Schon den F@H - Client so zu installieren, das er nmit mehreren Tasks (CPU + Grafik) läuft hat mich einiges an Recherche vor ~6 Monaten gekostet. Das ist es mir aktuell nicht wert...

Trotzdem finde ich es gut, dass es immerhin die Möglichkeiten gibt, und wenn dioe ganze Sache Anwenderfreundlicher umgesetzt wäre - durchaus eine Überlegung wert. Ob mit Nvidia oder ATI- Karten ist mir dabei relativ egal, da bei mir die Credits nicht im Vordergrund stehen. Es könnte aber bei kauf den Ausschlag in die eine oder andere Richtung bewirken...

Ich warte auf praktikable Anwendungsmöglichkeiten zum Videoencoden via GPU, das wäre kaufgrund Nr. 1 für eine schnelle Grafiklösung...

Daher "nein"...

Grüße!
 
Bin kein BOINCer, aber wenns wirklich mal für Sachen wie Videokonvertierung viel bringen würde, wärs ein Kaufargument für mich
 
Da mich Boinc herzlich wenig interessiert, andere Anwendungen auch ATI Karten nutzen welche bei mir Relevanter sind (z.B. Photoshop und Cad) ist das für mich kein Argument zu einer nVidia Karte zu greifen.
 
Zurück
Oben Unten