Sind Nvidia Karten wirklich so grottenschlecht oder mach ich was falsch?

BekloppterAMI

Commander
Mitglied seit
16.04.2003
Beiträge
156
Renomée
1
Standort
Saarlouis
Hallo nochmal.

Da ees aus meiner Sicht höchste Zeit wurde die RadeonR7 250 in meinem System in Rente zu schicken, habe ich sie durch eine halbwegs aktuelle geforce GTX 970 ersetzt.

Beim Crunchen ist mir aufgefallen das bei Seti (in beiden Fällen Lunatics in der aktuellen Fassung) die ach so tolle Geforce GTX 970 der AMD/Ati Karte zu unterliegen scheint.

Brauchte die R7 per WU so um die 40 Minuten sind es jetzt 60-90 Minuten pro WU.

Das kann es doch nicht sein oder?

Da ich seit langem aus der Thematik draussen war bitte ich um Nachsicht falls es eine Blöde Frage war.
 
nVidia hat die Grafikkarten mittlerweile auf´s Spielen ausgerichtet, damit hat man Transistoren und Stromverbrauch eingespart, aber dafür die Leistung in anderen Gebieten reduziert.
Das dürfte dann wahrscheinlich dein Problem erklären, ich denke mal, das du mit einer RX 4xx von Amd glücklicher wirst.
 
Klar aber das es so krass ist hätte ich mir nicht gedacht...

Ich meine eine das eine Karte aus der Unterklasse die von AMD die Karte der oberen Mittelklasse von NVidia so alt aussehen lässt, zumal die R7 250 noch ein paar Generationen älter ist....

Hab in verschiedenen anderen Anwendungen (X11 Mining zum Beispiel) keinen nennenswerten Unterschied feststellen können, hier liegt sie mit der RX470 gleichauf (war genau 30 Minuten im Besitz einer RX470, die ist dann abgeraucht)
 
Zuletzt bearbeitet:
(war genau 30 Minuten im Besitz einer RX470, die ist dann abgeraucht)

Autsch

Klar aber das es so krass ist hätte ich mir nicht gedacht...

Hm, vielleicht ist tatsächlich noch was anderes im argen, mal sehen ob sich von den Spezialisten noch einer meldet.
Win neu installiert?
Nicht das irgendwelche Treiberleichen rumstänkern oder so.
 
Generell kann man sagen, dass sich die AMD Karten gut zum Rechnen eignen.
Aber es gibt durchaus Projekte in dem sich eine NV Karte besser schlägt als eine AMD.
Ich weiß nicht wie es sich bei Seti verhällt, aber das ist schon gut möglich.
Ich meine Einstein ist ein Projekt wo man sehr gut mit NV Karten arbeiten kann.
 
Es kommt auch drauf an, ob, wenn vorhanden, eine CUDA oder OpenCL App für Nvidia verwendet wird. Ersteres ist oft im Vorteil.
Das ist aber alles sehr vom Projekt und den Apps abhängig. Primegrid zb. stellt komplett auf OpenCL um. Und manchmal kann und sollte man auch mit Configs die Auslastung erhöhen.
Jedenfalls ist die GTX970 eigentlich eine gute Crunchkarte, wenn man sich mal überall durch die Stats klickt.

Aber Seti ist eigentlich eher NVidia-lastig (Lunatics bringt natürlich auch noch einiges).
 
Beim Crunchen ist mir aufgefallen das bei Seti (in beiden Fällen Lunatics in der aktuellen Fassung) die ach so tolle Geforce GTX 970 der AMD/Ati Karte zu unterliegen scheint.

Brauchte die R7 per WU so um die 40 Minuten sind es jetzt 60-90 Minuten pro WU.

Das kann es doch nicht sein oder?
Stimmt. Das kann nicht sein.
Mal abgesehen davon, dass die Laufzeiten von einigen Sekunden bis fast ner Stunde stufenlos variieren können, finde ich meine GTX970 ausreichend schnell.
http://setiathome.berkeley.edu/results.php?userid=396303&offset=0&show_names=0&state=4&appid= (jeweils 2 WUs gleichzeitig)
Unter Windows hat sie gut 20.000 Punkte am Tag geschafft, unter Linux ist es nun nicht mehr ganz so viel. Keine Ahnung, was AMD da so schafft.
 
Stimmt. Das kann nicht sein.
Mal abgesehen davon, dass die Laufzeiten von einigen Sekunden bis fast ner Stunde stufenlos variieren können, finde ich meine GTX970 ausreichend schnell.
http://setiathome.berkeley.edu/results.php?userid=396303&offset=0&show_names=0&state=4&appid= (jeweils 2 WUs gleichzeitig)
Unter Windows hat sie gut 20.000 Punkte am Tag geschafft, unter Linux ist es nun nicht mehr ganz so viel. Keine Ahnung, was AMD da so schafft.

Der Link ist tot, inzwischen hat es sich bei 30 Min pro WU eingependelt. wenn ich die app_info.xml umstelle auf 2WUs dann braucht er pro WU 1Stunde 15-30 Min
 
2016-10-10.pngok das ist ein anderes Thema, sind auch durch die Bank viel bessere Zeiten.
Und genau da möchte ich hin.

Hier mal Sysdaten:
CPU: 2*XEON E5420 (8 echte Kerne insgesamt,24 MB L2 Cache ingesamt)
Asus Geforce GTX 970 Strix OC Treiber 373.06
8GB DDR2 ECC Speicher (8 FBM Module mit je 1 GB, 333MHz)

Windows 10 Pro 64 Bit

Treiberleichen sind laut diversen Tools (Cleansweep etc) keine mehr vorhanden, konnte auch bei manueller Suche nichts finden.
Für Seti nutze ich die optimierten Lunatics Apps, habe beim Installer die Variante gewählt für die CUDA 5.0, war noch etwas vor Maxwell aber das höchste was der installer zu bieten hatte (ausgelegt lt. Installer für 6xx Generation der GF Karten oder höher).

Edit: Bild angefügt was GPU-Z dazu sagt
 
Zuletzt bearbeitet:
Moin,
wenn ich das richtig sehe wollen die nvidia etwas mehr CPU Zeit.
Immer wenn ein nvidia Wingmann schneller ist, hat er die selben Zeiten für GPU und CPU. (openCL Standard App?)

Ich nutze keine Lunatics, also das was einem Seti automatisch vergibt.
Die Laufzeiten sind sehr unterschiedlich, die längsten dauern bei mir 1500 Sekunden.

@BekloppterAMI
Was meint der Taskmanager zur CPU Auslastung, sind einzelnen Kerne bei 100% Last?
 
Alle 8 Kerne bei 100%
 
BekloppterAMI schrieb:
Da ees aus meiner Sicht höchste Zeit wurde die RadeonR7 250 in meinem System in Rente zu schicken, habe ich sie durch eine halbwegs aktuelle geforce GTX 970 ersetzt.
[...]
Da ich seit langem aus der Thematik draussen war bitte ich um Nachsicht falls es eine Blöde Frage war.
Als halbwegs aktuell würde ich die 970 nicht mehr bezeichnen, da der Treibersupport für die 900er-Reihe vor wenigen Monaten auf "Legacy" gestellt wurde. Damit ist Nvidias 900er-Serie (2014-15 veröffentlicht) gleichauf mit AMDs HD-6000-Serie (2010-11 veröffentlicht). Beide sind die zurzeit neuesten "Legacy"-Produktreihen.

Weißt du um die "Besonderheiten" der 970? Ist dir bekannt, dass etwa Amazon bis heute jede dort gekaufte 970 klaglos zurücknimmt - aus rechtlichen Gründen?

Anders gefragt: Hast du sie bewusst gekauft und wie viel hast du dafür bezahlt?
 
Alle 8 Kerne bei 100%
Ok, also wenn nur das Seti Projekt auf der GPU läuft hast du 100% auf allen Kernen?
Kann es sein, dass bei dir auch CPU Working Units laufen?
Wenn ja solltest die CPU WU Anzahl Begrenzen, damit der GPU was übrig bleibt von der CPU Zeit.
 
LordNord schrieb:
Ich meine Einstein ist ein Projekt wo man sehr gut mit NV Karten arbeiten kann.
Lohnt das noch ? Die Parkes haben sie auslaufen lassen und die großen Arecibos werden folgen (BRP4G/BRP6).



BekloppterAMI schrieb:
Für Seti nutze ich die optimierten Lunatics Apps, habe beim Installer die Variante gewählt für die CUDA 5.0,
Windhund schrieb:
@BekloppterAMI
Was meint der Taskmanager zur CPU Auslastung, sind einzelnen Kerne bei 100% Last?
Es wird mit Cuda gerechnet, da sind alle Kerne voll ausgelastet. Im Gegensatz zu Open.Cl wird kein freier Core für die Grafik benötigt. Für reine Cudanutzung werden die Lunatics gebraucht . Das System bleibt dann auch bedienbar. Bei Seti-Cpu-Nutzung können die Lunatics ebenfalls von Vorteil sein. Die Leistung der Gpu ist auch von der vorhandenen Cpu abhängig.

Zu Seti:
Die Workunits sind unterschiedlich lang. Die "Guppies" haben etwa die doppelte Berechnungsdauer und Auslastung im Vergleich zu den Arecibo Wus.

Veränderung der Anzahl der parallelen Wus auf der Gpu:
Die app_config ist besser händelbar und der Einsatz ist parallel zur app_info möglich.
Das optimale Setting darf der Nutzer selber ermitteln.

mögliche app_config.xml Seti/Nvidia/Cuda
<app_config>

<app>
<name>astropulse_v7</name>
<max_concurrent>1</max_concurrent>
<gpu_versions>
<gpu_usage>0.66</gpu_usage>
<cpu_usage>0.8</cpu_usage>
</gpu_versions>
</app>

<app>
<name>setiathome_v8</name>
<max_concurrent></max_concurrent>
<gpu_versions>
<gpu_usage>0.33</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>



</app_config>
 
Zuletzt bearbeitet:
@Pollux
Meine Werte beziehen sich auf openCL v8.8.12: http://abload.de/img/seti_opencl_fx-9370_pdeqpz.jpg
Die CPU usage ist ohne app_config bei 0,0548 für openCL!

Mit Process Lasso lässt sich die Last auf alle Kerne verteilen, gerade bei mehr als einer GPU ist das hilfreich. ;)
 
Als halbwegs aktuell würde ich die 970 nicht mehr bezeichnen, da der Treibersupport für die 900er-Reihe vor wenigen Monaten auf "Legacy" gestellt wurde. Damit ist Nvidias 900er-Serie (2014-15 veröffentlicht) gleichauf mit AMDs HD-6000-Serie (2010-11 veröffentlicht). Beide sind die zurzeit neuesten "Legacy"-Produktreihen.

Weißt du um die "Besonderheiten" der 970? Ist dir bekannt, dass etwa Amazon bis heute jede dort gekaufte 970 klaglos zurücknimmt - aus rechtlichen Gründen?

Anders gefragt: Hast du sie bewusst gekauft und wie viel hast du dafür bezahlt?

Hab sie mir bewusst gekauft, sollte vor Allem zum Mining und Crunchen verwendet werden. Nach meinem Glück mit der RadeonRX470 letzte Woche blieb AMD erstmal aussen vor.

Und ja die CPU´s sollen mitrechnen, der Umstand bremst Cuda Anwendungen nicht.
 
Hab sie mir bewusst gekauft, sollte vor Allem zum Mining und Crunchen verwendet werden. Nach meinem Glück mit der RadeonRX470 letzte Woche blieb AMD erstmal aussen vor.

Und ja die CPU´s sollen mitrechnen, der Umstand bremst Cuda Anwendungen nicht.
Wenn du Lunatics nutzt, dann sind das Optimierte Apps die mehr Ressourcen nutzen.
Sprich wenn alle Kerne mit CPU WUs beschäftigt sind, bleibt nicht viel für die GPUs übrig.
Es mag ja sein, dass sie weniger CPU Zeit als openCL benötigen, aber Speicherbandbreite vom RAM brauchen sie nach wie vor da führt kein Weg vorbei. ;)

Also mal ein Kern frei machen und schauen ob die Zeiten schneller werden, oder alle CPU Wus anhalten und schauen wie viel % die CPU Ausgelastet ist.
 
hab ich schon gemacht, kein Unterschied
 
hab ich schon gemacht, kein Unterschied
*buck*
Ok, dann wäre das mal ausgeschlossen.
Evt. ist es das Power Limit oder Temp Target der GPU.
Bei deinem GPUz Bild sieht man nur 49% TDP und deine SpeicherController Auslastung ist auch sehr gering (Im Vergleich zu MagicEyes Werte). *noahnung*
 
Zuletzt bearbeitet:
@BekloppterAMI
Hast Du deine rechner zur ansicht frei gegeben?
Wenn ja währe dein Account-name bei Seti mal hilfreich

@Windhund
Das GPUZpic zeigt eine GPU-Auslastung von 98% bei 1492MHz - also eigentlich alles was geht
 
User ID 7801309

Denke ich habe einen möglichen Grund entdeckt:
Der Rechner ist mit 8 FBDimms zu je ein GB ausgestattet (QuadChannel) also ingesammt 8GB, zufällig bemerkte ich gerade das davon plötzlich nur 6 erkannt werden und das System sich im Single Channel Modus befindet.

Konnte ein defektes Modul ausmachen. Leider war es nicht möglich mehr als 4 Dimms zu nutzen um Quad Channel wiederherzustellen.

Habs jetzt erledigt und krebse jetzt mit 4GB RAM rum. Geht aber wieder flotter. Andere FB Dimms sind bestellt. die kriegt man im Moment nachgeworfen.
 
Leider sind keine gültigen oder noch nicht validierten Aufgaben der GTX970 in Deinem Account zu finden. Also erst mal abwarten was nach dem RAM Tausch passiert.
 
@BekloppterAMI
Hast Du deine rechner zur ansicht frei gegeben?
Wenn ja währe dein Account-name bei Seti mal hilfreich

@Windhund
Das GPUZpic zeigt eine GPU-Auslastung von 98% bei 1492MHz - also eigentlich alles was geht
*great*

Ja die GPU Auslastung liegt bei 98%, aber die TDP nur bei 49,x%
Zudem sieht man konstant 60°C mit dem Afterburner kann man das Temp Target anheben.
Sieht aber doch mehr nach Speicherbandbreite aus, DDR2 ist jetzt nicht so stark dafür bei der Latenz schnell. ;D
 
Ist mir auch aufgefallen, steht seit einigen Tagen so fest.
AVG Credit im Boinc Manager steigt aber (derzeit ~2100, war gestern noch bei 1000)
Scheinbar haben die wieder Probleme mit der Datenbank, hab sowas auch gelesen, recht aktuell

--- Update ---

*great*

Ja die GPU Auslastung liegt bei 98%, aber die TDP nur bei 49,x%
Zudem sieht man konstant 60°C mit dem Afterburner kann man das Temp Target anheben.
Sieht aber doch mehr nach Speicherbandbreite aus, DDR2 ist jetzt nicht so stark dafür bei der Latenz schnell. ;D


hier noch mal GPU-Z
GPU.gif

Temp Target ist auf Max, genauso das Powerlimit.
 
Zuletzt bearbeitet:
Zurück
Oben Unten