nVidia GTX 970 hat ein Problem mit Speicherbelegung ab 3,x GB / geänderte Spezifikationen (Links in Post1)

Status
Für weitere Antworten geschlossen.
Produkplazierungen sind wichtig, damit mit die Leser den "richtigen" Blick bekommen und für Themen sensibilisiert werden. Ist dir noch nie aufgefallen, dass Argumente nahezu beliebig sind? Heute haben wir Kepler, da ist Energieeffizienz das NonPlusUltra. Zu Fermi-Zeiten wollte davon niemand etwas wissen. Heute wird aus jedem Watt Mehrverbrauch ein Drama gemacht. Man muss die Dinger nur "richtig" testen, damit die Kundschaft auch zur richtigen Kaufentscheidung kommt. Und man muss den Eindruck haben, daß ohne dieses Feature nicht leben kann. Hätte nVidia Mantle, würde es auf jeder MustHave-Liste auftauchen. Da AMD das Kleingeld für umfangreiche Produkplazierungen fehlt, spielt soetwas auch keine Rolle.

Naja Sicher, z.b.

bei Fermi war die 580 das Beste, trotz massivem Verbrauch und nur 1,5GB,
Amd´s 6970 war Relativ Effizient wurde aber von diversen Seiten schlecht gemacht

Seit Kepler pinkeln sich die User von NV wegen jeden Watt in die Hose,
Aber, Aber NV verbraucht so wenig,
naja das NV Kepler in Sachen Compute total beschnitten hat, hatte keiner Seite was ausgemacht.
(@Cuda, Gtx 690 gleich schnell wie = sli gtx 465)
-------------------------------------------------------


BTW:
FCAT halte ich sowieso Bedenklich, da man sich an NV bindet
(auch wenn es korrekte werte Anzeigt)

Als Antwort kam nur "das bringt mir nichts". Dabei wäre es bei ihm im Grunde kein Problem aber will das hier nicht breittreten.

MfG

Tja da hat dein Freund nicht unrecht,
Denn du kannst für ihn kein Vorbild sein,
Hast ja selbst eine 980 bzw. Für ne Midrange Karte 500 gezahlt
 
Zuletzt bearbeitet:
der mitbewerb sollte den grad vorherrschenden shitstorm nutzen, um höhere marktdurchdingung zu erreichen. preise runter und etwas stärkeres virales marketing betreiben. wer weiss, ob derart gute chancen über eigene defizite hinwegzutäuschen wiederkommen. apropos wiederkommen, wer jetzt nicht gepennt hat, hat sich ein paar NV-aktien gesichert; die kurzzeitig um 5 scheine eingebrochen sind waren.



deckt sich mit meiner titan. da werden auch nicht mehr als 3.6GiB alloziert. hätte jetzt mit höherer texturdatenvorhaltung gerechnet (hab's ewig nicht gespielt). toll, dass das spiel so genügsam ist. müsste man mal schauen, ob das für sämtliche maps gilt; hab im SB eben nur einen beliebigen angeklickt, der nicht leer war; an 50 avg-frames mag ich mich aber nicht gewöhnen; da gehe ich lieber auf 1620p zurück.


(..)

mfg
tobi

Also ich muss sagen es läuft Flüssig mit G Sync.Ich muss zugeben das ich auch lieber 100+ an FPS auf dem Schirm habe. Wenn ich mal Zeit finde werde ich mal mehrer Maps testen unter 2160p mit 4x MSAA. Vielleicht kann ich noch was rausholen mit ein bisschen mehr OC. Mal schauen was da noch so geht. Mit 1440p läuft das rund auf Ultra mit 110 Fps AVG ohne MSAA :o
 
Bei den guru3d test würde mich mal interessieren ob die FPS noch weiterfalllen. Von Spielbar 45 auf <30 runter während der Messung ist schon hart, selbst bei Ultrasettings etc. Was mir allerdings bei den Diagrammen fehlt ist die Speicherauslastung im Verhältnis zu den Frametimes.

Hier mal nen Screen wo zumindest bei BF4+Mantle 4GB überschritten werden bei meinen 290x "Golf mit Oma" 64 Slot Server siehe Spoiler. Hab auch noch andere Screens von anderen Maps. 200% Upscaling = 4K + Ultrasettings + 4x AA sollten genügen.

Befehle für Frametimes etc:
PerfOverlay.DrawFps 1
PerfOverlay.DrawFrameGraph 1
PerfOverlay.DrawGraph 1

bf4_4k_ultra_4aau1u6w.jpg
 
Zuletzt bearbeitet:
Log doch einfach mal mit.

perfoverlay.frametimelogenable 1

Dazu im Hintergrund den VRAM Verlauf in einer csv loggen und dann übereinander legen.
 
Ein findiger Nutzer auf Guru3D hat nun den wahren Grund für das Stocken von Spielen bei Verwendung von GTX-970-Karten gefunden:
lantian schrieb:
I can bet you that those that report stuttering are using weak as amd cpu's and are blaming the gpu for that is actually their cpu's fault, fx chips are not meant for gaming and are not high end as some people would like to think
Es liegt gar nicht an Nvidias GTX-970-Karten, sondern an AMD-Prozessoren, selbst wenn gar keiner im PC steckt!
Quelle: http://www.guru3d.com/news-story/mi...ordor-geforce-gtx-970-vram-stress-test,2.html

[/Ende der Ironie]
 
Das gleiche Spiel gab es doch auch beim Grafikspeicher.
AMD hat mehr Grafikspeicher => wer brauch den schon? Texturen Mods und Co.? Wer macht schon sowas?
nvidia hat mehr Grafikspeicher => unabdingbar wegen Texturen Mods usw. .....auch wenn die entsprechende Karte ein vielfaches kostet wie seinerzeit bei der Titan.

Andere Beispiele wären dann noch der integrierte Audio Chip, DX11/Tesselation, SSAA oder auch recht aktuell das Downsampling.
 
Oder DirectX 10.1 oder DirectX 11.2.
 
Wie gesagt, da gibt es viele Beispiele, wobei ich mir nicht sicher bin ob nvidia jemals die DX10.1 Unterstützung brachte. Der 11.2 Support müßte aber beim Maxwell mit drin sein, es sei denn man nimmt es beim hardwareseitigen 11.3 Support wieder nicht ganz so genau.
 
eigentlich würde ich mich darauf beschränken wollen, dass das für nvidia ein 1a-pr-desaster ist. bin mal gespannt, welche "entschädigungen" nvidia seinen kunden anbietet. die meisten kiddies würden wahrscheinlich voll drauf abfahren, wenn nvidia denen einen "star citizen" gutschein unterjubelt.

aber bei so einigen postings ...

Ist dir noch nie aufgefallen, dass Argumente nahezu beliebig sind? Heute haben wir Kepler, da ist Energieeffizienz das NonPlusUltra. Zu Fermi-Zeiten wollte davon niemand etwas wissen. Heute wird aus jedem Watt Mehrverbrauch ein Drama gemacht. Man muss die Dinger nur "richtig" testen, damit die Kundschaft auch zur richtigen Kaufentscheidung kommt. Und man muss den Eindruck haben, daß ohne dieses Feature nicht leben kann. Hätte nVidia Mantle, würde es auf jeder MustHave-Liste auftauchen. Da AMD das Kleingeld für umfangreiche Produkplazierungen fehlt, spielt soetwas auch keine Rolle.
wie wurde denn seitens amd die energie-effizienz zelebriert, als man gegenüber intels prescott eindeutig im vorteil war?

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1146680923

heute sieht man das nicht mehr so genau und es wird jeder strohhalm (schwer nachvollziehbare teillast-messungen etc.) herangezogen, um amd in diesem punkt noch halbwegs konkurrenzfähig darstehen zu lassen.

Da AMD das Kleingeld für umfangreiche Produkplazierungen fehlt, spielt soetwas auch keine Rolle.
mir kommen gleich die tränen ... ;)

Was so viel wert ist, ist Nvidias Fähigkeit, dem Konsumenten einfach alles unterzujubeln - und ihn damit noch zu erfreuen. Das ist eine psychologische Anomalie, die nur sehr selten auftritt, vllt. noch bei Apple und Intel, in geringerem Maße bei Samsung, Sony und Microsoft.
fassen wir mal zusammen ... es gibt an der weltspitze zahlreiche konzerne, die es eindrucksvoll schaffen, offenbar aus scheiße gold zu machen (sorry für die wortwahl), während es nach betrachtung diverser stimmen augenscheinlich das privileg von amd zu sein scheint, aus gold scheiße zu machen.
 
Denn du kannst für ihn kein Vorbild sein,
Hast ja selbst eine 980 bzw. Für ne Midrange Karte 500 gezahlt

Ohne Hintergrundwissen sollte man nicht einen persönlichen Flame auf Basis eine Signatur starten, aber bin ich ja von dir gewohnt. EOD
 
@cruger
An der stelle sollten wir uns aber auch fragen was heutzutage realistischer ist. Das die CPU bei Teillast rumgammelt weil der Großteil der Kerne von der Software nicht genutzt wird oder dass das Ding auf Vollast läuft?
Problematisch ist an der Geschichte das es letztendlich doch um die Effizienz geht und der Strombedarf an sich nur ein Teilaspekt ist.
Ob beide Prozessoren nun bei gleicher Nutzung gleich viel fressen aber der eine langsamer ist oder der andere sparsamer ist aber beide bei voller Kernauslastung gleich schnell sind ist hierfür relativ egal. das Intels Prozessoren effizienter arbeiten bestreitet wohl auch keiner der Anwesenden nur lassen sie sich das auch sehr gut bezahlen wodurch der Vergleich nüchtern betrachtet ziemlicher Mumpitz ist. Welcher interessierte Kunde vergleicht schon ernsthaft 2 Prozessoren so unterschiedlicher Preisklassen?
 
@cruger
An der stelle sollten wir uns aber auch fragen was heutzutage realistischer ist. Das die CPU bei Teillast rumgammelt weil der Großteil der Kerne von der Software nicht genutzt wird oder dass das Ding auf Vollast läuft?
Problematisch ist an der Geschichte das es letztendlich doch um die Effizienz geht und der Strombedarf an sich nur ein Teilaspekt ist.
Ob beide Prozessoren nun bei gleicher Nutzung gleich viel fressen aber der eine langsamer ist oder der andere sparsamer ist aber beide bei voller Kernauslastung gleich schnell sind ist hierfür relativ egal. das Intels Prozessoren effizienter arbeiten bestreitet wohl auch keiner der Anwesenden nur lassen sie sich das auch sehr gut bezahlen wodurch der Vergleich nüchtern betrachtet ziemlicher Mumpitz ist. Welcher interessierte Kunde vergleicht schon ernsthaft 2 Prozessoren so unterschiedlicher Preisklassen?
das ist mir schon klar, war auch meinerseits sehr provokativ. nur ist es auch heute noch problematisch, realistische und nachvollziehbare teillast-szenarien zu konstruieren. egal, wie man es betrachtet, man muss immer den eindruck gewinnen, dass sich jeder gerade das szenario herauspickt, das die eigene position am besten untermauert. ist kein neues phänomen, nervt mich aber auch nach all den jahren immer wieder.
 
Ein findiger Nutzer auf Guru3D hat nun den wahren Grund für das Stocken von Spielen bei Verwendung von GTX-970-Karten gefunden:

Es liegt gar nicht an Nvidias GTX-970-Karten, sondern an AMD-Prozessoren, selbst wenn gar keiner im PC steckt!
Quelle: http://www.guru3d.com/news-story/mi...ordor-geforce-gtx-970-vram-stress-test,2.html

[/Ende der Ironie]
*rofl* Junge der ist Mutig! Er hat wohl noch nie die eigenen Frametimes gesehen.

Kann es vielleicht sein, dass der fehlende VRAM als dynamischer Speicher genutzt wird, welcher sich aber nicht auslesen lässt mit GPUz?
 
@ cruger
Jeder hat eben auch andere Ansprüche und mal ehrlich.....die CPU Architekturen mit ihren spezifischen Anforderungen könnten kaum unterschiedlicher sein.
Schauen wir uns doch nur mal 4 Typen der letzten CPU Generation an und vergleichen grob den A10, den FX-8, den i3 und den 4 kernigen i7 mit einander.

Die AMD Modelle haben bei gleicher Thread Zahl eine ähnliche Leistung bei der Nutzung aller Threads, sehen aber bei der Einzelkern Leistung keine Sonne. AMD konnte FMA3/4 als Pluspunkt für sich verbuchen, Intel die stärkere AVX einheit, wobei beides bis heute kaum bis nicht genutzt wird.
Dafür hinkt Intel bei der GPU Leistung deutlich hinterher wodurch der A10 bei der Nutzung der integrierten GPU teils Kreise um den i7 drehte, obwohl er nur einen Bruchteil kostete.

Bei solchen Vorraussetzungen hinkt eh jeder Vergleich.

@Sagi T 754
Etwas genauer bitte. :)
 
Obwohl ich die Maxwell Karten sehr gut finde und meine 980er echt Power unter der Haube hat und ich sehr zufrieden bin, muss ich sagen das Nvidia eine Lektion verdient hat das sich die Balken biegen.

Obwohl ich nicht davon betroffen bin ist das ne Schweinerei und man sollte Nvidia dafür die Ohren lang ziehen.

Für so eine Action muss es Konsequenzen geben.
 
Wieso reden hier eigentlich die Leute vom PR-Desaster?


Nvidia ist dick im OEM-Markt. Was wir denken kann denen scheiß egal sein, aber selbst wenn nicht. Der Tenor im Forum ist doch, aber ATI(ja das sagen viele immer noch und die beraten dann anderen beim PC-Kauf)/AMD ist doch noch viel viel viel viel viel viel schlechter.
 
Wieso reden hier eigentlich die Leute vom PR-Desaster?


Nvidia ist dick im OEM-Markt. Was wir denken kann denen scheiß egal sein, aber selbst wenn nicht. Der Tenor im Forum ist doch, aber ATI(ja das sagen viele immer noch und die beraten dann anderen beim PC-Kauf)/AMD ist doch noch viel viel viel viel viel viel schlechter.
das würde ich nicht unterschätzen. pr-desaster ist vielleicht bei der nächsten generation vergessen. aber es gibt länder, wo bei derartigen verbrauchertäuschungen gerne mal eine klagewelle losgetreten wird. natürlich nicht bei den braven deutschen ...

http://www.canadiannvidiasettlement.com/


btw, ein paar spam- und flame-postings wurden auf die müllhalde verfrachtet.
 
@cruger
nein mit Geld lässt sich auch der OEM Markt lenken, denke da nur an den mobilen Sektor(grafikchips die so warm wurden das sie sich selbst ausloteten ...) wo die oems nv in Regress genommen haben und trotzdem stecken alle diese oems immer noch zu sehr hohen Prozent werten nv Chips in die Notebooks, vergiss es einfach Geld regiert diese Welt / den Markt ...
 
mir kommen gleich die tränen ... ;)

Das sollte jetzt keine Mitleidswerbung für AMD sein, du Nase ;D

Ich wollte nur klar machen, dass man laufend versucht den Kunden einzureden was ihnen wichtig zu sein hat. AMD würde es vermutlich nicht anders machen, wenn sie die Mittel dazu hätten. Und hier sehe ich den eigentlichen Betrug! Dass die 500 MB Speicher nicht ordentlich angebunden sind, ist dagegen eher ein kleiner Fisch.
Die jüngere Generation ist eben noch leicht manipulierbar...

--- Update ---

Der Tenor im Forum ist doch, aber ATI(ja das sagen viele immer noch und die beraten dann anderen beim PC-Kauf)/AMD ist doch noch viel viel viel viel viel viel schlechter.

Noch! Ein schlechtes Image hat schon Sprengstoff. Sieh dir Microsoft mit Windows 8 an. Der arrogante Softwaregigant. Durch den aufgestauten Frust wurde das Produkt zu Tode gebasht, weil es anders war als seine Vorgänger. Bringt AMD im Frühjahr ein "wettbewerbsfähiges" Produkt, könnte der Frust auf nVidia zusätzlicher Treibstoff sein.
 
@cruger
nein mit Geld lässt sich auch der OEM Markt lenken, denke da nur an den mobilen Sektor(grafikchips die so warm wurden das sie sich selbst ausloteten ...) wo die oems nv in Regress genommen haben und trotzdem stecken alle diese oems immer noch zu sehr hohen Prozent werten nv Chips in die Notebooks, vergiss es einfach Geld regiert diese Welt / den Markt ...


Nicht verallgemeinern,
Samsung wäre ja in Sachen Geld-Geil ein gutes vorzeige Unternehmen,
Verbauen in deren Notebooks aber fast* nur Amd dediziert/Intel Igp egal ob EU oder Asien;)
(Modelle mit Nvidia, 2 EU, 3 Asien)
 
Zuletzt bearbeitet:
Bei einem Test mit den Frametimes stellt sich mir aber die Frage der Sinnhaftigkeit. :]

Interessant wäre ein Test mit Frametimes um die 10ms - 17ms und voller VRAM Belegung.

Hat jemand das Angebot von Roy bei Twitter gesehen? :D
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten