nVidia GTX 970 hat ein Problem mit Speicherbelegung ab 3,x GB / geänderte Spezifikationen (Links in Post1)

Status
Für weitere Antworten geschlossen.
Ich wunderte mich gleich, als die den Ingenieuren mit Sicherheit von Anfang an bekannte Sachlage erst zwei Wochen nach einer Redaktionsanfrage veröffentlicht wurde. Meine Vermutung: Es ist wie damals bei den Anfragen zur (wie sich bald darauf zeigte) Direct-X-11.2-Mauschelei: Es steckt immer mehr dahinter.
 
Das wäre ab 3,328 GB (4096/16*13).(Bild ist von hier)

Und gehe ich vom Shader Verhältnis aus.....
13/16= 0,8125
4 GB * 0,8125 = 3,25 GB

Auch du wärst darauf gekommen wenn du die 3328 MB mit dem Faktor 1024 auf GB umgerechnet hättest....
 
@eratte: Endlich hat sich HT4U der "Problematik" angenommen und noch immer ist man nicht schlauer.

Womöglich liegt mehr im Busch, als bisher vermutet:
Im gleichen Atemzug gehen die Spekulationen um die Beschneidungen gegenüber der GTX 980 jedoch weiter. So wird in diesem Zusammenhang unter anderem der Level2-Cache genannt, welcher laut NVIDIA 2 MByte bei der GTX 970 betragen soll, laut Tools aber nur mit 1,75 MByte genutzt wird. Ebenso fallen Angaben hinsichtlich der Leistungsfähigkeit der ROPs auf. Die GeForce GTX 970 besitzt laut NVIDIA 64 Raster Operations Einheiten (ROPs). Leistungsmessungen sollen allerdings lediglich die Performance von 52 ROPs aufzeigen. Ebenso wird aktuell ein vollständiges 256 bit-Speicherinterface in Frage gestellt.
Wobei der Punkt mit der Breite des Speicherbusses Schwachsinn ist, denn bei einer Bestückung mit identischen DRAM Chips, müsste es ein 128-Bit Bus sein und das wäre aufgefallen. Der Sache mit der Leistungsfähigkeit der Raster Operation Units sollte man jedoch unbedingt nachgehen.

Andererseits heißt es weiter:
Doch muss man ebenso festhalten, dass die geschilderten Probleme nicht überall aufzutreten scheinen. Wir konnten beispielsweise unter Assassin's Creed Unity mit einer GTX 970 bei einer Belegung von 3,7 GByte Hauptspeicher die geschilderten Probleme nicht feststellen. Auch andere Kollegen zeigen sich von den geschilderten Problemen überrascht und konnten den Fehler bislang nicht nachstellen.
Gut möglich, dass wieder einmal die Gerüchteküche überkocht und die Suppe viel heißer gekocht, als gegessen wird.
 
nun ist es offiziell die 970 ist eine Mogelpackung
Den Guru3D Link gab es schon und das hinzugefügte Update #2 klingt mehr nach einem Dementi:
On a generic notice, I've been using and comparing games with both a 970 and 980 today, and quite honestly I can not really reproduce stutters or weird issues other then the normal stuff once you run out of graphics memory. (...) I have to state this though, the primary 3.5 GB partition on the GTX 970 with a 500MB slow secondary partition is a big miss from Nvidia, but mostly for not honestly communicating this.
Bei Golem gibt es übrigens eine Erklärung für die ROP Schwäche der GeForce GTX 970:
Nun leidet die Geforce GTX 970 unter zwei Problemen: Messwerte zeigen, dass die Pixelfüllrate nicht 64, sondern 52 Raster-Endstufen entspricht. Da Nvidia angibt, die geringere Anzahl an Shader-Blöcken sei Schuld, liegt die Vermutung nahe, dass bei der Maxwell-Architektur die Pixelfüllrate nicht durch die ROP- sondern die Shader-Einheiten begrenzt wird, ähnlich wie bei Fermi. (...) Jedem der 16 Shader-Blöcke des Maxwell-Chips GM204 sind vier Raster-Endstufen zugeordnet, die wahrscheinlich wie bei Fermi und Kepler per 128-Bit-Bus mit den Shader-Blöcken verbunden sind. Bei nur 13 statt 16 Blöcken werden die ROPs in ihrer Leistung limitiert - die entspricht dann besagten 52 Raster-Endstufen. Die zusätzlichen 12 vorhandenen ROPs machen sich nur bemerkbar, wenn hohe Kantenglättungsmodi aktiviert sind, etwa 8x MSAA.
Quelle: Link

Merkwürdig, dass nur manche GeForce GTX 970 stark betroffen sind und keine davon ihren Weg zu den professionellen Testern gefunden hat.
 
Aufschlussreich finde ich diesen Test bei Computerbase:
http://www.computerbase.de/bildstrecke/62716/1/

Dort bricht die Bandbreite bei über 3200 MB sehr deutlich ein, was in der Tat für eine zu direkte Anbindung der Shader sprechen würde, welche eine effektive Nutzung des Speichers verhindern würde.
Damit wären natürlich auch die ROPs hinter den deaktivierten Shader Blöcken relativ nutzlos weil sie von den Shadern nicht mehr mit Daten gefüttert werden können. Wäre es dann aber möglich das der an sonsten brach liegende Grafikspeicher nur noch für den Framebuffer und AA nutzbar wäre, Texturen usw. also vorzeitig in den Arbeitsspeicher ausgelagert werden müssen?
 
Eigentlich egal ob es jetzt schadet oder teilweise nicht stört,
Es ist mMn. ein Betrug am Kunden.


Aber viel interessanter finde ich wie NV das Totschweigen wollte,
denn der Abfall ist ja Technisch bedingt :]


(Das Argument NV wusste von nichts zieht hier nicht)
 
Zuletzt bearbeitet:
Merkwürdig, dass nur manche GeForce GTX 970 stark betroffen sind und keine davon ihren Weg zu den professionellen Testern gefunden hat.

Da gehen die Meinungen aber auseinander, andere (nicht Webseiten die sind noch vorsichtig) gehen davon aus das jede GTX 970 betroffen ist weil es Hardwaremässig bedingt ist.

nVidia spricht ja selber davon das alle GTX970 diese Speicheranbindung haben, in den Aussagen sind aber Wiedersprüche:

Die GeForce GTX 970 und das 3,x-GByte-Problem (au-ja)

Allerdings fällt auf, dass NVIDIAs Erklärung nur bedingt Sinn ergibt. Ein GeForce GTX 980 setzt sich aus 2.048 CUDA-Einheiten (64 SMs) zusammen, beim GeForce GTX 970 sind es 1.664 CUDA-Einheiten (52 SMs). Wenn wir jetzt den Grafikspeicher und die SMs miteinander ins Verhältnis setzen, reichen die CUDA-Einheiten des GeForce GTX 970 nur für 3.328 MByte aus. Demnach müsste die zweite Speicherpartition 768 MByte umfassen. Das passt dann wieder zu den Meldungen aus dem Forum, welche den Leistungseinbruch oberhalb von 3,2 GByte verorten.

Da sind noch diverse Fragen offen in der leidigen Geschichte. Auch die Reviewer müssen sich und ihre Testmethoden hinterfragen.

Das es zu Problem kommen kann ist aber eine Tatsache sonst wäre es garnicht erst aufgefallen und an das Licht gekommen. Erschwerend kommt noch dazu das der Treiber wohl alles tut den Verbrauch unter der Grenze zu halten.

MfG
 
Zuletzt bearbeitet:
Vielleicht ist es ja auch so das eine gewisse Variabilität bei dem Problem besteht denn wenn ich das Schema richtig interpretieren besitzt der Chip mehrere ROP Partitionen. Liegen die deaktivierten Shader Cluster günstig und betreffen jeweils nur eine ROP Partition dann könnte der bremsende Effekt deutlich geringer ausfallen als wenn alle 3 auf einer liegen. Es ist schließlich nicht unbedingt gesagt das die Anbindungen immer maximal belastet werden und somit hätte man im ersten Fall einen gewissen Pufferraum der den einen oder anderen Einbruch abfangen könnte.

Mal ganz abgesehen davon das nicht jeder den Speicher auslastet und den Effekt schon deshalb nicht zu Gesicht bekommt.
 
Ich finde die Fanbase von Nvidia erstaunlich,
es wird beschissen aber dennoch alles schöngeredet.

1) es fällt ja eh nicht sonderlich auf
2) alles in Ordnung armes Nvidia
---------------------------------------
Hätte es einen bewussten Betrug von Amd gegeben dann gingé es ja ganz anderst ab.
 
Wo wird etwas schön geredet? Betrug ist glaube das falsche Wort dafür, denn der Kunde bekommt ja immerhin eine Karte mit 4GB die auch nutzbar sind. Das rein technisch bedingt natürlich so ein Müll dabei herauskommt ist ein anderes Paar Schuhe.

btt:

Das mit den 3,2GB kann ich bestätigen, es fängt sogar schon eher an bei 2,94GB.

 
Wo wird etwas schön geredet? Betrug ist glaube das falsche Wort dafür, denn der Kunde bekommt ja immerhin eine Karte mit 4GB die auch nutzbar sind. Das rein technisch bedingt natürlich so ein Müll dabei herauskommt ist ein anderes Paar Schuhe.

Rechtlich ist das: Betrug seitens Nvidia/Hersteller, Täschung seitens dem Groß/Händler

NV gibt z.b. bei GK xyz an:
4GB mit 224GB/s angebunden a 256bit

In Wahrheit sind nur 3328MB mit 224GB/s angebunden und der Rest mit unter 20GB/s

Aber man kann sich das jetzt schönreden oder was auch immer,
Die Rechtliche Strafbarkeit ist erfüllt
 
Zuletzt bearbeitet:
@Zalpower: Ich habe selbst keine GeForce GTX 970 (sondern eine Radeon HD 7870) und bin daher nicht betroffen. Daher sehe ich es gelassen und meine man sollte erst einmal abwarten, wie sich die Sache entwickelt. Man weiß einfach zu wenig über dieses VRAM Anomalie, um ein abschließendes Urteil fällen zu können. Das einzig positive ist bisher, dass sich nVidia überhaupt zu Wort gemeldet hat. Die Konkurrenz hätte es wohl einfach ausgesessen. Trotzdem kam die Wortmeldung zu spät. Man hätte die VRAM Anomalie von Anfang an in den Tech Docs ansprechen sollen. Es hätte gereicht, wenn es im Kleindgedruckten gestanden hätte. Ich bin mir sicher, dass es niemand vom Kauf abgehalten hätte, denn selbst unter Berücksichtigung der VRAM Anomalie steht der GeForce GTX 970 mehr Speicher zu Verfügung als manch anderen Karten derselben Leistungsklasse, wie zum Beispiel der GeForce GTX 780 Ti aus der Generation "Kepler". Außerdem bleibt zu klären, ob nicht die "langsamen" 512MB des VRAM bei der GeForce GTX 970 immer noch weit mehr Durchsatz bieten, als wenn man erst über die PCIe Schnittstelle auf den an die CPU angebundenen Hauptspeicher zugreifen müsste. Da nVidia jedoch den Mantel des (Ver-)Schweigens über die VRAM Anomalie gebreitet hat, steht nun der Vorwurf der Verbrauchertäuschung im Raum. Das wäre leicht zu vermeiden gewesen. Vergleichen mit anderen Böcken, die AMD und nVidia geschossen haben, ist die VRAM Anomalie der GeForce GTX 970 schließlich vergleichsweise harmlos. Ich denke zum Beispiel an die Weise, wie der G80 Chip mit seinem VRAM umgegangen ist. nVidia hatte somit eigentlich gar keinen Grund die VRAM Anomalie der GeForce GTX 970 zu verheimlichen. Durch eine Dokumentation wäre nichts verloren gewesen und man hätte den derzeit am Ruf der "Maxwell" Generation entstehenden Schaden abwenden können. Ich bin jedenfalls gespannt, wie sich die Sache weiter entwickelt. Insbesondere, ob es endlich in einem Review gelingt die Nachladeruckler zu reproduzieren, über die Anwender berichten. Bevor nicht nachgewiesen ist, dass sich die VRAM Anomalie im 4K Spielealltag auswirkt, sollte man die (berechtigte) Aufregung zügeln. Außerdem sollte man nVidia die Möglichkeit geben über Treiberupdates an der "Problematik" zu feilen.
 
Das mit den 3,2GB kann ich bestätigen, es fängt sogar schon eher an bei 2,94GB.


Wäre es möglich, das mal mit einer kleineren Chunksize (32 oder 16MB) zu testen und in einem Diagramm aufzutragen?
 
Hübie verschone doch uns hier mit deinen Verteidigungspost, gerade deinen Hinweis mit den Grabenkämpfen kann ich nur als Ironie empfinden.

PC Gameshardware von HEUTE um 10:34

VRAM bei GTX 970: Nvidia klärt über 3,5-GiB-Problem auf (Update)

Wenns dir nicht passt scroll drüber aber ich werde sicher nicht zusehen wie Behauptungen ohne Grundlage aufgestellt werden. Ich verteidige niemanden (schon gar nicht nVidia), sondern lege Fakten da. Mehrere News-Seiten haben sich damit beschäftigt und es teils sogar schon zu Release untersucht.
Wie man auf dem Diagramm auch schön sehen kann sind die ROPs nicht von der Deaktivierung betroffen, aber das differgiert wohl mit der Wirklichkeit. Ich kann mir gut vorstellen dass es eine Verbindung zu constant registern auf der crossbar gibt, welche durch die Deaktivierung ja nicht ansprechbar sind und somit vielleicht den kompletten Logikblock lahm legen. Denn dies ist ein Punkt der sich von Kepler zu Maxwell geändert hat.

@sompe: Du musst 1024³*0,8125 rechnen ;) Das macht dann 3.489.660.928 ~ 3,5 GByte. ;)
Edit: MAL 4 RECHNEN
 
Zuletzt bearbeitet:
Du unterstellst anderen Lügen (nämlich mir) wo jeder nachlesen kann das die PC Gameshardware die Antwort auf ihre Anfrage erst Stunden nach meinem Post online gestellt hat. Das sollte man sich ein "Stimmt nicht" verkneifen.

Und das das Diagramm nicht die ganze Wahrheit darstellt haben ja nun genug Newsseiten geschrieben. Auch die Angaben in der Erklärung sind nicht durchgängig stimmig.

Ich verteidige niemanden (schon gar nicht nVidia), sondern lege Fakten da.

Sicher sicher, ist klar. Da sprechen deine Post im Megathread beim 3D Center aber lange Zeit eine andere Sprache.
 
Laut Usern führt es zu starken Nachladerucklern wenn die Grenze in Spielen überschritten wird - das kann man nicht in FPS umsetzen und erkennen. Die Presse hat sich da noch nicht ran getraut.

"Das stimmt nicht" bezieht sich ausschließlich auf diese Aussage. Nicht auf die Problematik!

Dachte das wäre im Kontext eindeutig genug. Und bitte zitiere mal meine Aussagen wo ich nVidia diesbezüglich verteidige :]
 
in Punkte "Nachladeruckler" stimmt die Aussage - das ist bis heute auf Userangaben begründet. Mir ist da nichts anderes bekannt bisher.

Kann man z.B. so auch bei Heise heute lesen:

Dann kann es passieren, dass Spiele unter bestimmten Bedingungen beginnen zu ruckeln – wie es Nutzer in verschiedenen Hardware-Foren feststellten.

Und genau auf diese Nachladeruckler bezog sich das.

Und bitte zitiere mal meine Aussagen wo ich nVidia diesbezüglich verteidige

Das werde ich bestimmt NICHT tun :)
 
Sagi T 754 schrieb:
Wo wird etwas schön geredet?
http://ht4u.net/forum/index.php/topic schrieb:
völliger von ATI fanboys kolportierter unsinn.

ich spiele auf meinem multimonitorsetup in einer auflösung die 98% der anwender gar nicht erreichen und habe keine leistungseinbrüche.

da soll mal einer einen beweis bringen den man nachvollziehen kann!
Nur so als Beispiel.


SPINA schrieb:
Das einzig positive ist bisher, dass sich nVidia überhaupt zu Wort gemeldet hat. Die Konkurrenz hätte es wohl einfach ausgesessen.
Wir haben keinen Fall, der dem aktuellen sehr nahe kommt, aber das z.B. lässt mich anderes vermuten: http://www.planet3dnow.de/cms/13217-richard-huddy-kein-directx-12-fuer-windows-7/
Statement --> Missverständnis --> Aufklärung innerhalb von 3 Tagen
 
Zuletzt bearbeitet:
Bei der Auflösung und mit der Karte spielt er eh in einem Bereich, wo er zwischen Ruckeln und Ruckeln nicht mehr unterscheiden kann ;)

Andernfalls ist die Qualität so weit runter geschraubt, dass der Speicher gar nicht voll wird.
 
Schau mal an, das ganze ist sogar 3-stufig und die 1. Grenze liegt wohl bei 3GB, die 2. bei 3,5GB..

Wenn du die Daten aus dem rechten Fenster rauskopierst, bastele ich mal ein Bild dazu.
 
Zuletzt bearbeitet:
Schau mal an, das ganze ist sogar 3-stufig und die 1. Grenze liegt wohl bei 3GB, die 2. bei 3,5GB...
Dazu müsste man wissen, ob der Monitor während der Messung abgeklemmt wurde. Andernfalls soll die Messung verfälschen werden.

Siehe dazu die Guru3D Meldung: Please disable AERO and preferably disconnect the monitor during the test.
Wir haben keinen Fall, der dem aktuellen sehr nahe kommt...
Hat AMD eigentlich etwas dazu verlauten lassen, dass ZeroCore Power nur mit DVI, aber nicht mit HDMI und DP, funktioniert?
 
Ja, dass es an der parallelen Audioübertragung liegt, die es bei DVI nicht gibt, und dass man optimistisch ist, es noch per Treiberveränderungen zu lösen.
Und so ist es gekommen. Oder hast du da noch Schwierigkeiten?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten