nVidia GTX 970 hat ein Problem mit Speicherbelegung ab 3,x GB / geänderte Spezifikationen (Links in Post1)

Status
Für weitere Antworten geschlossen.
dreh mal die auflösung hoch oder schaue es dir skaliert an. du zählst grad pixel bei 5K.




(..)

mfg
tobi
 
Muß das auf dem 2. Bild links oben so verzerrt aussehen und so als ob man vergessen hat, die rot-grün-3D-Brille aufzusetzen?
dreh mal die auflösung hoch oder schaue es dir skaliert an. du zählst grad pixel bei 5K.
(..)

mfg
tobi
Ich meine auch das stimmt was nicht, evt. liegt das Problem bei der Aspect Ratio 5K beinhaltet auch die 21:9 Monitore.
Woher hast du die Auflösung 5120x2880 ? Hast du ein Apple (Retina) Monitor?
Eigentlich sind es bei 16:9 = 5180x2880 : http://en.wikipedia.org/wiki/5K_resolution
Die Hersteller nehmen da aber gern ein paar Zeilen weg um die Ausbeute höher zu halten. ;)
 
die karte hat 4GiB VRAM. ich habe die kleinste 5K auflösung genommen, weil die nächsthöhere den speicher sprengt.

14du2c.jpg

294uqw.jpg


^das da war ein test :)

ihr kennt doch mein setup.. als würde ich freiwillig auf dem 28" UHD zocken (rechts im bild). reicht, dass ich es kann, wenn ich es mal möchte ;) und für tests mit bis zu 8K ist das schon recht nice.. meine anderen geräte bieten maximal 4K über downsampling / für spiele und aus performancesicht my choice.

bildschirm-setup2k1550bs1.jpg

140" 3D, 47" 3D, 28" UHD


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Junge, das Handydisplay rechts im Bild erkennt man ja kaum noch^^
 
@Tobi
Ja, bist eben ein Pfundskerl! ;D

Aber 8k sind nicht nicht genug! Vor einem Jahr hatte ich schon 9K :

unreal4_45mbtus29.jpg


Spätestens dann sollte es auch 8GByte HBM sein um nicht auf SPF zurück zu fallen. *chatt*
 
sorry, da krieg ich grad den bogen nicht.. *confused*

du hattest vor einem jahr sicher keine GTX970 mit kastriertem L2-cache und daraus resultierender achillesferse am letzten speicherchip?! oder worum gehts jetzt grad?! mir ging es jedenfalls darum zu sehen, wie sich ein GTAV spielt, wenn ich den VRAM dauerhaft im bereich zwischen 3,5 und 4,0GiB belaste. nach der mär im netz, hätte ich weit schlimmeres erwartet als ein "läuft doch".. ;) ja okee, ich hab mit dem läuft gerechnet. aber ich wollte es sehen.

btw,
von HBM erwarte ich mehr als 8GiB - deutlich mehr. eher so die richtung, dass eine 6 oder 12GiB titan mickrig wirkt, wie es heute eine 128MiB karte tut :) idealerweise mit 1TB/s angebunden und das bitte an einer zu der leistung passenden infrastruktur.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Tobi
Mensch, morgen ist Vater Tag, darauf wollte ich anspielen, nicht auf lost tooth! ;D

8Gbyte sind schon R9 390 Classified, CrossfireX mit 2x x16 PCIe e3.0 ist schon ordentlich.
5x8 wären 40Gbyte HBM, 10K sind welcome, 15k High-end_less....
 
Also nach den ganzen Schreckensmeldungen war ich ja zwischenzeitlich auch verunsichert, was die nähere Zukunft angeht, denn momentan habe ich keine Probleme. Und wie du mit GTA V sehr schön gezeigt hast, scheint das auch nicht wirklich ins Gewicht zu fallen. Aber das kann man ja auch bei dem ein oder anderen Test-Video bei YT schon sehen, dass der "krasse" Leistungseinbruch bei Belegung von mehr als 3,5 GiB wohl doch nicht so krass ist, wie es sich einige Leute offenbar wünschen.
 
..und der überaus gute eindruck geht mit dem witcher3 schon in die zweite runde. diesesmal sogar etwas deutlicher und mit einer leicht abgeschlagenen "letzten" grafikkarten-generation.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

btw,
und die gurke von PCGH läuft "nur" mit 1.3GHz.. meiner seine schafft 1.55GHz ;) tolles spielgefühl, das weiter dazu beiträgt, dass ich dem keplerkraftwerk nicht hinterher trauere.


(..)

mfg
tobi
 
Apropos The Witcher 3: AMD heult ja schon wieder rum, dass das Spiel mit ihren Karten so schlecht laufen würde, weil sie von nVidia benachteiligt würden: http://www.golem.de/news/sabotagevorwurf-witcher-3-streit-zwischen-amd-und-nvidia-1505-114195.html

Auf Arstechnica wirft ein Vertreter von AMD dem Konkurrenten Nvidia eine Art "Performance-Sabotage" mit den Algorithmen von Gameworks vor, insbesondere mit HBAO+ und Hairworks. AMD-Karten seien mit dem Fantasy-Rollenspiel wunderbar klargekommen - bis Nvidia vor rund zwei Monaten eine neue Fassung von Gameworks für das Spiel fertiggestellt habe.

Das technische Problem an sich ist alt: Die Grafikkarten von AMD kommen schlicht nicht mit dem tesselierten Hairworks-Haar zurecht, was zu Einbrüchen bei der Bildrate führt. Nvidia weist die Schuld von sich, und indirekt CD Projekt Red zu - die hätten mehr Arbeit in die Integration von Gameworks in ihr Spiel stecken müssen, damit die Besitzer von AMD-Karten eben keine Leistungseinbrüche haben.

Bei Project Cars ja letztens erst ein ähnliches Trauerspiel: http://www.golem.de/news/project-ca...-studios-muessen-nachbessern-1505-114172.html

Besitzer einer Radeon-Grafikkarte haben wenig Freude an Project Cars, denn die Bildrate liegt drastisch unter der von Geforce-Modellen. Die Slightly Mad Studios sehen die Schuld nicht bei sich, kennen das Problem aber genauso wie AMD seit Jahren - dennoch haben beide wenig getan.

Yo, total unkompliziert diese AMD Karten, nie Probleme. Man sieht's immer wieder. Sorry, musste sein. Also da erscheint mir das ach-so-schlimme Speicherproblem der GTX970 doch als das weitaus kleinere Problem.
 
Zuletzt bearbeitet:
Du meinst The Witcher 3, das auf einer 290 besser läuft als auf einer Geforce 780 Ti?

http://www.computerbase.de/2015-05/witcher-3-grafikkarten-test-benchmark-prozessoren-vergleich/

Und selbst mit Hairforce, die 290 noch gut mithalten kann?

Und wieso ist das Speicherproblem, das kleinere Problem? AMD kann nachbessern (was sie auch tun), wer lötet mir an eine 970, neue Datenleitungen?

Und bevor jetzt so ein Mist kommt von wegen AMD-Fanboy. Meine Kartenhistorie Voodoo 1, Voodoo 3 2000, Gefroce 4 Ti 4200, 5900 XT, 6800 LE, 7900 GS, 8800 GTS 320, 8800 GTS 512, GTX 260, GTX 560 Ti, dann eine 7950 und jetzt eine 280X. Ja man merkt, großer Fan von AMD. Oh und mein neuer Prozessor ist ein i5.
 
Zuletzt bearbeitet:
Du meinst The Witcher 3, das auf einer 290 besser läuft als auf einer Geforce 780 Ti?

http://www.computerbase.de/2015-05/witcher-3-grafikkarten-test-benchmark-prozessoren-vergleich/
Aber auch nur ohne Hairworks :] Wenn, dann will ich ein Spiel auch mit allen Features nutzen (in mindestens 1080p versteht sich). Außerdem sind das alles Bildwiederholraten, bei denen ich nicht von flüssigem Spielen reden würde. Selbst eine R9 290X OC, eine Grafikkarte, die über 400€ kostet, schafft gerade mal 28,2 fps im Schnitt (mit Hairworks). Also Geruckel und Einbrüche unter 20 fps. Einzig eine GTX 980 (40,2 fps) und eine GTX Titan X (49,0 fps) schaffen es, das Spiel mit höchsten Settings halbwegs flüssig darzustellen. Eine GTX 970 OC schafft mit 33,7 fps immerhin noch die magische 30-fps-Grenze.

Bei HairWorks gibt es dann einen großen Unterschied zwischen AMD- und Nvidia-Grafikkarten. Bereits die GeForce GTX 980 verliert deutlich an Performance. Auf die Hauptfigur angewandtes HairWorks kostet spürbare 17 Prozent Geschwindigkeit. Die Performance auf durchweg angewandtes HairWorks lässt sich aufgrund nicht identischer Szenen nicht sinnvoll messen. Sind keine Gegner mit Fell in Sicht, bleibt die Geschwindigkeit gleich. Das Pferd kostet dagegen nur minimal an Leistung.

Auf der Radeon R9 290X bricht die Leistung noch massiver ein. Satte 36 Prozent Frames verliert die AMD-Grafikkarte, rund doppelt so viel wie das Nvidia-Produkt. Laut Nvidia hängt das mit der deutlich höheren Tessellation-Leistung der Maxwell-Grafikkarten zusammen. AMD wiederum argumentiert, dass die Catalyst-Treiber nicht ordentlich auf GameWorks-Elemente optimiert werden können. Wo die Wahrheit genau liegt, ist unklar – wahrscheinlich irgendwo in der Mitte.

--- Update ---

Und wieso ist das Speicherproblem, das kleinere Problem? AMD kann nachbessern (was sie auch tun), wer lötet mir an eine 970, neue Datenleitungen?
Wozu genau sollte man sie denn ranlöten? Momentan sieht man ja bei allen möglichen Spielen immer wieder, dass das ach-so-große Speicherproblem der GTX 970 eher viel heiße Luft ist. In der Praxis sieht man davon noch nix. Inzwischen hat die GTX970 schon fast die 300€-Grenze erreicht (https://geizhals.de/palit-geforce-gtx-970-ne5x970014g2f-a1167957.html?hloc=de) und dafür bietet sie in der Praxis einfach nur ein unglaublich gutes Preis-Leistungs-Verhältnis. Angebliche Speicherproblematik hin oder her.
 
Zuletzt bearbeitet:
Ja ohne Hairworks. Was soll das Augenrollen? Auch eine 970 läuft damit nicht flüssig.

Ach in der Praxis war nichts? Also alles gelogen bei 3d-Center?
 
Ja ohne Hairworks. Was soll das Augenrollen? Auch eine 970 läuft damit nicht flüssig.
33,7 fps vs 28,2 fps sind immerhin knapp 20% mehr Leistung und zumindest über der magischen 30-fps-Grenze. Bei AMD ist das mit maximalen Settings und Hairworks praktisch ein Totalausfall. Steht ja in dem Test auch drin (siehe mein Edit oben).

Aber ja, auch die 33,7 fps wären mir persönlich nicht genug. Mit den The Witcher 3 Benchmarks ist für mich endgültig die Entscheidung gefallen, dass ich mir zu dem Spiel auch eine GTX980 kaufen werde. Momentan habe ich mit Dragon Age Inquisition noch genug zu tun. Aber sobald ich damit durch bin, werde ich mir mal TW3 und die GTX980 bestellen. Denn mit meiner ollen GTX670 möchte ich das Spiel nicht mehr spielen, wenn ich das so sehe.

Ach in der Praxis war nichts? Also alles gelogen bei 3d-Center?
Ich kenne die verschiedenen Tests zur GTX970, wurden ja hier auch schon verlinkt und diskutiert. Im Grunde alles Kritik auf hohem Niveau.
 
20 % sind nicht viel, vor allem nicht bei einer Technik, die der Konkurrent entwickelt hat. Mit Minimumfps zusammen, ist das nix. Da ärgere ich mich eher, das ich mir keine 290 gekauft habe, die ist bei The Witcher ausnahmsweise nicht mal 20% sondern 50 % schneller. Ich hoffe ja, dass neue Treiber sich um das Problem kümmern.


Jo hohes Niveau, so lange der Restspeicher nicht belastet wird, dann sacken die Frames aber ab.
 
Für mich klingt das ganze inzwischen nach 24 Seite bla bla bla ich rede mir nVida und AMD schön wie ich es brauche bla bla bla.

In meinen Augen könnte man den Thread mit der einzig geltenden Wahrheit dichtmachen, nämlich das sowohl eine AMD R9 290 / R9 290X und eine GTX 970 wirklich geile Karten sind, die das tun, was sie sollen...nämlich uns Nutzern Spaß beim Zocken bringen.

Ich kann nur dieses ganze Gejammere nicht mehr lesen. Wer sich eine GTX 970 kaufen will, soll sich eine kaufen. Ich bin als Verkäufer zumindest so ehrlich und frage den Kunden, ob er über das 3,5 GB + 512 MB "Problem" Bescheid weiß oder ob ich es ihm erklären soll.

Aber es gibt ja noch immer auch noch Leute, die behaupten, daß AMD Prozessoren laut sein sollen...wobei ein Prozessor selbst ja keine Geräusche ansich macht.
 
@FHen1979

Nun, wenn man sich ansieht was Nv mit current Gen -1 abzeiht mit nicht unterstützen, dann schau ich, dass ich Games nur noch auf internen GPU Zocke sei es Iris Pro/A10/Tegra/PS4/XBONE. Alles andere ist eh vergeblich, wobei besser wäre es gar nicht zu Gamen, dann kann auch keiner was sabotiere oder verpatzen.
 
*seuftz

Man kann auch jeden Versuch, die Diskussion zu entschärfen und die Gemüter zu beruhigen, im Keim ersticken...reicht ja nicht, daß das ganze schon über 24 Seiten so geht.

Gibt leider Nutzer, die sehen sich als "Anwälte" von nVidia oder AMD oder von Firma Schießmichtot und jede andere Meinung ist dann eh falsch. Würden mehr Leute so wie ich die goldene Mitte sehen und für sich das aussuchen, was in dem Moment für einen selbst die beste Option ist, wäre das egal.

Nur viele haben halt ihre eingeschränkte Sichtweise. Schade.

Aber egal. Bis irgendwann mal wieder, wenn ich durch Zufall mal wieder bei P3D reinstöber. Hat, wie ich schon sagte, so seine Gründe, warum ich kaum noch hier bin.
 
Zuletzt bearbeitet:
Naja, übertreib mal nicht. Hier wird gesittet diskutiert. Und die Vor- und Nachteile der Grafikkartenhersteller (zweifellos hat jeder seine Macken) wird man ja wohl sachlich diskutieren dürfen.

Genau wie du, kaufe auch ich die Grafikkarten, die meinen Bedürfnissen am ehesten entsprechen. Das war ganz früher nVidia (zu Zeiten der GeForce 1-3), dann viele Jahre ATI und seit ein paar Jahren wieder nVidia. Ich kaufe das, was für mich einfach problemloser ist und am ehesten meinen Anforderungen entspricht. Und da es hier um die GTX970 geht, musste ich einfach mal mit aktuellen Beispielen sagen, dass es da bei AMD Karten und aktuellen Spielen größere Probleme gibt.
 
Zuletzt bearbeitet:
Erstmal zu bis alle ihr Glas kalte Milch getrunken haben
 
*seuftz

Man kann auch jeden Versuch, die Diskussion zu entschärfen und die Gemüter zu beruhigen, im Keim ersticken...reicht ja nicht, daß das ganze schon über 24 Seiten so geht.

Gibt leider Nutzer, die sehen sich als "Anwälte" von nVidia oder AMD oder von Firma Schießmichtot und jede andere Meinung ist dann eh falsch. Würden mehr Leute so wie ich die goldene Mitte sehen und für sich das aussuchen, was in dem Moment für einen selbst die beste Option ist, wäre das egal.

Nur viele haben halt ihre eingeschränkte Sichtweise. Schade.

Aber egal. Bis irgendwann mal wieder, wenn ich durch Zufall mal wieder bei P3D reinstöber. Hat, wie ich schon sagte, so seine Gründe, warum ich kaum noch hier bin.

was du aber nicht am Forum festmachen solltest, lieber FHen_
Leute die zu viel Zeit haben und sich zu wichtig nehmen um über alles und jeden zu streiten wirst du überall finden. Und Leute mit spätpuppertärem Imponiergehabe um jede Ecke, da gilt des ultra-cool zu sein und Recht zu haben egal obs Sinn macht, stimmig ist oder sonstwas.

Kann dir nur mal zu nem müden Gähner raten, bei so was und dich entspannt zurückzulehnen und das ganze mal aus ner unbeteiligten Perspektive mit ner Tüte Popcorn zu genießen und zu belächeln.

Wobei das nicht heissen soll, das wir uns nur zurücklehnen und müde belächeln, keineswegs, denn wenns zu dolle wird, wirft auch mal wer die Kettensäge an ;)

LG
micha
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten