Rise of the Tomb Raider

@Tobi:

Ist wie beim Witcher, es gibt diverse Stellen im Spiel, wo die Performance böse einbricht. Daher war ich bei dem Game auf 1080p runter gegangen.

Aber dass es mit einer um 45% :-)o) übertakteten Titan X dauerhaft klappt mit den 1440p @60Hz, dürfte durchaus im Bereich des Möglichen liegen *buck*

Als grandios würde ich das allerdings nicht bezeichnen. Eigentlich ist das eher ein komplettes Armutszeugnis für die Spielebranche heutzutage, dass eine 700€ oder eine >1.000€ Grafikarte es Out-Of-The-Box nicht hinbekommen, solche Spiele zu wenigstens 95% in 1440p @60Hz flüssig darzustellen (bei max Details vesteht sich). Von der eigentlich auch schon teuren 500€-Klasse mal ganz zu schweigen :]
Ich finde das echt verdammt schwach, wenn man mal überlegt, wieviel Geld man für High-End Spieleleistung (heißt für mich mindestens 1440p, eigentlich schon eher 1620p in allen neuesten Spielen bei max Details - von 4K wagen wir mal garnicht zu träumen :]) heutzutage hinblättern soll.

Ist die Frage, woran es liegt. Ist es die schlampige Optimierung der Spielehersteller, oder hat nVidia mit seiner Marktmacht den Markt schon so beeinflusst, dass sie einfach viel mehr Geld für eine Grafikkarte verlangen können, als es früher der Fall war (relativ gesehen zur Performance jeweils aktueller Spiele).
 
Zuletzt bearbeitet:
Mit einer NVIDIA Pascal wird das Game vielleicht besser laufen :).

Eigentlich ist es doch immer so. Das Game ist auf Optik getrimmt statt einen Ausgleich aus Performance und Optik zu schaffen.

Aber ich muss sagen das bei solche Games G Sync eine sehr gute Hilfe ist. Wenn man die FPS ausblendet würde man nicht merken das es unter 60 FPS im Game sind.
 
falsche betrachtungsweise!

das spiel bringt doch alles mit, damit dieser "ausgleich" aus performance und optik selbst vom user an das jeweilige system vorgenommen werden kann. mehr als einen internen benchmark und die myriaden stellregler in den optionen sollte man nun wirklich nicht benötigen. ;)


(..)

mfg
tobi
 
Mal ne Frage, steht denn schon fest wann die angekündigte Optimierung für Radeons kommt?
An den Frameraten hat sich bei mir bisher so gut wie nichts geändert und auf meiner Nano läuft es immernoch recht hakelig.
Richtig heftig wird es mit der Nano bei UHD. Da kommt es regelmäßig zu Bildhängern und beim letzten Test sieht man auch noch sehr deutlich das im laufenden Test Bildinhalte nachgeladen werden....trotz langer Ladezeiten zwischen den Tests.
 
Um das Problem mit der stockenden Framerate ein wenig auszutesten habe ich mal geschaut ob die 4GB Grafikspeicher dafür verantwortlichs ein könnten und spassenshalber mal mit meinem Eyefinity Setup an der R9 290x verglichen.
Selbst mit zugeschaltetem Downsampling und einer daraus resultierenden Auflösung von 7680 x 1600 kam es nicht zu den besagten Bildhängern und die Auflösung legt bei deutlich mehr Bild Breite nochmal gute 50% auf UHD drauf.
 
Hmm, das ist krass. Ich sage ja schon länger, dass die 4GB bei so einer High-End Karte einfach zu wenig sind. Meine 6GB sind bei dem Game auch in 1080p komplett voll.

Wie ist das denn bei dir @Tobi? Genehmigt sich das Spiel die vollen 12 GB?
 
Nach ein paar weiteren Versuchen habe ich die Ursache gefunden und die lag mal eben ganz woanders. Indirekt war das Board daran schuld denn dem Spiel mangelte es offenbar an freiem RAM Speicher.
Meine Daddelkiste 16 GB und der im Wohnzimmer nur 8 GB RAM besitzt hatte ich testweise mal die Module von der Daddelkiste eingebaut und tada...die massiven Bildstocker waren weg und der Nachladeeffekt beim dritten Test deutlich gemildert. Also wieder den Speicher zurück getauscht und stockte es wieder. Bei einem Blick in die Systemeigenschaften sag ich das nur 6 der 8 GB verwendbar waren obwohl die GPU des A10 deaktiviert war.
Also ab ins BIOS, die GPU aktiviert, den zugeordneten Speicher auf 1 GB runtergesetzt, die GPU wieder deaktiviert, abgespeichert, gebootet und schon zeigte Windows an das 7 GB nutzbar wären. Trotz deaktivierter GPU gibt es also den zugeordneten Speicher nicht wieder frei.
Mit den 7 GB nutzbaren RAM lief der Bench deutliche besser, wobei das massive Nachladen beim letzten Test blieb.
 
Ah ok, dann ist ja gut. Das ist ja wirklich suboptimal, dass das Board den Ram nicht freigibt. Aber 16 GB sind ja ohnehin empfehlenswert für solche Speicher fressenden Spiele.
 
Ich bleibe bei dem Rechner erstmal bei den 8 GB und kümmere mich um den Speicher Ausbau wenn eine neues Mainboard rein kommt.
Für Tomb Raider sind die 4 GB beim UHD allerdings schon etwas zu knapp, das sieht man spätestens beim Nachladeeffekt im letzten Test.
Unterm Strich ist es aber ziemlich egal da die Framerate für ein entspanntes Spielen so oder so zu gering ist aber hier könnte ein Crossfire Test bei DX12 interessant sein. Bei DX12 soll es ja einen Modus geben wo die Karten zusammen an einem Bild arbeiten und sich so auch im Grafikspeicher ergänzen.

So nebenbei...der letzte Test profitiert von der hohen Auflösung mit Abstand am meisten da die viele Vegetation deutlich weniger zum Flimmern neigt.

Beim ersten Test kommt wiederum das Eyefinity Setup voll zur Geltung. :)
 
Zuletzt bearbeitet:
Jup, UHD ist mit einer einzelnen Karte sowieso nicht flüssig spielbar (sofern man flüssig als 60fps definiert).
 
Das sehe ich recht nüchtern.
Solange die Framerate für mich hoch genug ist um einen flüssigen Spielablauf zu haben ist es für mich flüssig.
Wieviel fps das nun sind ist mir da recht egal. 8)
 
Habe mal kurz Tomb Raider mit Dx12 laufen lassen.

Gleiche Einstellungen wie im Startpost und ich hatte zwischen 65 und 75 FPS. Wenn ich zeit habe teste ich das mal ausführlich. Aber der erste Eindruck war schonmal positiv.
 
Bei meinem Kurzversuch hatte ich eher den Eindruck gewonnen als wäre der DX12 Support mit der ganz heissen Nadel gestrickt worden da ich keine Entlastung der CPU feststellen konnte, eher das Gegenteil war der Fall.

Hier mal der Vergleich mit den 3 Bench Sequenzen. links DX11, rechts DX12:
Anhang anzeigen 34212

Gerade bei dem letzten Test im Wald Gebiet fiel sie bei der A10 - R9 Nano Kombi deutlich höher aus und führte in der Bench Sequenz zum massiven Bild fehlern durch Nachladeeffekte. Eines muss man dem DX12 Support aber lassen. Der Bildfluss fiel deutlich flüssiger aus.
 
Darauf habe ich jetzt nicht geachtet, wie die Auslastung aussieht. Habe das Game nur kurz gestartet und die FPS gesehen. Wenn ich am Weekend mal Zeit habe, teste ich das mal.
 
Das war mir bei meinen Tests der letzten Zeit aufgefallen und in dem Zusammenhang wundert mich dann auch der Leistungseinbruch der Radeons unter DX12 bei diversen Tests nicht mehr. *g*
 
Der afterburner läuft nicht mehr unter Dx12. Man man man. Gibt es ein update oder so?
 
Bei mir lief es. Das Bild hatte ich mit dem Snipping Tool geschossen.
Vielleicht benötigst du nur eine neuere Version?
 
Ich habe die Version 4.2.0 Keine Ahnung wieso das jetzt nicht mehr geht. Auch nach Neuinstallation geht es bei Tomb Raider nicht.
 
nimm hwinfo + rivatuner statistics server.


(..)

mfg
tobi
 
der thread hier ist ja steinalt ^^ aber ich hab mir vorhin mal das spiel gekauft. ok shadow ist mir noch zu teuer und ich hatte ja eh nur das tomb raider von 2013 gespielt und fand das sehr gut.

ok aber darum gehts erstmal nicht sondern um die grafikeinstellungen und eigentlich auch um den msi afterburner.
hab ja nur full hd aufgrund des tft's. nun hab ich die einstellungen alle auf maximum gemacht, bei AA auf SMAA gestellt. sieht auch alles sehr gut aus. zuerst hatte ich vsync und es bleibt ja auch auf 60 fps.
nun hab ich spassehalber mal vsync ausgemacht, exklusives vollbild an und es geht teils auf über 200 fps. ist das nun besser wenn man es so spielt ? mir gehts auch darum das die auslastung der grafikkarte dadurch echt auf maximum geht. und das nächste ist die cpu temperaturanzeige. ich hab keine ahnung wo der afterburner diese zahl her nimmt, aber es geht so auf 70 grad.
die temperatur allerdings mit HW monitor ausgelesen ist deutlich niedriger. wenn ich da clear mache, kurz reingehe ins spiel und mir der afterburner 71 grad anzeigt, dann kommt wenn ich zurückspringe bei HW Monitor 43 grad.

wieviel fps sind normal bei full hd und alles maximum und SMAA ?

mit diesem downsampling kenn ich mich nich aus, noch nie probiert. (ok einmal ohne erfolg auf der alten kiste ^^)


edit: hab jetzt wieder vsync drin. muss ja nicht sein das der sinnlos strom verballert ^^
 
Zuletzt bearbeitet:
Ja, lass einfach vsync an. 60fps sind absolut ausreichend (erst recht für so ein Spiel) und der PC bleibt natürlich auch kühler und leiser.

Ich selbst zocke auch alles auf einem 1080p Bildschirm (Fernseher) und nutze daher Downsampling. Wie das bei einer AMD Karte geht, weiß ich nicht, aber bei nVidia stelle ich im Treiber die verfügbaren Downsampling-Auflösungen und Glättung einmal ein und dann kann ich diese Auflösungen ganz normal in allen Spielen auswählen. Optisch bringt Downsampling eine Menge. 1440p oder 1620p Downsampling mit leichter Glättung sieht deutlich besser aus als natives 1080p.
 
Zuletzt bearbeitet:
wahrscheinlich werden meine fragen jetzt total offtopic ...

also ich hab erstmal überhaupt nach dem treiber gesucht ^^ ich komme schon nicht mit den globalen und den für die programme klar. wieso kann man anisotrope filterung anwendungsgesteuert einstellen, bei antialiasing fxaa beispielsweise aber nur aus oder an. heisst das wenn dort eingestellt ist : globale einstellung (aus) verwenden ...dann wird das im spiel selbst nicht verwendet ?

und wie ist das mit dem gforce experience. ich habs immer weggeklickt. es möchte gern installiert werden ^^. ist das so böse wie alle sagen ? ^^


das mit downsampling ist sicher DSR oder ? man kann dort ja bis 4 fach gehen.... ok ich probiers mal aus ;D und bei glättung ?
 
also ich hab erstmal überhaupt nach dem treiber gesucht ^^ ich komme schon nicht mit den globalen und den für die programme klar. wieso kann man anisotrope filterung anwendungsgesteuert einstellen, bei antialiasing fxaa beispielsweise aber nur aus oder an. heisst das wenn dort eingestellt ist : globale einstellung (aus) verwenden ...dann wird das im spiel selbst nicht verwendet ?
Also globale Einstellungen würde ich alles auf Standard lassen, evtl. verträgt sich sonst mal irgend ein Spiel nicht mit einer globalen Einstellung. Wenn ich dann z. B. mal alte Spiele zocken will, die kein anisotropes Filtering haben, stelle ich es speziell für das Spiel ein (man kann separate Einstellung für eine Anwendung bzw. eine exe Datei einstellen).
FXAA ist nur eine Art des AA, deswegen kann man das nur ein oder ausschalten. Aber AA wiederum kannst du global oder anwendungsgesteuert ein- oder ausschalten. Aber wie gesagt, lass das global lieber alles auf Standard und stell alles im Spiel ein.

und wie ist das mit dem gforce experience. ich habs immer weggeklickt. es möchte gern installiert werden ^^. ist das so böse wie alle sagen ? ^^
Hab ich bei mir runter geschmissen, ist komplett unnütz.

das mit downsampling ist sicher DSR oder ? man kann dort ja bis 4 fach gehen.... ok ich probiers mal aus ;D und bei glättung ?
Ja, Downsampling ist DSR (downsampling resolution). Ich habe alle Downsampling-Auflösungen bis 4x native Auflösung (also 4K-UHD bei einem Full-HD Bildschirm) freigeschaltet. Bei Glättung habe ich glaube ich 15% eingestellt. Aber probier's einfach mal aus, wie's dir am besten gefällt. Je höher die Glättung, desto weniger Treppchenbildung gibt es, also das Bild wird glatter, aber dafür etwas unschärfer.
 
Zuletzt bearbeitet:
danke:) ... hab das mit dem 4k mal gemacht. sieht wirklich schon sehr gut aus und deutlich ruhiger.

allerdings zappelt die 60 fps anzeige dann ab und zu doch mal einen hauch runter :P und ausserdem läuft die grafikkarte dann pausenlos bei über 90 %. da müsste ich mal das strommessgerät mit davorschalten ^^.

wenn ich dann bedenke man hätte jetzt wirklich einen 4k monitor ob dann die 2080ti mit dem 2950x tr überhaupt überall wenigstens die 60 fps schafft ? oder ist das runterrechnen nochmal aufwändiger als wie das reine berechnen wenn 4k nativ ist ? (ist ja alles auch in hinsicht auf nen anderen tft...)

das spiel selbst macht schon spass. nebenbei bemerkt, vielleicht ist es gut das der rechner noch im anderen zimmer steht... er heizt schon ganz ordentlich die luft auf *buck*.



und nochmal zum gforce experience.... was genau bewirkt das überhaupt ? ich muss gestehn ich weis nicht ob ich es installiert habe. es ist ein icon mit gforce experience auf dem desktop aber wenn ich draufklicke will er es halt erst installieren wobei ich nicht weis ob es da um eine komplette neue installation geht oder einfach nur das update auf eine neuere version.
 
Ja, das Runterrechnen kostet natürlich etwas Performance, aber ich denke, das wird nur minimal sein. Bei Konsolen ist das ja Standard.

GeForce Experience benachrichtigt dich z. B., wenn es einen neuen nVidia Treiber gibt und legt außerdem Profile für Spiele an mit spielespezifischen Settings. Das ist wohl mehr für Leute gedacht, die keine Ahnung von den Grafiksettings haben oder sich damit nicht befassen wollen, und dann einfach von GeForce Expirience die Spieleeinstellungen wählen lassen. Nur sind diese Settings oft suboptimal, also irrelevant für alle, die sich ihre Games selbst benutzerdefiniert einstellen wollen. Und ich muss auch nicht jeden neuesten nVidia Treiber immer sofort installieren. Außerdem musst du einen Account anlegen, um GeForce Experience nutzen zu können.
 
Zurück
Oben Unten