GTX 980 oder GTX 970 SLI

Majohandro

Grand Admiral Special
Mitglied seit
08.06.2013
Beiträge
2.438
Renomée
24
Standort
NRW
  • BOINC Pentathlon 2014
Hallo Community,

Ich kann mich nicht entscheiden. Ich würde gerne mal wieder ne Runde aufrüsten da Ab Januar BF4,Farcry 4 Tomb Raider und Co anstehen. Da ich alles möglichst in Max Details auf 1440p spielen möchte kann ich mich gerade nicht entscheiden.

EVGA GTX 980 Hydro Copper

Oder

Gigabyte G1 Gaming GTX 970 Sli


Die 970er kosten mit wasserkühler 200 Euro mehr als die 980er. Dafür gibt es auch mehr Leistung.

Was meint ihr?

EDIT: Ich muss dazu sagen das die 980 HC schon ein Monster ist mit 1400 MHz GPU Clock. Da wird noch einiges gehen an boost Clock. Dazu kommt noch das mein G Sync Monitor sehr gute Arbeit macht.
Schwere Entscheidung
 
Zuletzt bearbeitet:
Ich kauf mir seit es PCI-E gibt immer mindestens 2 GraKa's (meisst unter Wasser).
Allerdings hätte ich in deinem Fall 2 980er verbaut, ergo die schnellsten der Generation.

Aber am Ende musst du entscheiden. Bei den 970ern in SLI hättest du quasi Microruckeln, aber wenn dich das nicht stört, greif zum SLI. Eventuell eliminiert ja sogar G-Sync einiges davon.

Zumindestens kann man ja mit einer Karte spielen und falls die Leistung nicht reicht, schalt einfach die andere dazu. So mach ich das jedenfalls. ;D
 
Mein Problem ist das ich nicht über 140 FPS kommen will damit G Sync optimal greift.

Auf youtube habe ich BF4 auf 1440 p mit 4 x MSAA und ner 980 1500 MHz gesehen. Die FPS lagen zwischen 80 und 110 was eigentlich ok ist. Da ich ohne MSAA Spiele weil es mit 1440 p nicht notwendig ist denke ich werden die FPS noch höher sein.

Und entweder ich nutze immer sli oder garnicht.

Die Entscheidung ist echt schwer muss ich sagen.
 
Das klingt ja interessant. Was macht denn G-Sync, wenn die FPS oberhalb der 140 ist?

Naja, mit dem SLI hättest du wenigstens die Option, die Leistung zu "halbieren", wenn du über 140 FPS kommst. Bei einer Einzelkarte wird das schwierig, wenn schon alle Filter auf Maximal sind. Da bleibt nur runtertakten.
 
G Sync läuft nur zwischen 30 und 144 FPS da die maximale Bildwiederholungsfrequenz bei dem Monitor bei 144 Hz liegt.

Der Monitor kann Imho nur im Bereich seiner Bildwiederholungsfrequenz synchronisieren. Wenn ich mehr als 144 FPS habe Laufe ich ins V Sync.

Ich muss sagen das ich keinen Unterschied zwischen 60-80-100-120-140 FPS wahrnehme. Der Monitor gibt ein Perfektes Bild aus. Wirklich genial.

Deswegen denke ich das eine 980er reichen wird. Ich hoffe ich kriege die EVGA auf mindestens 1500 MHz. Ob ich z.b in BF4 80 oder 100 FPS habe werde ich nicht merken denke ich.

Eine Karte ist einfacher zu kühlen und frist weniger. Obwohl das von meiner Wakü her kein Problem ist zwei Karten Silent zu kühlen.

Dazu List man viel von spulenfiepen bei den 970er.

Man man man;)
 
@Majo
Das klingt nach TS (Tomaten Scheibe) ;D
Die Referenz Karten sind wohl etwas eingeschränkt bei der Stromzufuhr mit 2x 6-Pin.
Die meisten custom Designs haben 2x 8-Pin, da kannst auch mal (2x) 300W Peak rein ballern!

Wenn es ein GTX970 SLI werden soll, dann eine mit zwei 8-Pin PCI-Express Buchsen, sonst brauchst mit Wakü gar nicht Anfangen.
1440p @ 140Hz ist schon dolle, ich glaube 2 Titanen bekommen das auch hin. ;)
 
@Majo
Das klingt nach TS (Tomaten Scheibe) ;D
Die Referenz Karten sind wohl etwas eingeschränkt bei der Stromzufuhr mit 2x 6-Pin.
Die meisten custom Designs haben 2x 8-Pin, da kannst auch mal (2x) 300W Peak rein ballern!

Wenn es ein GTX970 SLI werden soll, dann eine mit zwei 8-Pin PCI-Express Buchsen, sonst brauchst mit Wakü gar nicht Anfangen.
1440p @ 140Hz ist schon dolle, ich glaube 2 Titanen bekommen das auch hin. ;)


Was hat der Anschluss mit ner Wakü zu tun?

Bei mir kommt alles unter Wasser auch wenn es nur 5 Watt frist ;)

Tomaten Scheiben bekommst du beim Gemüse Händler *baeh*

Die EVGA Hydro Copper gefällt mir echt am besten. Auch wenn sie 800 Eier kostet und damit die Teuerste wäre. Da habe ich EVGA Garantie und nicht Caseking Garantie.

Das zwei Titan das auch hin bekommen weiß ich aber sie sind teurer.

Momentan steht es 60 zu 40 für die EVGA HC
 
Ich spiele BF4 mit 2x GTX 980 @ 1500/2000 und es reicht nicht, konstant 120 FPS in 1440p und Ultra auf den Schirm zu zaubern. Mag sein, dass es ohne MSAA locker reicht, allerdings glaube ich, dass du mit einer GTX 980 mit dem Rest auf Ultra hart an der Grenze sein wirst.

Deshalb würde ich persönlich bei deinen Anforderungen zu 2x 970 greifen.
 
Ich spiele BF4 mit 2x GTX 980 @ 1500/2000 und es reicht nicht, konstant 120 FPS in 1440p und Ultra auf den Schirm zu zaubern. Mag sein, dass es ohne MSAA locker reicht, allerdings glaube ich, dass du mit einer GTX 980 mit dem Rest auf Ultra hart an der Grenze sein wirst.

Deshalb würde ich persönlich bei deinen Anforderungen zu 2x 970 greifen.

Das ist ein Argument.

Kannst du mal testen wie sich zwei 980 ohne MSAA verhalten.
Und eine 980 mit und ohne MSAA.
Weil bei youtube gibt es Videos wo Leute mit einer 980 auf Ultra mit 4 x MSAA und 1440 p in Shanghai 80-100 FPS haben. Und die haben zum Teil schwächere CPUs als ich.

Ich wäre dir sehr dankbar dafür

--- Update ---

Ich werde wohl zwei Stück von den hier Ordern. Dann ein Wasserblock drunter und gut ist. ich hoffe 2x360er und 1x 120er reichen. Keine Lust noch den 240er einbauen zu müssen.

http://www.caseking.de/shop/catalog...ing-G1-Windforce-3X-4096-MB-GDDR5::29147.html

Aber erstmal wird Weihnachten genossen;)
 
Zuletzt bearbeitet:
Willst das so kurz vor GM200 und Fiji/Bermuda wirklich noch raushauen? Die Spiele sollen im Januar kommen kann gut sein das dann nicht viel später auch die neuen Karten aufschlagen. Die werden dann neben deutlich mehr Leistung vermutlich auch mehr VRAM haben. Ich habe keine Erfahrungen mit SLI aber ich lese bei einigen das ihnen dafür 4GB VRAM schon zu wenig sind.

Ich meine ich habe zwar auch eine 980 aber ich spiele meist genügsamere Spiele so das die für 1440p bei mir noch etwas länger reicht.
 
Das ist ein Argument.

Kannst du mal testen wie sich zwei 980 ohne MSAA verhalten.
Und eine 980 mit und ohne MSAA.
Weil bei youtube gibt es Videos wo Leute mit einer 980 auf Ultra mit 4 x MSAA und 1440 p in Shanghai 80-100 FPS haben. Und die haben zum Teil schwächere CPUs als ich.

Ich wäre dir sehr dankbar dafür

Ich schau am Wochenende mal, was ich tun kann.

Eine 980 auf Ultra, 4x MSAA und 1440p können durchaus 80 - 100 FPS haben. Aber a) nicht immer (bei Explosionen, Rauch und viel Staub wird das nicht klappen) und b) wohl nur dann, wenn es kein voller 64er Server ist. Aber ok, ich werd mir das mal anschauen...


Bezüglich VRAM: Zumindest für die von dir genannten Spiele BF4, Far Cry 4 und Tomb Raider (das 2013er) reichen 4 GB derzeit sehr wohl aus. Ich habe diese drei Spiele selber und spiele sie mit den 980ern ohne Probleme. Aber es stimmt schon, dass 4 GB mittlerweile grenzwertig sind. Ich würde jedenfalls keine Karte mehr mit weniger kaufen...
 
Willst das so kurz vor GM200 und Fiji/Bermuda wirklich noch raushauen? Die Spiele sollen im Januar kommen kann gut sein das dann nicht viel später auch die neuen Karten aufschlagen. Die werden dann neben deutlich mehr Leistung vermutlich auch mehr VRAM haben. Ich habe keine Erfahrungen mit SLI aber ich lese bei einigen das ihnen dafür 4GB VRAM schon zu wenig sind.

Ich meine ich habe zwar auch eine 980 aber ich spiele meist genügsamere Spiele so das die für 1440p bei mir noch etwas länger reicht.

Naja es geht mir ja auch ein bisschen um P/L. Ich behaupte mal das wenn eine Titan 2 kommen sollte die nicht mehr Leistung haben wird als zwei 970er. Die Titan Black ist auch nicht stärker als zwei 780er. Dazu kommt noch das ne Titan immer über 1000 Euro kosten wird.

Ein 970er SLI Gespann ist für mich interessanter als ein 980er SLI Gespann.

Eine AMD Karte kommt nicht in Frage. Das ist der Preis den ich zahlen muss wegen dem G Sync Monitor.

Aber ich gebe dir Recht. Man könnte warten und schauen was passiert. Wenn die Leistung nicht zufriedenstellend ist kann man ja immer noch 970er SLI kaufen. Eventuell fallen die Preise ein bisschen durch die GM 200er und die neuen AMD.

Wie gesagt für 1000 Euro bieten die 970er im SLI das beste P/L Verhältnis auch wenn die Titan 2 ein Knaller werden sollte. Denn wenn die Titan wirklich 50% mehr Leistung haben wird wie manche Leute munkeln wird sich Nvidia das teuer bezahlen lassen.;)

--- Update ---

Ich schau am Wochenende mal, was ich tun kann.

Danke
 
Eine Frage an die Experten.

Hat der User recht mit dem was er da geschrieben hat? Und trifft das eventuell auch bei mir ( mit G Sync und DSR ) mit SLI zu?


ZITAT

Sandy Bridge hat nur 2x PCIe2.0 mit je 8x Lanes. Die SLI Brücke wird unter normalen Umständen (kein G-Sync Monitor, kein DSR) den PCIe entlasten und damit wäre alles gut. Sobald aber DSR zum Einsatz kommen soll, wird der Framebuffertransfer auf den PCIe geschoben.

Und sobald der Transfer nicht mehr über die Brücke läuft, sondern über PCIe, verliert man richtig Leistung. Erst ab 2x PCIe3.0 mit 16 Lanes scheint es keinen Leistungsabfall mehr zu geben.
Davon wäre hier aber nur 1/4 der Bandbreite gegeben.

Es gibt noch ein weiteres Kriterium, wann dieses Problem entsteht: TXAA. Da läuft der FB Transfer ebenfalls nicht über die Brücke. Bei TXAA muss nicht nur der fertige Framebuffer übertragen werden sondern auch alle Subsamples. Der Bandbreitenbedarf steigt also um die Anzahl der verwendeten Samples. DSR ver-n-facht den Bandbreitenbedarf übrigens auch.

Wenn DSR/G-Sync/TXAA keine Rolle spielen, hast du dieses Problem nicht.

Generell kommen noch folgende Punkte hinzu:

- für mGPU (SLI/CF) brauchst du ein größeres Netzteil
- seit DX11 in Spielen Einzug hällt, gibt es immer mehr Probleme mit den SLI Profilen. Für immer mehr neue Spiele gibt es schlichtweg kein SLI Profil, welches fehlerfrei läuft. Tendenz fallend.
- SLI skaliert natürlich nicht linear. Man bekommt, wenn man ein Spiel spielt, welches mit SLI gut zusammenarbeitet ca +80 % mehr FPS (aber auch nur wenn man entweder 2x 16x PCIe 3.0 Lanes hat - also eine Sockel 2011 Plattform - oder aber weder G-Sync/DSR/TXAA benutzt - sonst nimmt der Zugewinn mit sinkender Bandbreite ab)
- durch prinzipbedingte AFR Frameverteilung fühlen sich bei SLI/CF die Frames nicht so flüssig an wie bei SGPU -> gefühlt hat man also ca. +50 % mehr fps

Die Frage am Ende ist, ob du wirklich bereit bist, den doppelten Preis zu zahlen, dafür dass du ca. +50% mehr gefühlte Leistung bekommst. Sofern das gewünschte Spiel es unterstützt.

Mit deiner aktuellen Plattform (Sandy Bridge) im Falle von DSR/G-Sync/TXAA ist der Zugewinn dann sicherlich eher bei gefühlten 30...40 %.

Ein Enthusiast läßt sich davon nicht abschrecken. Aber IMO sollte man das bedenken.
Ich habe im Sommer auch blind in ein Titan SLI System gekauft und habe mich total gewundert, wieviele Randbedingungen und Einschränkungen es bei SLI gibt.

IMO muss man schon ziemlich doll Enthusiast sein, um mGPU wirklich machen zu wollen. Die LastGen DX9 Zeiten, bei denen praktisch jedes Spiel ein SLI Profil hatte (war einfacher) und der gesamte Traffic über die SLI Brücke lief, sind vorbei.


------------------------------------

falls du dich fragst, warum bei DSR/G-Sync/TXAA der Traffic nicht mehr über die Brücke läuft: Die Brücke ist von 2004 und hat eine Bandbreite von 1 GiB/s. Das reicht aber für die erhöhten Datenmengen nicht mehr. Also schiebt man es auf den PCIe. Der ist aber erst mit 2x PCIe 3.0 16x wirklich schnell genug, damit es ihn gar nicht mehr juckt.
Man muss halt bedenken, dass da noch je nach Szene ordentlich Geometrielast auf dem PCIe liegt, der sich dann mit dem Framebuffertransfer "prügeln" muss.
 
Zuletzt bearbeitet:
Ja das stimmt größten Teils, ich denke nicht das die 2 x PCIe 3.0 x8 bei deiner Plattform groß bremsen aber gerade der Rest wird von vielen Usern bestätigt.
Aber du hattes doch mal ein CF Gespann im Einsatz - die meisten mGPU "Probleme" sind sich egal ob AMD oder nVidia ähnlich. Ich kann das aber nur
Mit der Grundlage von "mitlesen in Foren" schreiben. Ich habe mich bisher immer entschieden nur auf eine einzelne Grafikkarte zusetzen.

Ich würde mich bei 3DCenter mal um schauen im Forum, dort gibt es sehr viele mit SLI Erfahrung auch mit der aktuellen 9er Serie.
 
1440p@144FPS bei BF4 ... sag nur Mantle mit der Leistung von 980 in Verbindung mit Windows 8.1 oder Mantle und du könntest die Werte erreichen. Aber auf Shanghai kommt es auf die CPU an.

Wenn du 144FPS haben willst hättest du dir nen G-Sync Monitor sparen können. Bei AMD gibts aktuell nur ein negativ Punkt bei Crossfire mit 2x290x und das ist der Stromverbrauch.
Der Omega-Treiber mit seinen verbesserten Frame-Pacing etc ist sehr gut. Bin ja von 120Hz wieder auf 60Hz gewechselt und vermisse die 120 Hz nicht wirklich.

Hier gehts aber um NV SlI. Ich persönlich würde die eine 980 unter Wasser setzen und der feuer geben. Der Preis für 2x970+Wasser wäre mir zu fett.
Zumal die neuen Grafikkarten vor der Tür stehen würde ich es mir gerade Verkneifen hier noch Geld reinzupumpen. Wart mal auf AMDs 300 Serie ab und dann werden die Preise auch fallen.
 
Zuletzt bearbeitet:
Ja das stimmt größten Teils, ich denke nicht das die 2 x PCIe 3.0 x8 bei deiner Plattform groß bremsen aber gerade der Rest wird von vielen Usern bestätigt.
Aber du hattes doch mal ein CF Gespann im Einsatz - die meisten mGPU "Probleme" sind sich egal ob AMD oder nVidia ähnlich. Ich kann das aber nur
Mit der Grundlage von "mitlesen in Foren" schreiben. Ich habe mich bisher immer entschieden nur auf eine einzelne Grafikkarte zusetzen.

Ich würde mich bei 3DCenter mal um schauen im Forum, dort gibt es sehr viele mit SLI Erfahrung auch mit der aktuellen 9er Serie.

Das Zitat ist aus dem 3DCenter Forum;)

Und ich hatte zwei 280x im CFX und das lief super muss ich sagen. Ich weiß ja nicht wie die Unterschiede zwischen SLI und CFX sind. Ich glaube CFX skaliert ein bisschen besser aber wissen tue ich es nicht.

--- Update ---

1440p@144FPS bei BF4 ... sag nur Mantle mit der Leistung von 980 in Verbindung mit Windows 8.1 oder Mantle und du könntest die Werte erreichen. Aber auf Shanghai kommt es auf die CPU an.

Wenn du 144FPS haben willst hättest du dir nen G-Sync Monitor sparen können. Bei AMD gibts aktuell nur ein negativ Punkt bei Crossfire mit 2x290x und das ist der Stromverbrauch.
Der Omega-Treiber mit seinen verbesserten Frame-Pacing etc ist sehr gut. Bin ja von 120Hz wieder auf 60Hz gewechselt und vermisse die 120 Hz nicht wirklich.

Hier gehts aber um NV SlI. Ich persönlich würde die eine 980 unter Wasser setzen und der feuer geben. Der Preis für 2x970+Wasser wäre mir zu fett.
Zumal die neuen Grafikkarten vor der Tür stehen würde ich es mir gerade Verkneifen hier noch Geld reinzupumpen. Wart mal auf AMDs 300 Serie ab und dann werden die Preise auch fallen.

Hi tspoon

Also was ich bisher von den 970er im SLI in Bf4 gesehen habe war nicht schlecht. Die FPS sind echt gut gewesen.
Ich gebe dir natürlich recht das eine 980er mit OC reichen würde. Die EVGA Hydro Copper hat ja schon 1393 Mhz im Boost. Unter Wasser sind da 1500 Mhz+ sicher drin.

Die 980er Hc kostet 800 Euro und zwei 970er G1 Gaming mit Wasserblock 1000 Euro. Das zwei 970er mehr Leistung bringen sollte klar sein. Mein 4790K läuft auf 4,7 Ghz. Zur not wären auch 4,8-4,9 drin aber ich gehe ungern über 1,3 Volt.

Wenn das im SLI Probleme mit G Sync und DSR und so gibt werde ich die Finger davon lassen.

Ich denke über Weihnachten nochmal ein bisschen drüber nach ;)

EDIT: Gab es einen Grund wieso du von 120Hz auf 60Hz gewechselt bist. Normalerweise ist das anders rum ???
 
Zuletzt bearbeitet:
Mein 120Hz 3D Schirm ist kaputt gegangen. Hab jetzt 3x27" curved. Es gibt leider nicht soviel Bildschirme die AMD3D unterstützen. Einer von denen war mein alter Samsung.
Curved 3x27" waren dann doch sehr verführerisch. Dank AMDs neuen Treiber sind da 9600x1800 Pixel möglich. Da wirds aber mit 4GB-VRAM schon recht eng, bei BF4 auf Ultra inkl AA.

Wie gesagt wart mal die neuen AMDs ab, dann sollten die Preise von NV fallen. Aber die 1440p@144FPS wirst du auf Ultra mit 4AA nicht wirklich stabil erreichen. Dowmsampling im Spiel intern oder per Treiber auf 4K dürfte da mehr bringen und das Bild ist schärfer. Aber wie sich SLI und G-Sync verträgt darüber hab ich noch nicht viel gelesen.

So siehts bei mir aus. Die Grafikkarten können noch aber die CPU bei 64 Mann als Spec limitiert einfach, selbst bei Mantle. Die 3,5 Ghz stimmen aber nicht der läuft auf 4770k@4Ghz.
Wobei Spec nochmals lastiger ist als Ingame. Ich komme auf ca 100FPS stabil Ultra inkl AA. Explosionen etc stört Mantle überhaupt nicht, da werden die FPS stabil gehalten.

Wenn du wirklich Richtung 144FPs willst kommste, um nen SLI nicht drumrum. Die Frage ist obs dank G-Sync überhaupt nötig wäre, bzw wie hoch der Unterschied dann ist. Mehr FPS sind immer gut, aber zu welchen Preis.


p28b4ma6.jpg
 
Zuletzt bearbeitet:
@ tspoon.

Das Problem ist momentan das G Sync und SLI sich nicht vertragen. Also werde ich mir kein SLI zulegen.

G Sync skaliert sehr sehr gut. Auch mit 60 FPS kommt das Bild wirklich super rüber ( getestet BF3 und Warframe).

Auf Youtube gibt es Videos die zeigen das eine GTX 980 mit 2560x1440p noch ordentliche FPS liefert. Da ich Bf3 ohne MSAA aber mit FXAA spiele werde ich denke ich das in BF4 auch so machen.

Ich denke das G Sync und 80 FPS+ in BF4 für ein flüssiges und angenehmes spielen ausreichen.

Ich bin jetzt nur am Überlegen ob es eine

EVGA GTX 980 Hydro Cooper 799 Euro

oder

EVGA GTX 980 Superclock ( mit Wasserkühler) 730 Euro


werden soll.

Die Hydro Copper hat 40 Mhz mehr Takt und eine Backplate. Dazu ist der Wasserkühler schon drauf was im Garantiefall einfacher sein wird.

Ich muss mal schauen.
 
@tsponn
Hallo, was meinst du genau mit "Spec"?
Wie hast in dem Graph die "Frame" (orange) Linie hinbekommen ?

Hier gibt es ein paar Test zu BF4: http://www.hardwareluxx.de/index.ph...aterforce-3-way-sli-kit-im-test.html?start=14

Bei dem Test hier schaut es bei mir gut aus und es gibt keine störende Ruckler beim Händling : http://www.hardwareluxx.de/community/f153/offizieller-bf4-multiplayer-benchthread-1004193.html

Einstellungen: http://abload.de/img/screenshotwin32-0050xrln7.png
Auswertung: http://abload.de/img/bf4_altai_ftaebzha.png
 
Das es nicht so sehr die Grafikkarten limitieren ist sieht man hier so spiele ich :D

5760x1080 Utra 1110FPS allerdings ohne AA in diesem Fall, da ich sonst bei einigen Maps über 4GB VRAM kommen und dann wird es böse. 90-110 FPS sind aber je nach Map recht stabil. Mehr CPU-Takt wären gleich mehr FPS. Mit Ultra + 4xAA gehts dann Richtung 60 FPS, wenn der VRAM ausreicht.
tzu38mx8.jpg



Hier noch ne andere Map mit viel Weitblick 200% Downskaling Ingame Ultra ohne AA dürften 4k (3940x2160)? Bei mir ist es echt die CPU, hab auch schon überlegt einen 4790k zu holen und den 4770k zu verscherbeln.

Und wie gesagt bei Mantle ist es fast egal wieviel Spieler zu sehen sind oder welche Explosionen im Bild sind. Solange der VRAM ausreichend ist.

sqokzdtv.jpg


Spectator, da kannst du halt zuschauen ohne selber zu spielen. Das frisst aber mehr CPU.

user.cfg im BF4 C:\Program Files (x86)\Origin Games\Battlefield 4 Ordner:

GameTime.MaxVariableFps 200.000000PerfOverlay.DrawFps 1
PerfOverlay.DrawFrameGraph 1
PerfOverlay.DrawGraph 1
PerfOverlay.Enable 1
Render.DrawScreenInfo 1
Render.FieldOfView 90.000000
Render.FullscreenRefreshRate 120.000000
Render.MantleEnabled 1
Render.ResolutionHeight 1080
Render.ResolutionWidth 1920
RenderDevice.Dx11Dot1Enable 1
RenderDevice.Dx11Dot1RuntimeEnable 1
RenderDevice.Dx11Enable 1
RenderDevice.TripleBufferingEnable 1
Screenshot.Format png
WorldRender.DxDeferredCsPathEnable 1
WorldRender.SpotLightShadowmapResolution 1024
RenderDevice.FramePacingMethod 1
 
Zuletzt bearbeitet:
Ich habe am Wochenende wie versprochen mal ein paar Runden auf Shanghai gedreht. Dabei habe ich 2560x1440 und Ultra verwendet, habe aber AA komplett deaktiviert. Gemessen habe ich, indem ich die Frametimes mitgeloggt habe. Minimal habe ich 146.000 Frames mitgeloggt, maximal waren es 290.000. Ist also eine gute Basis. Ich habe jeweils einen Durchlauf mit einer GTX 980 und einen Durchlauf mit beiden GTX 980 im SLI gemacht. Die Karten liefen jeweils 1500/2000. Ich habe dann das schnellste und das langsamste Prozent rausgerechnet (können einzelne langsame Frames sein bzw. irgendwelche hohen FPS in Menüs).

Herausgekommen sind 80/110/175 FPS (min/avg/max) für eine GTX 980 und für beide zusammen waren es 100/152/208 FPS. Die absoluten Min-FPS (also ohne Herausrechnen des langsamsten Prozentes) bedeuten 28 Min-FPS für eine und 45 Min-FPS für zwei 980er.

Die Werte sind übrigens inklusive Levolution. Ohne den Einsturz des Hochhauses waren die FPS in einer Vergleichsmessung rund 5 FPS höher.

Damit lässt sich sagen, dass für Majohandro eigentlich eine GTX 980 ausreichen würde - vorausgesetzt, sie kommt Richtung 1500/2000 MHz und die CPU ist ausreichend stark. Und er verzichtet wie angekündigt bei 1440p komplett auf AA - dann kann der Rest auch auf Ultra stehen.



Bezüglich SLI generell und SLI mit dem ASUS ROG Swift im Speziellen:

SLI (Multi-GPU generell) ist keine Konfiguration, die man einbaut und dann nie wieder drüber nachdenken muss. Es gibt immer wieder Probleme, mit denen man leben muss. Zwar hat sich in den letzten ein, zwei Jahren deutlich etwas getan, von Perfektion sind wir aber noch weit entfernt.

Es gibt einige Spiele, die haben kein SLI-Profil und werden auch nie eins bekommen. So zum Beispiel Wolfenstein: The New Order, da es die Spiele-Engine nicht unterstützt. Und damit teilen alle Spiele, die die gleiche Engine nutzen, das gleiche Schicksal. Titanfall hatte imho zum Anfang auch kein SLI-Profil - wie das aktuell ist, weiß ich nicht. Und als MGPU-User hat man bei Spiele-Neuerscheinungen immer das Risiko, dass Anfangs MGPU nicht unterstützt wird. Meist wird nachgebessert, oft steht man zum Release aber ziemlich dumm da.

Betrachtet man SLI mit dem Swift im Speziellen, so hat diese Kombi auch einige Unzulänglichkeiten.

1. GSync und ULMB funktionieren nicht gemeinsam (das dürfte hardwarebedingt sein) - man muss sich also zwischen ULMB und GSync entscheiden
2. SLI und DSR funktionieren aktuell nicht (ein fix ist angekündigt) - User ohne Swift können diese Kombi nutzen, aber sobald der Swift angeschlossen ist, funktioniert es nicht (selbst wenn der Swift deaktiviert wird und ein zweiter Monitor zum Einsatz kommt)
3. GSync und SLI können unter Umständen Probleme bereiten (Stichwort Mikroruckler) - Hintergrund dürfte sein, dass GSync unter Umständen die Technik gegen Mikroruckler beeinflusst und das Glätten der Frametimes dadurch nicht mehr (so gut) funktioniert

Ich spiele Far Cry 4 mit GSync, BF4 mit 120 Hz ULMB. Das funktioniert beides super, wobei das in jedem anderen Spiel anders aussehen kann.

Hinzu kommen noch generelle Sachen mit dem GTX 980-SLI, welche nichts mit dem Swift zu tun haben.

1. NVs neue Kantenglättung MFAA funktioniert nicht im SLI
2. Der Launchtreiber zu Far Cry 4 hat im SLI eine Art Ghosting (das erste berechnete Bild bleibt wie eine Art Wasserzeichen auf dem Schirm) - Abhilfe schaffte nur ein älterer Treiber

Wie man sieht, ist SLI keine einfache Sache. Wer das eine will (mehr Leistung) muss das andere mögen (Konfigurationsprobleme, Treiberprobleme, Einschränkungen).



Ich hätte nicht gedacht, dass eine einzelne GTX 980 in 1440p und Ultra-Settings (bis auf AA) so gut in BF4 klarkommt. Da ich das jetzt weiß, möchte ich meine Empfehlung revidieren und ganz klar die 980 ins Spiel bringen. Die reicht für BF4 aus.

Für Far Cry 4 hingegen wird es aber nicht mehr zu den höchsten Einstellungen reichen. Da krebse ich mit SLI ja teilweise schon unter 80 FPS rum...
 
Ich bedanke mich bei dir Music das du dir die Mühe gemacht hast und es getestet hast.

Auf dem Desktop habe ich 120 Hz eingestellt damit die Graka im idle nicht hochranktet. ULMB ist auch aktiviert.

Wenn ich manchmal vergesse im Game auf 144hz zu stellen läuft G Sync trotz das ULMB aktive ist ( oder schaltet sich ULMB automatisch ab?)

Zur Graka

Ich möchte eine graka mit Fullcover Wasserkühler.

Ich habe die EVGA GTX Hydro Copper im Auge da sie von Haus aus mit 1393 MHz bostet.Ich denke das ist eine gute Voraussetzung und ich denke die wird mit 125% PT auf 1500 MHz+ gehen. Ich habe gelesene das die Karte nur mit erhöhtem PT schon mit 1450 MHz bosten soll.
Dazu kommt die Garantie der Karte. Da meine jetzige 780 Hc immer gut lief soll es wieder so eine werden.

Oder hast du einen anderen Vorschlag welche Karte man nehmen kann?
Für die EVGA Classified gibt es noch keinen Kühler.

Nochmal vielen Dank für deinen Aufwand das weiß ich zu schätzen.
 
Zuletzt bearbeitet:
Ich bedanke mich bei dir Music das du dir die Mühe gemacht hast und es getestet hast.

Keine Ursache. Ich werde dadurch ja auch nicht dümmer... :)



Auf dem Desktop habe ich 120 Hz eingestellt damit die Graka im idle nicht hochranktet. ULMB ist auch aktiviert.

Wenn ich manchmal vergesse im Game auf 144hz zu stellen läuft G Sync trotz das ULMB aktive ist ( oder schaltet sich ULMB automatisch ab?)

Sobald GSync aktiviert ist und eine 3D-Anwendung startet, schaltet ULMB ab. Das merkt man daran, dass das Bild dann heller wird. Geprüft werden kann es im Monitormenü unter System Setup -> Information. Da steht dann statt ULMB (Desktop) NVIDIA GSync (3D).



Zur Graka

Ich möchte eine graka mit Fullcover Wasserkühler.

Ich habe die EVGA GTX Hydro Copper im Auge da sie von Haus aus mit 1393 MHz bostet.Ich denke das ist eine gute Voraussetzung und ich denke die wird mit 125% PT auf 1500 MHz+ gehen. Ich habe gelesene das die Karte nur mit erhöhtem PT schon mit 1450 MHz bosten soll.
Dazu kommt die Garantie der Karte. Da meine jetzige 780 Hc immer gut lief soll es wieder so eine werden.

Oder hast du einen anderen Vorschlag welche Karte man nehmen kann?
Für die EVGA Classified gibt es noch keinen Kühler.

Nochmal vielen Dank für deinen Aufwand das weiß ich zu schätzen.

Ob nun 1450 oder 1500 - das macht den Kohl nicht fett und wird am grundsätzlichen Performance-Gefüge nichts ändern. Ob nun ein FPS mehr oder weniger merkt man eh nicht.

Du solltest in deine Kaufentscheidung einbeziehen: Garantie beim Kühlerwechsel (sofern noch nötig) und die Frage, ob du ggf. das BIOS flashen willst.

Mir ist es egal, ob ich beim Kühlerwechsel die Garantie verliere und/oder ob ich das BIOS flashen muss. Daher habe ich die billigsten 980er genommen, die ich bekommen konnte. Haben mich jede 500 Euro gekostet und dazu noch die Kühler, sodass ich mit 600 Euro pro Karte dabei war. Kühler habe ich dann selbst gewechselt und ein gemoddetes BIOS geflasht. Seither habe ich keinerlei Probleme bezüglich Power Target und die Karten rennen wie eine eins.

Wenn dir das ähnlich egal wäre, könntest du es billiger haben als mit einer EVGA. Und die Wahrscheinlichkeit, dass du 1500 MHz erreichst, ist die Gleiche wie bei EVGA. Denn den Chip selektiert niemand. Wenn, dann ist eine Custom-Lösung in Bezug auf die Spannungsversorgung besser.

EVGA hat einen guten Ruf in Bezug auf RMAs. Ich selbst habe schonmal ein Board getauscht bekommen, welches ich gebraucht in Spanien gekauft habe (es gab schlichtweg nirgends eins neu). Das Board kam bei mir an und hat keinen Piep von sich gegeben. Telefonisch mit EVGA Kontakt aufgenommen und die haben mir das Board innerhalb kürzester Zeit getauscht. Ähnlich kulant bzw. schnell soll es dort generell zugehen. Wenn dir Garantie also viel bedeutet, dann machst du mit EVGA nichts falsch.
 
Es gibt nicht für alle 980er Wasserkühler und eine Graka unter Luft kommt nicht in Frage.

In Sachen bios Flashen habe ich keine Ahnung und ein Risiko ist ja auch dabei.

Ich denke auch wenn die EVGA Hydro Copper 800 Eier kostet habe ich mit der Karte das rund um sorglos Paket.
Ich muss nichts umbauen und habe 5 Jahre Garantie von EVGA. Auch wenn ich beim übertakten was beschädige gibt EVGA trotzdem Gewährleistung. Ich denke das ich die HC nehmen werde.

Und wie du gesagt hast ob es nun 1450 oder 1500 MHz sind macht den Kohl auch nicht fett.

Momentan ist sie nicht Verfügbar. Ich hoffe das sie Anfang Januar wieder Verfügbar ist.

Vielleicht gibt es bis dahin ein Kühler für die Classified. Die hat zwei 8 Pin Anschlüsse und 1410 MHz. Die könnte ähnlich gepolt sein wie die Kingpin.

Gruß
 
Zuletzt bearbeitet:
Zurück
Oben Unten