NVIDIA - Kepler

Naja man kann es sich doch einfach machen
es ist doch schon seit mehreren produkt-generationen so ... unterm strich es für spieler-typische auflösungen relativ wurscht, ob man zu amd oder nvidia greift. die performance der top-karten reichen so oder so. da kann man sich getrost an anderen kriterien wie verbrauch, lautstärke, featureset und vor allem am preis orientieren. ob eine karte nun irgendwo ein paar prozenzt schneller oder langsamer ist, interessiert unterm strich nur die nerds, die sich in foren wie diesen dann die "facts" um die ohren hauen. ;)
 
[...] ob eine karte nun irgendwo ein paar prozenzt schneller oder langsamer ist, interessiert unterm strich nur die nerds, die sich in foren wie diesen dann die "facts" um die ohren hauen. ;)
Oder sich im Geiste einen von der Palme wedeln wenn der eigene Favorit 2% besser ist ... *suspect* ;D
 
Naja man kann es sich doch einfach machen ;D "aus reiner spielersicht"
wer 3 monitore verwendet greift zu 2 7970er
wer 19**-25** auflösungen fährt kriegt mal mehr oder weniger paar frames mehr mit der gtx

Naja verstehe nicht falsch, ich finde die GTX 680 echt gelungen.
Nur ein bisschen mehr " Aha-Efekt" hätte ich mir gewünscht.
Und da ist der FPS-Limiter, der erwiesenermaßen Strom sparen kann, ein solcher Aa-Efekt.
Auch finde ich es cool, dass man einen vollen 4-Monitor-Support bei schon einer Karte hat.
Der Rest.. ist lala.. juhu10% schneller, wenn man ein bestimmtes Hardware-Level hat. juhu
(haben meine beiden Vorredner ja auch schon bestätigt)
Ich habe aber einen 30 Zöller, Apple hat "Retina-Displays" und die Fernseher ab nächstes Jahr 4k.
Und dann relativieren sich die ohnehin mageren % wieder schnell. Aber der Rest bleibt.
Gruß
 
Zuletzt bearbeitet:
Dann relativieren sich die 10% nicht nur sondern können sich ins Gegenteil drehen, da die GTX680 scheinbar ebenfalls unter der Schwäche bei hohen Auflösungen leidet und zum Teil deutlich einbricht. (vermutlich geht da der Grafikspeicher aus)
http://www.computerbase.de/artikel/...-nvidia-geforce-gtx-680/#abschnitt_einleitung

In einem review geht selten der vram aus aber mit mods und co schaft man sowas relativ leicht
deshalb bin ich ja für die 7970er ;)
 
@FredD

Wo hat Charlie von nem guten Preis-Leistungsverhältnis gesprochen. Er hat gesagt, dass GK104 so gut wie in allen Metriken die angesetzt werden, gewinnen würde, das hat er dann später etwas abgeschwächt.

Und dass GK104 bei 294mm² in gewissen Bereichen (Spiele) effizienter ist als Tahiti bei 365mm², heißt ja nicht, dass Nvidia diesen theoretischen Kostenvorteil in der Fertigung dann auch an die Kunden weitergeben muss und wird.


@Duplex

Ich finde du könntest mal ein wenig herunterkommen, dass die 680 GTX eine gute und effiziente Karte für Spiele ist, wissen wir jetzt. Dafür gibt es in anderen Bereichen tradeoffs, die du ja offensichtlich gerne verschweigst.

Auf jeden Fall ist das Bild nicht so schwarz und weiß, wie du es als notorischer fanboy gerade zeichnest, die HD7970 hat weiterhin ihre Daseinsberechtigung, gefiele mir vom Gesamtkonzept sogar mehr, denn man muss hier weniger Abstriche bei einer HighEnd-Karte machen machen.
Die Preispolitik will ich gar nicht erst zur Sprache bringen.

Aber gut, das ist ja eh müßig mit dir zu diskutieren.*lol*
 
@Sush
Ich hatte eine neue Karte für die Eyefinity Zockerei gesucht und wie es ausschaut war die 7970 keine schlechte Wahl. :)

Wie man in dem Computerbase Review aber ebenfalls sehen kann ist das die GTX680 durchaus unter der geringeren Speicherbandbreite leidet.
http://www.computerbase.de/artikel/...-geforce-gtx-680/26/#abschnitt_taktskalierung
Sie profitiert fast im gleichen Maße von der Taktsteigerung der GPU und des Grafikspeichers.
 
20 Watt in Idle und 40 Watt bei Load weniger Leistungsbedarf als GTX 580 ist schon mal eine ordentliche Hausnummer.
Zur HD 7970 dann zwischen 25 W und 30 W in real Life Spielen ebenso.
Da hat AMD im Prinzip noch Glück, das die Karte nicht GTX 660 o. 670 Ti benannt wurde.
Bei HT4U tut sich irgendwie nix.
 
Hat mich auch schon gewundert das da kein Test kommt ;)
 
Was ich wirklich bemerkenswert finde, ist die Tatsache, dass das Ding nur ein 256bit Speicherinterface hat und damit solche Werte liefert.
 
Was ich wirklich bemerkenswert finde, ist die Tatsache, dass das Ding nur ein 256bit Speicherinterface hat und damit solche Werte liefert.
Hier wäre wohl interessant zu sehen, wie sich ein Pitcairn schlagen würde, wenn er einen vergleichbaren Transistor-Count hätte...

212mm² zu 294mm²

In Pitcairn sehe ich im Grunde aber auch den eigentlichen "Gegner" zu Gk104. *noahnung*
 
Bei HT4U tut sich irgendwie nix.

Was ich wirklich bemerkenswert finde, ist die Tatsache, dass das Ding nur ein 256bit Speicherinterface hat und damit solche Werte liefert.

http://ht4u.net/forum/index.php?topic=47282.msg485685;topicseen#new

Ich weiß noch nicht. Ich schätze, dass ich nächste Woche mit dem Testen anfangen werde. Ist davon abhängig, wie ich mit den anderen Arbeiten fertig werde.

Gruß

Peter
Vor Ende nächster Woche siehts wohl mau aus, wenn überhaupt nächste Woche.
 
Zuletzt bearbeitet:
Ich empfinde die GTX 680 nach dem Überfliegen mehrerer Reviews als enormes Stück Hardware. Aber einige Punkte geben mir zu denken:

- in einigen (wenigen) Situationen scheint ihr definitiv der VRAM auszugehen (kommt bei verschiedenen Seiten hin und wieder ab 2560x1600 vor -> für mich relevant)
- die Performance der Karte variiert je nach Exemplar aufgrund der TDP-Limitierung (zwar nur minimal, aber keine GTX 680 ist wie die andere)
- die feste Hinterlegung von Paramtern (Takt, Spannung) ist nicht mehr möglich (zumindest bis jetzt)
- im bisher einzigen gesichteten SLI-Review fallen in BF3 die Min-Frames niedriger aus als mit 2x GTX 580

Obwohl ich Verwendung für zwei GTX 680 hätte, werde ich mir die nächsten Tage/Wochen erstmal in Ruhe die Situation anschauen und abwarten, wie sich die Sache entwickelt. Denn in der aktuellen Form müsste ich für meine Ansprüche zu viele Kompromisse eingehen.

EDIT:
Mir kommen die BF3-Ergebnisse von AnandTech in 2560x1600, Ultra und FXAA High merkwürdig vor. Während die 680 bei den anderen Seiten rund ein Drittel schneller ist als die 580, so misst AnandTech hier knapp 50 Prozent. Das kann ich ehrlich gesagt kaum glauben....
 
Es sind bereits mehrere 4GB Versionen angekündigt die sollten das VRAM-Problem wohl komplett beseitigen. Zu SLi: da gab es wohl einige Verbesserungen mit dem neuesten Treiber, einige seiten Benchen aber noch mit dem mitgelieferten CD Treiber. Es währe also interessant welchen Treiber diese Seite verwendet hat.

z.b.
evga GTX 680 4GB
 
Zuletzt bearbeitet:
@FredD
Wo hat Charlie von nem guten Preis-Leistungsverhältnis gesprochen. Er hat gesagt, dass GK104 so gut wie in allen Metriken die angesetzt werden, gewinnen würde, das hat er dann später etwas abgeschwächt.

Und dass GK104 bei 294mm² in gewissen Bereichen (Spiele) effizienter ist als Tahiti bei 365mm², heißt ja nicht, dass Nvidia diesen theoretischen Kostenvorteil in der Fertigung dann auch an die Kunden weitergeben muss und wird.
Preis-Leistung ist eine Metrik, nicht?
Was mich noch amüsiert ist die Entrüstung seitens der Testredakteure (und Gefolgschaft) über die knackigen Preise bei AMD Grafikkarten, und das Akzeptieren eben jener noch knackigeren Preise bei einer etwa gleichwertigen nVidia Grafikkarte. GTX 680 hat 1GB RAM weniger, was sich in zahlreichen Szenarien bemerkbar macht. Dann aber 500 EUR für das Ding, und vielleicht sogar 700-1000 EUR für den Nachfolger GK110? - Kaufen, kaufen kaufen! ;)
 
Zuletzt bearbeitet:
Soweit ich das interpretiert habe ging es da eher um technische Metriken wie Perf/W, Perf/mm².

Und ich finde es auch putzig, dass sich die ganzen native speaker wie zum Beispiel boxleitnerb und/oder Duplex oder unser aller Liebling OBR, über Charlie lustig machen, sein angebliches Unwissen etc..
Die PhysX Hardware-Sache z.B.. Da hat sich jeder draufgestürzt und gesagt, Charlie ist soo dumm höhöhö (*RotzeläuftvorLachausdemMund). Das hat er aber gar nicht gesagt. Das war lediglich der Aufmacher. Im Text selbst steht etwas ganz anderes und auch hier war die ganze Sache nicht sicher(daher auch hardware block an einer Stellin in Ausführungszeichen), die Quellen haben alle etwas anderes erzählt, das Ganze könnte also von Nvidia kolportiert worden sein.

Die Leute verstehen einfach nicht, dass Gerüchte niemals 100% verifiziert werden können wenn es nur Hören/Sagen ist von einer Quelle die unter Umständen ihre ganze eigenen Ziele verfolgt.
 
habe mir gerade den pcgh test reingezogen ... die sagen das die 680 im durschnitt 8 % schneller sei ???

meiner meinung nach eher ein flop ... weil die 680 ja noch ein turbo hat ... die graka zieht die taktrate ja mal locker um 100 an ... rofl ...

ist nvidia dafür schneller ? oder habe ich den test zu schnell gelesen ?

680 ohne turbo ----> schneller wie 7970 ??
oder nur mit Turbo ???


http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/
 
Kann man nicht sagen, da der Turbo nicht deaktivierbar ist.
 
meiner meinung nach eher ein flop ... weil die 680 ja noch ein turbo hat ... die graka zieht die taktrate ja mal locker um 100 an ... rofl ...
und nun? wie heisst es so schön ... entscheidend ist, was hinten rauskommt.

wenn nvidia das leistungsplus mit einem mehr oder weniger intelligenten turbo erreicht und dabei sowohl bei der leistungsaufnahme, wärmeentwicklung & lautstärke unterm strich besser abschneidet wie das amd pendant, dann ist es mir als kunden doch relativ wurscht, wie der hersteller diese leistung realisiert. zumindest so lange wie es keine nebenwirkungen gibt. und auf der anderen seite gibt es den frame-limiter, mit dem man sinnvollerweise die leistung begrenzen kann. statt so viel performance wie möglich, bekommst du genau so viel performance wie nötig. das ist mal ein wesentlich intelligenteres konzept als ständig maximale performance abzurufen und sich dann über 10% performance unterschiede bei völlig sinnfreien frame-raten zu streiten.
 
Ich bin nicht wirklich ein Freund der grünen Firma aber: Hut ab! Und das für den Mittelklasse-Chip, der der GK 104 ja sein sollte. Den haben sie gut gepushed. Da muss ich mir doch überlegen ob ich jetzt noch eine 7970 Lightning (die immer noch nicht zu sehen ist 8-( ) kaufe. Die 680 ist ja klar die bessere Wahl. Aber was mache ich dann mit meinem Eyefinity Setup.
 
Die GTX 680 kann 4 Displays Parallel versorgen ;) also wen es nicht gerade ein Eyefinity 6 Setup ist. (2*DVI 1*HDMI 1*Displayport)
 
Zum Spielen mit eyefinity ist dann aber klar die AMD zu bevorzugen.
 
Zurück
Oben Unten