NVIDIA - Kepler

Und spannend daran dass ein Chip größer wird, wenn man mehr Shader reinpackt ist...?
GF110 hat 52% mehr Shader & war nur 44% größer als GF104, dabei hat der GF110 Chip über 70% mehr Leistung als GF104 demonstriert, deswegen wirds spannend, bei GK104 > GK110 wird der Flächen Abstand noch größer weil diesmal GK110 90% größer wird, außerdem wird das Speicherinterface nicht wie bei GF104 > GF110 um 50% vergrößert, sondern 100% ( 256 > 512 )
 
Erstmal muss GK110 funktionieren und verfügbar sein. Wenn NV wie AMD nun zwei Chips herstellt dann haben sie auch doppelten Aufwand. Thermi und Fermi waren ja die kleinen Brüder bei denen auch noch nicht alles gut ging mit der Erziehung. Bei AMD hat man nun Pitcairn und Taihiti und ich sehe für den Spieler Pitcairn als besseren Chip an, denn die paar Hansel (nicht beleidigt fühlen) die DP und GPGPU massiv einsetzen kaufen dann eben Taihiti oder GK110. Für alle anderen reicht Pitcairn(+) oder GK104 mehr als aus.

Wer dann 900$ für eine Karte ausgeben mag kann das gerne tun nur um in 1920*1080 zu spielen :D
 
Keine Angst haben ;) der wird schon funktonieren, mit GK104 hat man bereits genug 28nm Erfahrung gesammelt.

Außerdem kommen vom GK104 Chip bestimmt noch kleine Ableger wie z.b. GTX670, 660 mit teil/deaktivierten GPU Cluster, Pitcairn bekommt zu 100% einen konkurrenten.

Und über Preise brauchen wir erstmal nicht spekulieren, Nvidia kann diesmal mit GK104 AMD richtig unter druck setzen, schließlich ist der Nvidia Chip 25% kleiner als Tahiti.
Dazu kommen noch die besseren Konditionen (Wafer Preise) zwischen TSMC & Nvidia :D
 
Zuletzt bearbeitet:
Mit so ner Graka sollte man in Bereichen ala 2560 × 1440 oder gar 3840 × 2160 spielen können ;)
 
Mir gefällt die optionale Limitierung der Frames. Gespannt bin ich aber, ob die kleineren "Geschwister" ein ähnliches Bild zeichnen können im Vergleich zu Pitcairn und Cap Verde. :)

Wenn ja, gibt es mit etwas Glück einen netten kleinen Preisrutsch nach unten. :)

@Duplex:
Du darfst aber ruhig einen halben Gang zurück schalten. Sooooo geil ist die GTX680 nun auch wieder nicht. Sieht man daran, dass sie Probleme im Bereich Surround-Gaming hat, wenn die 2GB Speicher knapp werden...

Das AMD durch den Schwerpunkt auf Korrektur vom AF wo anders Abstriche machen musste, wird wohl auch eine Erklärung dafür sein, wieso der GK104 in seiner jetzigen Form sich vor Tahiti schieben konnte.


Aber nichts desto trotz: ein schönes Stück Hardware - wie es sich gehört. Warten wir also auf den Rest... :)


Edit:
Dual-Kepler täte aber gut daran, mit 8 GB (2x 4GB) auf den Markt zu kommen.
 
Zuletzt bearbeitet:
Richtig, das mit den Settings aber die meisten kaufen ihre Karten immer noch nach diversen Benchmarks und haben die Optionen der Treiber oder Ingamemenüs nie weiter angesehen.

Das die Auflösungen bei solchen Karten auch gerne höher sein darf ist für mich logisch, aber leider nicht in den Köpfen der meisten Nutzer. Wir Forumianer wissen so etwas (teilweise zumindest), aber die meisten eben nicht. Wenn du jemanden nach AA fragst kommen die lustigsten Antworten bei raus.

GK104 erachte auch ich als guten Chip an, aber mangels Einblick in die Verträge von AMD und NV kann ich nicht sagen wer da zu welchem Preis und Konditionen fertigt :) Der Preis der Fertigung alleine ist eh nicht alles........

Von unter Druck setzen sehe ich aber bisher nicht viel. Für mich sind sie gleichauf mit Vorteil das es bei AMD schon länger die Karten zu kaufen gab wenn man denn wollte. Also wie immer abwarten bis später und Tee trinken oder anderweitig entspannen. Sind letzten Endes nur GPUs.
 
Wenn 1536 doppelt getaktete Shader je eine MAD-Operation pro Takt starten, würden bei 1 GHz Basistakt 6 TFLOPS erreicht werden. Zur Zeit sieht es nach der Hälfte aus.

GPU Boost ist eine Art Turbo-Modus. Mit anderem Takt laufende Shader aber nicht.
Auf dem geposteten Newegg Bild wird der Shadertakt, wenn angegeben, aber als doppelt so hoch bezeichnet. Auf der Zotac Seite ebenso.
Der Preis geht ja schon mal in die richtige Richtung, wenn's stimmt.
 
Zuletzt bearbeitet:
Wenn ich das so grob sehe, gebe sich die 7970 und 680 nix...die paar % Mehrleistung kommen eben auch mit leicht erhöhtem Takt, da hat AMD wohl lieber runtergedreht, um früher am Markt sein zu können.
Allerdings schneiden die 7800er im Vergleich zur 7900 Serie IMO deutlich besser ab, also mal schauen was nvidia mit der 660 hinbekommt.

Betracht man das Gesamtpaket, scheint leicht die Nase vorn zu haben...was bei nem halben Jahr späterer Markteinführung auch zu erwarten ist. Ich finde, das ist Gleichstand und somit sehr gut für den Markt, die hohen Preise kommen wohl durch TSMC Knappheit zustande...
 
Da würde ich lieber auf golem oder CB verweisen. Wobei die Messungen teils doch sehr stark schwanken. Fazit braucht man sich daher erst in ein paar Wochen zu bilden.
 
@Duplex
Ich versuchs einfach nochmal für dich, da du offensichtlich gebetsmühlenartig funktionierst (90% größer-> tausendmal besser; 90% größer -> tausendmal besser...):

GK104 = Gamer-Karte, heißt bei GPGPU abgespeckt.
GK110 = Compute-Karte, heißt fett (und das meine ich so) DoublePrecision-Leistung rein und damit wird das Ding einiges an Ballast zulegen, ohne dass das dem Spieler was bringt.
Für Spieler wird eine möglicherweise erscheinende Dual GK104-Karte daher interessanter sein (und dürfte auch problemlos machbar sein). In jedem Falle lässt sich dadurch aber nur wenig von GK104 auf GK110 schließen.
GK110 wird einfach eher die Version sein, die für HPC-Systeme zum Einsatz kommt, während sie für Zocker mit hoher Wahrscheinlichkeit ineffizienter wird.

So nun zum Thema:
GK104 ist mal ne richtig schöne Gamer-Karte! Da hat Nvidia offensichtlich auf alles gehört, was in den letzten Jahren kritisiert/beanstandet wurde.
 
imho ist die geforce 680 eine sehr runde karte. angesichts der gewaltigen erwartungshaltung kann amd froh sein, dass sich die performance-unterschiede noch in grenzen halten. der schaden ist also begrenzt. aber von "gleichstand" kann da nach meinem empfinden keine rede sein.

größter vorteil für amd dürfte im moment sein, dass sie schon jetzt in den volumen-starken segmenten interessante produkte wie die 77xx / 78xx-modelle liefern können. das wird bei nvidia noch ein wenig dauern.

interessant finde ich den frame-limiter, nettes feature. laut computerbase-review sind die einsparungen bei der leistungsaufnahme bei einigen spielen ja wirklich enorm.

http://www.computerbase.de/artikel/...fpslimiter__weniger_strom_weniger_lautstaerke
 
Warum fehlt da HT4U noch?

Haben die zu objektiv getestetoder sind sie für einmal zu langsam?
 
Ja der Frame Limiter ist interessant aber letztendlich auch nur ein dynamisches vsync und die Einsparung kommt von den 0 Runden in denen die Grafikkarte darauf wartet wieder etwas berechnen zu dürfen.
Den gleichen Effekt konnte ich bei meiner 7970 sehr deutlich mitbekommen nachdem ich bei alten Spielen vsync wegen dem fiepen bei (sehr) hohen Frameraten dazugeschaltet hatte. Teils drehte der Kühler mit der Idle Drehzahl vor sich hin.
 
Der fps-limiter ist ein wirklich interessantes feature. Das macht deutlich, dass eine konstante ausreichend bis hohe Zahl an Bildern pro Sekunde erstrebenswerter ist, als eine Maximalleistung auf Kosten von hohen Schwankungen. Besonders im Bereich der Einsteiger- und Performance-Grafikkarten dürfte der fps-limiter gut ankommen. Mein Tipp ist ja, dass AMD ein vergleichbares Feature innerhalb von 1-2 Generationen einführen wird, möglicherweise schon in die nächsten APUs implementiert. Gekonnt hätten sie es sicherlich seit Cayman, nur auf die Idee sind sie nicht gekommen. Das Pünktchen geht wohl an nVidia.
 
interessant finde ich den frame-limiter, nettes feature. laut computerbase-review sind die einsparungen bei der leistungsaufnahme bei einigen spielen ja wirklich enorm.

Ja, das ist doch schon mal Sehr, Sehr fein !!!

... doch dann hört es aber schon wieder mit den interessanten Features auf.
Der Rest ist wieder nur "höher, schneller, weiter".
Und ab den Bereichen wo es interessant wird, jenseits von 1080p (ich kann es nicht mehr hören) herrscht wirklich fast Gleichstand.

Grüße Ich
 
Beziehe mich mal auf CB...mein Fazit nicht schlecht, aber gegenüber von AMD ne reine Gamer Kiddy Grafikkarte...ist aber nicht negativ gemeint..es kommt halt auf den Verwendungszweck an.

Lautstärke unter Last ist auch negativ bewertet, idle ist ja bei dem geringen Verbrauch
für Nvidia oder AMD kein Problem. das Referenzdesign ist ja bei kaufbaren AMD Grafikkarten
finde ich selten vertreten, mal sehen wie es bei der Nvida Grafikkarte aussieht.

Beim Verbrauch sollte man auch bedenken das die AMD HD 7970 1GB mehr Ram durchschleppen muss. mfg:)
 
Der fps-limiter ist ein wirklich interessantes feature. Das macht deutlich, dass eine konstante ausreichend bis hohe Zahl an Bildern pro Sekunde erstrebenswerter ist, als eine Maximalleistung auf Kosten von hohen Schwankungen. Besonders im Bereich der Einsteiger- und Performance-Grafikkarten dürfte der fps-limiter gut ankommen. Mein Tipp ist ja, dass AMD ein vergleichbares Feature innerhalb von 1-2 Generationen einführen wird, möglicherweise schon in die nächsten APUs implementiert. Gekonnt hätten sie es sicherlich seit Cayman, nur auf die Idee sind sie nicht gekommen. Das Pünktchen geht wohl an nVidia.
Es ist eher das Gegenteil der Fall, da der Limiter bei einer geringeren Rechenleistung seltener zum Einsatz kommt. Die Schwankungen verlagern sich lediglich von der Framerate zur GPU Auslastung und somit zum Stromverbrauch.
 
Das Schöne an der GTX680 für den Kunden ist, dass er quasi von Anfang an schon einen großen Teil der OC-Performance mit Hilfe des dynamischen Taktes erhält. Damit dürfte ein Teil des OC-Potenzials schon ausgenutzt sein. Viel effektiven OC-Spielraum nach oben dürfte da nicht mehr drin sein. Je höher man mit dem Stock-Takt geht, desto mehr dürfte vom dynamischen OC weg fallen.
 
Ja, das ist doch schon mal Sehr, Sehr fein !!!

... doch dann hört es aber schon wieder mit den interessanten Features auf.
Der Rest ist wieder nur "höher, schneller, weiter".
Und ab den Bereichen wo es interessant wird, jenseits von 1080p (ich kann es nicht mehr hören) herrscht wirklich fast Gleichstand.

Grüße Ich

Naja man kann es sich doch einfach machen ;D "aus reiner spielersicht"
wer 3 monitore verwendet greift zu 2 7970er
wer 19**-25** auflösungen fährt kriegt mal mehr oder weniger paar frames mehr mit der gtx
 
Was ist nun mit dem hervorragenden Preis-Leistungsverhältnis, das Charlie und all die Jungs von der nVidia Spielwiese seit Monaten gepredigt haben?
 
Ansonsten...die Kolumne über zu knappe Testzeiten gelesen?

Ne, wo denn? D... ja stimmt. der letzte Test der ich gelesen habe war die HD7970 und der war halt Zeitgleich mit dem von CB. Die HD7750 war ja Tage nach dem Test von CB, da von daher warte ich mal was ht4u für Ergebnisse bringt denn der Rest streut schon relativ stark mit ihrem Testresultaten (alleine schon durch die unterschiedlichen Treibereinstellungen mit HQ und denen mit nur Q).
 
Zurück
Oben Unten