NVIDIA GeForce 8600GT Review

mj

Technische Administration, Dinosaurier, ,
Mitglied seit
17.10.2000
Beiträge
19.529
Renomée
272
Standort
Austin, TX
Auf der chinesischen Webseite www.it.com.cn ist ein Review von NVIDIAs neuester Mid-End Grafikkarte GeForce 8600GT erschienen. Im Testlabor haben sich eine 8500GT, eine 8600GT sowie eine 8600GTS eingefunden. Die 8500GT hat demzufolge 32 oder 24 SPs (leider ist die Übersetzung der Webseite nicht gelungen genug um herauszufinden, warum zwei Werte angegeben werden), 460 MHz Chiptakt und 800 MHz Speichertakt (128-bit DDR2). Die 8600GT hat 48 SPs, 540 MHz Core sowie 1.400 MHz Speichertakt (128-bit DDR3), die 8600GTS hat 675 MHz Core, 2.000 MHz Speichertakt (128-bit DDR3). Die beiden letzten Karten wird es aller Voraussicht nach auch für den AGP-Bus geben, erstere lediglich für den PCIe Bus.

Die Benchmarkplattform war ein Intel Core 2 Duo 6600 mit 1.024MB DDR2-800 RAM. Die Ergebnisse selber sind etwas mau – schuld ist das beschränkte Speicherinterface. Während die Karte im 3DMark 2006 einer Geforce 7600GT (gleiches Speicherinterface) sowie einer 7900GS (doppelte Speicherbandbreite) noch davonzieht, und auch in NFS Carbon bessere Ergebnisse erzielt, sieht die Situation in Prey deutlich anders aus – hier ist die 8600GT selbst einer 7600GT knapp unterlegen, einer 7900GS sogar deutlich. Allerdings darf man nicht vergessen, dass die verwendeten Treiber noch Beta-Status hatten und nicht ausgereift waren. Es dürfte also durchaus noch Spielraum nach oben vorhanden sein – ob allerdings die knapp 40% Vorsprung der 7900GS bei Prey ausgleichen ist mehr als fraglich.

Ursache für diesen Einbruch ist das Speicherinterface der 8600er Serie. Diese bindet den Speicher lediglich mit 128-bit bei 700 MHz an, womit 128-bit DDR3-1400 zu Stande kommt. Im Gegensatz dazu bindet die 7900GS den Speicher mit 256-bit bei 660 MHz an, womit 256-bit DDR3-1320 zu Stande kommt. Die Speicherbandbreite ist also bei der älteren 7900GS Karte mit 256 * 660,000,000 * 2 mit knapp 40 Gigabyte pro Sekunde knapp doppelt so hoch, wie die 20 Gigabyte pro Sekunde der 8600GT(S). Vor allem bei Spielen, die auf eine hohe Speicherbandbreite angewiesen sind, wird die 8600er Serie kaum Vorteile gegenüber einer GeForce aus der 7er Serie bringen. Der Vorteil der 8600GT im Vergleich zur 7600GT ist, neben den derzeit noch nicht benötigten Direct X 10 Fähigkeiten, dass deren Schwächen ausgemerzt worden sind und die Karte mit aktuellen Spielen theoretisch schneller laufen sollte – wie sowohl der 3DMark 2006 als auch Need for Speed Carbon eindrucksvoll beweisen.

<font face='arial' size='1'>Quelle: </font><a href="http://translate.google.com/translate?u=http%3A%2F%2Fit.com.cn%2Ff%2Fdiy%2F074%2F3%2F401291.htm&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools" target="_blank">Deutsche Übersetzung des original Artikels</a>
 
Hmmm....sieht ja recht Mau *suspect* aus und ich habe schon auf die 8600er Serie gewartet.... na mal sehen was die entgültigen Versionen mitsamt neuer Treiber so bringen....???
 
Öh... haben die den Artikel wieder gekickt?
 
Bei VR-Zone gibt es bereits einen kleinen Artikel bezüglich Voltmods und Übertaktungs- bzw. Benchmarkergebnissen. Zwar finde ich die erreichten Taktraten ganz ordentlich, die Benchmarkergebnisse allerdings nicht so sonderlich. *noahnung*
 
Ursache für diesen Einbruch ist das Speicherinterface der 8600er Serie. Diese bindet den Speicher lediglich mit 128-bit bei 700 MHz an, womit 128-bit DDR3-1400 zu Stande kommt. Im Gegensatz dazu bindet die 7900GS den Speicher mit 256-bit bei 660 MHz an, womit 256-bit DDR3-1320 zu Stande kommt. Die Speicherbandbreite ist also bei der älteren 7900GS Karte mit 256 * 660,000,000 * 2 mit knapp 40 Gigabyte pro Sekunde knapp doppelt so hoch, wie die 20 Gigabyte pro Sekunde der 8600GT(S).

Nix GTS! Deine ganzen Ausführungen zur Bandbreite beziehen sich nur auf die 8600GT. Die GTS hat dank des hohen Taktes die gleiche Bandbreite wie meine gute alte 7800GT, 32GB/s. Und nur die sollte man IMHO auch mit einer 7900GS vergleichen.
 
egal wie ein wenig mehr Leistung hätte ich mir von den neuen Karten schon gewünscht :-X
 
egal wie ein wenig mehr Leistung hätte ich mir von den neuen Karten schon gewünscht :-X

Das stimmt schon, wenigstens die Midrange-Karten der Vorgängergeneration sollten deutlich geschlagen werden. Allerdings: Prey ist OpenGL, oder? Wenn dann auch noch unter Vista gebenched wurde(?), dann könnten schon auch die Treiber schuld sein, die denke ich noch nicht wirklich gut auf der neuen Architektur laufen. Unter DX9 scheints ja schon so zu sein, dass die alte Midrange Generation deutlich geschlagen wird.

Und die Seite ist wohl wirklich flott wieder gelöscht worden....
 
Na dann hoffen wir mal, das mit optimierten Treibern auch ein besseres Ergebniss erzielt wird!
Würde sicher nicht nur mich sondern auch andere sehr freuen.
 
Der Artikel ist noch online, allerdings spinnt Google heute schon den ganzen Tag lang. Und nachdem der Link über den Google Übersetzer geht (wer von euch kann fließend Chinesisch? ;)) kann es ab und an passieren, dass der nicht erreichbar ist.

Und zur Bandbreite der GTS: 128 * 1.000.000 * 2 = 29,8 GB/s - immer noch deutlich weniger als die 7900GS. Um die Bandbreite der GS mit einem 128-bit Speicherinterface zu erreichen braucht's 1,3 GHz Speichetakt (DDR3-2600)
 
Wie sind denn die angesetzten Preise der drei Karten und haben die alle 256MB VRAM?
 
..., die Benchmarkergebnisse allerdings nicht so sonderlich. *noahnung*
Wieso? Die 7200 Punkte beim 3DMark 2006, die eine übertaktete GeForce 8600 GTS (1006/1265 MHz) erreicht, sind doch nicht schlecht. Selbst ohne Übertaktung sollte eine GeForce 8600 GT dann noch so um die 5000 Punkte schaffen und ich finde das ist für eine Mainstream Karte um die 180 Euro gar nicht so schlecht.

Quelle: http://www.hartware.de/news_41786.html
 
Zuletzt bearbeitet:
Wieso? Die 7200 Punkte beim 3DMark 2006, die eine übertaktete GeForce 8600 GTS (1006/1265 MHz) erreicht, sind doch nicht schlecht.

Quelle: http://www.hartware.de/news_41786.html


7200 Punkte sind schon nicht schlecht, aber:

VR-Zone hat die Karte von 1,25 (??) Volt VGPU auf 1,7 Volt VGPU gemoddet und hat mit diesen 1,7 Volt VGPU 1000 MHz Coretakt erreicht. Leute, die nicht solche extremen Spannungserhöhungen vornehmen, werden wesentlich eher am Limit der Karte sein - und somit auch niedrigere Ergebnisse erziehlen. Hinzu kommt beim Test von VR-Zone, dass dort auch ein - wenn auch nur gering - übertakteter X6800 zum Einsatz kam.

Ohne Voltmod und OC sind meiner Meinung nach vielleicht 6000 Punkte drin. Und das finde ich dann schon wieder ein wenig dürftig.


EDIT: Default hat die Karte 1,35 Volt VGPU, gebencht wurden bei VR-Zone mit 1,7 Volt. Das entspricht einer Erhöhung von 26 Prozent.
 
Mal nebenbei bemerkt, sind die 3DMark Ergebnisse vollkommen für die Tonne. Meinetwegen kann die Karte 100000 Punkte haben, mich interessiert nur was die Karte WIRKLICH leistet.

Und diese Aussage kann ein 3DMark Ergebniss nach den zig Treiberoptimierungen seitens ATI/nVIDIA nicht mehr liefern.

Find die Ergebnisse bis jetzt recht enttäuschend, evtl. tut sich da ja noch was.
 
Ähhh wie Bitte?!..man muss die Karte erst mal übertakten damit sie meine 7900GS in Prey schlägt?

Ich weiss nicht was Nvidia da baut, aber das Wort das ich dafür benutzen möchte fängt mit S an und hört mit e auf.

Ich glaube ich bleib die nächsten 2 (GraKa) Generationen bei meiner 7900GS, schliesslich hat die noch OC Potential welches ich noch nicht mal nutze, weil ich so schon zufrieden mit ihr bin.
 
Zuletzt bearbeitet:
Ich verstehe es einfach nicht, bloß um sein Hightendmarktsegment zu schützen, baut NVidia seit dem GF6 immer wieder diese 128bit-Kastrate und bremst so jedesmal die Leistungsmöglichkeit aufs neue sinnlos aus. *nein*
Die 128bit waren schon bei meiner 6600GT eine absolute Spaßbremse, weil sie immer wieder für extreme Leistungsschwankungen im Spielfluß sorgten. Letztlich war es mit der Karte unangenehmer zu daddeln, als mit der zu dem Zeitpunkt schon alten 9800pro von ATi auf 256bit, obwohl der Speichertakt und auch die Durchschnittsleitung der 6600GT höher lagen... )((
 
Ja, 128-bit sind schon Mist. Aber Nvidia ist da nicht alleine, Atis neue Generation ist ja anscheinend auch nur ein 128-bit-Gerät. Ich kann mir nicht vorstellen, daß sich das dann wesentlich anders verhält: Im 3DMark ne gute Punktzahl, in Spielen mit etwas AA und nicht ganz niedriger Auflösung gleich derbe Einbrüche.
 
...immer wieder diese 128bit-Kastrate und bremst so jedesmal die Leistungsmöglichkeit aufs neue sinnlos aus.
Ganz ohne Sinn und Verstand geht nVidia nicht vor. Wenn man nur ein 128 Bit Speicherinterface statt eines 256 Bit breiten verwendet, kann man schon biszu 4 PCB Layers einsparen und das ist letztendlich dem Kunden zuträglich. Eine 12 Layer Platine wie bei der GeForce 8800 GTS lässt sich einfach nicht preisgünstig machen, aber die GeForce 8600 GT soll gerade preisbewusste Käufer ansprechen. Insofern macht es Sinn, dass nVidia auf einen breiten Bus verzichtet und stattdessen lieber beim Speichertakt etwas nachlegt.
 
Ganz ohne Sinn und Verstand geht nVidia nicht vor. Wenn man nur ein 128 Bit Speicherinterface statt eines 256 Bit breiten verwendet, kann man schon biszu 4 PCB Layers einsparen und das ist letztendlich dem Kunden zuträglich. Eine 12 Layer Platine wie bei der GeForce 8800 GTS lässt sich einfach nicht preisgünstig machen, aber die GeForce 8600 GT soll gerade preisbewusste Käufer ansprechen. Insofern macht es Sinn, dass nVidia auf einen breiten Bus verzichtet und stattdessen lieber beim Speichertakt etwas nachlegt.


Dann macht aber das Geld für den hochgezüchteten Chip und dessen extra Modifikation erst recht keinen Sinn ... wenn dieser Motor dann 'dem Kunden zuliebe' mit Handwagenrädern auskommen muß ... und demzufolge nur mäßige Leistung entfalten kann, im Vergleich zu dem, was möglich wäre für 2 Euro mehr pro Layer und Platine.
 
Ich verstehe es einfach nicht, bloß um sein Hightendmarktsegment zu schützen, baut NVidia seit dem GF6 immer wieder diese 128bit-Kastrate und bremst so jedesmal die Leistungsmöglichkeit aufs neue sinnlos aus. *nein*
Die 128bit waren schon bei meiner 6600GT eine absolute Spaßbremse, weil sie immer wieder für extreme Leistungsschwankungen im Spielfluß sorgten. Letztlich war es mit der Karte unangenehmer zu daddeln, als mit der zu dem Zeitpunkt schon alten 9800pro von ATi auf 256bit, obwohl der Speichertakt und auch die Durchschnittsleitung der 6600GT höher lagen... )((

lol, "bloß" um das Highendmakrsegment zu schützen.....

Hindert Dich doch niemand, eine Highend-Karte zu kaufen, wenn Du die Leistung brauchst. Ich will auch immer mehr Leistung für immer weniger Geld, aber wenn es halt kein entsprechendes Angebot gibt.....

Zumindest die Bandbreite der GTS sollte für viele Spiele in 1280 ausreichen. Ich persönlich glaube ja auch, dass in der Auflösung eher der deutlich beschnittene Core bremsend wirkt. Warten wir halt mal die ausführlichen Benches ab.....
 
Also mich interessiert vor allem die 8500, aber nur wenn sie in Sachen Stromverbrauch nicht über einer 7300 liegt, und natürlich locker passiv gekühlt werden kann - ohne Heatpipe-Monster (die laut kürzlichem c't-Test gegenüber gut gemachten 'klassischen' Kühlkörpern ohnehin das Nachsehen hatten).

Mal kurz zwischendurch eine dumme, naive und überflüssige Frage: Warum zum Henker nennen die das Teil jetzt 8500, nicht wie zu erwarten 8300? Bei den xy500er und yz550er Karten denke ich immer unweigerlich, es handelt sich um eine rübergerettete Karte aus der letzten Generation - nicht daß das was neues wäre. Oder ein aufgehübschtes Kastrat der gerade-mal-300-Kategorie. Ich schätze, wir haben das dem (überfälligen) 128-Bit-Bus zu verdanken, die Marketing-Droiden konnten sich's wohl nicht verkneifen, deshalb einen vermeintlich höherwertigen Namen zu verwenden. Et voila [huch: Accent-Grave über'm "a" funktioniert nicht], zu schlechter Letzt erscheinen dann am Ende relabelte 7300er als 8250er oder was den Heinis noch für Unkraut einfällt. Verdammte Lügen-Bande!

Also gut, die 8500er hat ENDLICH den 128-Bit-Speicherbus, so steht sich die kleinste Karte nicht mehr selbst auf den Füßen. Das Ganze mit 1x Dual-Link-DVI und gern einem zweiten DVI-Port, von mir aus auch mit HDCP und das Ganze mit der Performance zwischen 7600GS und 7600GT, das wäre die ideale HTPC-Karte - wenn sie denn energiesparsam ist.

Wenn nicht: vergiß es, ich hab jetzt erstmal ne alte X300er im Rechner, läuft nämlich ganz ordentlich mit echtem Open-Source-Treiber (X.org 7.2). Die 6600, obwohl passiv gekühlt, hat nur unnötig Wärme erzeugt, ich hatte sie eh runtergetaktet (trotzdem 15W an 220V mehr als die X300), was dann manchmal zu eigenartig überverlangsamten Effekten führte, und der Treiber neigte neuerdings auch noch zu Video-Kollapsen, sodaß ich hin und wieder den X-Server (Für Winnies: Die Fenster-Oberfläche) neu starten mußte (geht unter Linux [UNIX/X11 allgemein] ohne Rechnerneustart - wenn die Karte sich nicht völlig verhängt hat).
 
Gibts irgendwo auch schon Benches mit OpenGL?

Das bisher Gelesene überzeugt mich nicht wirklich von den 8x00'ern, entweder zu teuer und heiß, oder zu langsam - was soll eine Graka, deren Vorgängerversion mehr Leistung bringt? Für mich unverständlich .. (Da reißen es die Sprünge in NFS und Co nicht raus, zumal DirectX für mich unrelevant ist.)
 
Ist auch echt eine Schweinerei, dass die auf noch in den Shadern beschnitten ist... :P

Es gibt halt eine klare Abgrenzung der einzelnen Marktsegmente, die sich unter anderem durch die Speicheranbindung zeigen. Das es immer wieder Ausnahmen gibt, (7900GS oder X800GT) die Hign-End-Features in den Mainstream-Bereich bringen ist normal, aber immer erst gegen Ende einer Kartengeneration. Die heutige Situation, wo man für mehr Geld auch merklich Mehrleistung kriegt ist mir liiber, als die Zeit, in der man für 15-20% Leistung den doppelten Preis zahlen mußte (Ti4200 vs 4600).

Die nächste Generation bringt wahrscheinlich auch 256Bit im Mainstream-Bereich, weil dann die High-End-Modelle schon 512Bit haben. Was ohne ein passendes Angebot im diesem Bereich passiert, kann man gut an ATI sehen, die haben mit dem X1600 und dem X700 (vor den GT(0)-Versionen des X800) den Bereich vernachlässigt, was nVidia mit ihrer 6600GT/7600GT in die Arme gespielt hat. 192Bit wären natürlich ein gutes Mittelding...
 
D´Espice schrieb:
sieht die Situation in Prey deutlich anders aus – hier ist die 8600GT selbst einer 7600GT knapp unterlegen
Oh man, wenn das mal kein Schuß ins Knie ist.

Ist schon was über die Startpreise bekannt?

Sir Thor schrieb:
Ich verstehe es einfach nicht, bloß um sein Hightendmarktsegment zu schützen, baut NVidia seit dem GF6 immer wieder diese 128bit-Kastrate und bremst so jedesmal die Leistungsmöglichkeit aufs neue sinnlos aus.
Nee, bei der Karte musste das echt nicht sein, da wäre auch mit 256Bit noch genügend
Leistungsabstand zur 8800er Reihe gewesen...

larsbo schrieb:
lol, "bloß" um das Highendmakrsegment zu schützen.....
Na ist doch wohl auch so, an Produktionskosten wird doch durch einen beschnittenen Speicherbus nicht großartig eingespart, oder wie verhält sich das?

Voodo_Freak schrieb:
Meinetwegen kann die Karte 100000 Punkte haben, mich interessiert nur was die Karte WIRKLICH leistet.
Steht doch oben, zT schwächer als eine 7600GT, lass sie mal durch optimierte Treiber gleichauf ziehen, ist schon etwas erbärmlich find ich...
 
Gibts irgendwo auch schon Benches mit OpenGL?

Doom 3 ist OpenGL, oder? Dann findet sich auf au-ja ein Test der 8600GTS.

Die 128-bit schmale Speicheranbindung scheint sich doch ziemlich extrem auszuwirken. 20fps Unterschied (zu einer X1950pro und 7900GT) auf 1280x1024 machen später auch bessere Treiber kaum wett...
 
Zurück
Oben Unten