G92: Gibt es bald wieder richtige Mittelklasse-Grafikkarten?

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Sowohl die GeForce 8600 von NVIDIA als auch die Radeon HD 2600 von AMD konnten auf Grund zu starker Beschneidung gegenüber den High-End-Produkte bisher wenige Liebhaber im umsatzstarken Mainstream-Bereich finden.

Die XT-Modelle der Radeon HD 2600-Reihe besitzen zwar einen mit 800MHz gegenüber 740MHz leicht höheren Chiptakt als die Radeon HD 2900XT, verfügen jedoch nur über 24 (120) statt 64 (320) Shader-Einheiten. Auch die Speicherbandbreite ist mit gut 35GB/s (1100MHz - 128Bit) gegenüber knapp 106GB/s (828MHz - 512Bit) unverhältnismäßig viel niedriger. Bei NVIDIA sieht es ähnlich aus, die GeForce 8600GTS besitzt nur 32 Shader-Einheiten, das kleinste Modell der 8800er Reihe, die GTS 320MB besitzt bereits 96, die GTX und die Ultra sogar 128. Und auch bei der Speicherbandbreite sieht es nicht besser aus, die 8600GTS schafft 32GB/s gegenüber 64, 72, 86GB/s (GTS/GTX/Ultra) bei den 8800ern.

Es klafft also leistungstechnisch eine große Lücke zwischen den High-End-Modellen und den für den Mainstream-Markt vorgesehenen - diese will NVIDIA ab November mit dem G92 schließen. Dieser besitzt nach Angaben von VR-Zone ein 256Bit-Speicherinterface, ist in 65nm gefertigt und soll bereits mit PCIe 2.0-Unterstützung ausgestatten sein. Eine Angabe zur Anzahl der Shader-Einheiten gibt es nicht, jedoch würden 64 hervorragend in die Lücke zwischen der 8600 und der 8800 passen.

<b>Quelle:</b> <a href="http://www.vr-zone.com/?i=5092" target="b">G92 is 65nm & 256-bit memory bus</a>
 
Begrüssenswert...

Aber mir stellt sich da nur eine grosse Frage: Warum so spät? Das es eine grosse Leistungslücke geben würde musste sowohl NV als auch AMD/ATI doch schon früher klar gewesen sein.
 
Ist eben schwieriger. 65nm ist noch ziemlich neu für Grafikchips, und ganz kleine Chips gehen damit erstmal leichter, zum Üben sozusagen. Die fetten High-End-Chips in 65nm darf man dann nochmal ein Stück später erwarten.

Ist bei Ati/AMD ja dasselbe, da wird auch von einem RV670 gemunkelt, der ebenfalls im Herbst ebenfalls mit 256bit SI und Shadereinheiten irgendwo zwischen 2600 und 2900 kommen soll. Ob sie da schon die Texturierleistung und andere Kleinigkeiten verbessern, an denen der R600 kränkelt, weiß man nicht, wäre aber eine gute Gelegenheit. Wiederum mehrere Monate später könnte man daraus dann einen verbesserten R600 in 65nm herstellen.

Interessant ist dabei dann nur noch der Zeitpunkt der Lieferbarkeit und der Preis bzw. das Preis-/Leistung-Verhältnis.
 
funktionieren pcie1 karten auch in pcie2 slots und pcie2 karten auch in pcie1 slots?
 
funktionieren pcie1 karten auch in pcie2 slots und pcie2 karten auch in pcie1 slots?
Ja, PCIe 2.0 ist meines Wissens zu 100% abwärtskompatibel. Natürlich kommt man dann aber nicht in den Genuß der jeweiligen Neuerungen, wie den gesenkten Latenzzeiten, den verdoppelten Bandbreite oder der ausgeweiteten Stromversorgung.
 
ich trau der sache net ... bis november? was? so lange nix in der mittelklasse? und dann dieser aufwand? und gleich noch PCIe2.0?
nee, eher kommt ne preiswert-version der 88GTS raus ...ne GT ... mit lahmerem speicher und weniger takt ...
 
Machen die doch schon seit Jahren. Neue Fertigungstechnologien erstmal bei Mittelklassechips auszuprobieren. Von daher würde mich das nicht wundern. ATI wird etwas ähnliches auch schon lange in der Pipeline haben.
Die warten wahrscheinlich nur auf genauere Spezifikationen von nVidia.
 
Also ich würde bis September November immer noch nen G90 mit diesen ungefähren Specs erwarten

Fertigung in 80nm (wie bei G84/86)
Taktraten ab 675MHZ aufwärts (wie bei 8600GTS)
Interface PCIe1.1 (wie bei G84/86)

192 Shadereinheiten (logische Fortsetzung G80)
daraus reslutiert dann ein
512Bit Speicherinterface
woraus widerum resultiert
1GB DDR3/4 Speicher Taktrate unbekannt.

Alternativ auch ein reiner Refresh G81 mit den bekannten Werten nur höheren Takraten dank G84/86 Fertigungstechnologie
128Shader
384Bit
768MB DDR3/4

wär zumindest eine einigermassen logische Zusammenstellung, mal sehen was so kommt. Zumindest werden die alten Karten dann billiger.
Aber solange ATI nicht in die Puschen kommt wirds daraus wohl nix. Ausser es wird zeitgleich zu Crysis als Highlight gelauncht.
Hoffentlich gibts stattdessen bloss keine so perverse nur auf SLI ausgerichtet Reinkarnation als GX2
 
Zuletzt bearbeitet:
Wird auch Zeit, die Kluft zwischen den Karten ist einfach zu groß
 
Was soll denn dieser Mittelklassenmist. Es wird einmal wieder Zeit für eine günstige High End Karte. Im August habe ich mir um 220 Euro eine X1800XT geholt und ich zahle doch nicht über 300 Euro für eine 8800GTS, die vielleicht 50% schneller ist. Normalerweise hätten wir schon längst eine 8800 Ultra um 500 Euro und eine 8800 GTX um 300. Das Problem ist nur, dass AMD momentan nichts brauchbares fertigt, sowohl bei den CPUs, als auch bei den Grafikkarten. Der Barcelona ist mit 2,5GHz nicht einmal annähernd konkurenzfähig bei wahrscheinlich sogar schlechterer Leistung/GHz als der Penryn und die 2900XT ist gerade einmal auf 8800GTS Niveau und die ist momentan gerade einmal Mittelklasse (8800GTX ist ca. 50% schneller).
 
NOVEMBER??? Guten Morgen! Die ATI Kunden warten & haben Geld in der Hand!!! Und sie waretn bisher weiter! Bis zu 3 Kartengenerationen werden gesprungen!

Pennen die beide? Wie lächerlich ist das denn??? Gut, das Weinachtsbusiness. Aber wie konnte denn bitte nVidia so lange pennen??? Wie blind kann man sein?
Andererseits: Hätte AMD ein Ass im Ärmel, wäre die nVidia Karte schon längst ausgepsielt. AMD rennt hinerher. In allen Bereichen, Der grüne Planet könnte schneller Geschichte werden, als er möchte. Schade.
 
wäre logisch eine solche Karte ebenfalls zu launchen, gabs da nicht mal ne news, dass die entsprechenden PCIe2.0 Chipsätze ebenfalls von Nvidia im September kommen sollen.
 
Im August habe ich mir um 220 Euro eine X1800XT geholt und ich zahle doch nicht über 300 Euro für eine 8800GTS

Ich hab mir ne 8800GTS für 240€ geholt. halt die 320MB version. Wenn alle immer gleich 640 wollen was total sinlos ist zur Zeit, nur um den längsten zu haben, sind se selbst schuld.

Bis soviel ram gebraucht wird ist die rohleistung eh zu gering. Was war denn mit den ganzen Geforce 7 Karten mit 512MB. Total sinlos. Und jetzt ist es das auch noch.
 
Zurück
Oben Unten