Auch die GeForce 9800GTX hat nur 128 Stream-Prozessoren

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Nach Informationen verschiedener Hardware-Seiten soll die kommende 9800GTX auf dem G92 basieren und damit nur 128 Stream-Prozessoren besitzen.

Der G92, der bereits auf der 8800GT und GTS verbaut wird und auch der 9800GT zum Einsatz kommen soll (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1203443333">wir berichteten</a>), soll dann einen Takt von 750MHz bis 850MHz besitzen. Da es sich um NVIDIAs Topprodukt im Bereich der Single-GPU-Grafikkarten handeln wird, darf man von eienm Speichertakt jenseits der GHz-Grenze ausgehen, jedoch ist zu diesem nichts Näheres bekannt.

Erwartet wird die GeForce 9800GTX zwei Wochen nach der Vorstellung der 9800GX2 im späten März. Die GeForce 9-Reihe bringt dann keine großen technologischen Neuerungen mit sich, da PCIe 2.0 bereits in mit der 8800GT eingeführt wurde und DirectX 10.1 weiterhin noch nicht unterstützt wird.

Danke an Saphyrro für das Einsenden der Meldung!

<b>Quellen:</b><ul><li><a href="http://www.vr-zone.com/articles/GeForce_9800_GTX_(D9E-20)_to_launch_in_Late_March/5574.html" target="_blank">GeForce 9800 GTX (D9E-20) to launch in Late March</a></li><li><a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=5861&Itemid=1" target="_blank">Nvidia's new card is 9800GTX</a></li></ul><b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1203443333">G92 + Triple-SLI = 9800GT</a>
 
Tja, das hat sich ja abgezeichnet. nV hat da doch recht lange gebraucht, um mit G92 letztlich nur einen leicht modifizierten Refresh des G80 zu Stande zu bringen. Freilich besteht auch kaum Druck von Seiten von Ati, eine grundlegend schnellere neue Architektur für single-GPUs rauszuhauen. Man darf gespannt sein, wer von beiden als erster eine zweite Generation DX10-Architektur zu Wege bringt.....
 
NV hatte genug Zeit eine neue Architektur zu entwickeln, aber solange AMD keinen Druck macht, haben die keinen Grund was Neues zu launchen... Würde mich nicht wundern wenn sie schon so weit wären die "richtige" nächste Generation zu bringen. Denn die Nummer 9, hat dies GF-Serie auf keine Fall verdient...
Und mit der 9600GT machten sie AMD das Leben noch schwerer...
Ich hoffe auf einen baltigen Konter von AMD, denn diese NV High-End Herrschaft ist einfach nur zum Kotzen...:(
 
ist nich schon bald der launch für die nächste ati generation? meine doch mal was von ende 1. anfang 2. quartal gelesen zu haben?
 
Warum heissen die jetzt auf einmal GeForce 9?
Sind Nvidia die Bezeichner hinter den Nummern ausgegenagen oder blicken die da selbst nicht mehr durch und machen einen kompletten Neuanfang?
 
NV hatte genug Zeit eine neue Architektur zu entwickeln, aber solange AMD keinen Druck macht, haben die keinen Grund was Neues zu launchen... Würde mich nicht wundern wenn sie schon so weit wären die "richtige" nächste Generation zu bringen.

Das sehe ich anders. Der G80 war laut nvidia fast 4 jahre in arbeit. In nur 1.5 jahren kann nvidia unmöglich eine komplett neue architektur auf die beine stellen, genau wie der R700 auch keine neue architektur wird.

G70 war ja auch nur ein stark aufgebohrter NV40. Und wahrscheinlich wird, wie auch immer sie es nennen mögen, das was nach der GF9 kommt, auch wieder nur ein (diesmal) deutlich verbesserter G80 sein (ich sage bewusst nicht G92, da der urvater immer noch G80 heisst).

Das was hier jetzt von nvidia kommt, kommt mit detail verbesserungen und höheren taktraten und hat die 9 wohl noch weniger verdient als AMDs aktuelle pferdchen die 3 - ist aber vom marketing standpunkt her gesehen völlig verständlich.
 
Speicher jenseits der 1 GHz Grenze?? Ich dachte NVidia setzt(e) nur auf GDDR3 und da ist doch ziemlich genau bei 1 GHz schluss. Oder??
Oder kann man einfach GDDR4 drauf packen?

MfG
 
NV hatte genug Zeit eine neue Architektur zu entwickeln, aber solange AMD keinen Druck macht, haben die keinen Grund was Neues zu launchen... Würde mich nicht wundern wenn sie schon so weit wären die "richtige" nächste Generation zu bringen. Denn die Nummer 9, hat dies GF-Serie auf keine Fall verdient...
Und mit der 9600GT machten sie AMD das Leben noch schwerer...
Ich hoffe auf einen baltigen Konter von AMD, denn diese NV High-End Herrschaft ist einfach nur zum Kotzen...:(

Warum sollte NV jetzt warten, wenn sie eine neue Top GPU pereits fertig hätten? Und wenn die nur in kleinen Stückzahlen zu hohen Preisen angeboten würde. Da könnte man AMD aus den Highend-Segment rauskegeln. Gerade jetzt, wo der Mitbewerber anfängt sich etwas zu erholen.
 
Speicher jenseits der 1 GHz Grenze?? Ich dachte NVidia setzt(e) nur auf GDDR3 und da ist doch ziemlich genau bei 1 GHz schluss. Oder??
Oder kann man einfach GDDR4 drauf packen?

MfG

Es gibt 0.83ns GDDR3 VRAM welcher mit 1200MHz (2400MHz DDR) spezifiziert ist. 256-bit*2400MHz = 76,80GB/s (8800GTS-512 = 62,08GB/s).
 
Zuletzt bearbeitet:
Hi,

Das die 9800GTX nur 128 Stream-Prozessoren ist irgendwie klar...Nvidia will ja auch noch ne Ultra bringen,die wird mehr haben und auch DirecX 10.1 haben,bin mir da ziehmlich sicher...
Ich selber werde mir eine neuGrafikkarte erst dann wieder kaufen,wenn Crysis mit 1920 mal 1200 mit allen details mit 60 Fps lauft...

Die neue 9800Gtx dürfte in meinen augen nur so um die 370 €uro kosten,aber die wird auch wieder wie alle anderen 500 bis 600 €uro kosten,trodz dem kleineren herstellungsprozesses wo man ja einspart...

Gruss Mixalot...:)
 
Die 370€ für die 9800GTX sind eindeutig zu hoch gegriffen, eine 8800GTS für nichtmal 250€ bietet, abgesehen vom Takt und dem zweiten SLI-Connector, schon die gleiche Hardware. Das Produkt für mehr als 400€ ist eindeutig die 9800GX2.

Einen eigenen Chip nur für eine eventuelle Ultra wird imho nicht kommen, das lohnt einfach nicht.
 
Vielleicht wird ja auch das Speicherinteface wieder verbreitert ist ja bei der 8800GT doch ein Flaschenhals in sehr hohen Auflösungen mit AA
 
Hi,

Das die 9800GTX nur 128 Stream-Prozessoren ist irgendwie klar...Nvidia will ja auch noch ne Ultra bringen,die wird mehr haben und auch DirecX 10.1 haben,bin mir da ziehmlich sicher...
Ich selber werde mir eine neuGrafikkarte erst dann wieder kaufen,wenn Crysis mit 1920 mal 1200 mit allen details mit 60 Fps lauft...

Die neue 9800Gtx dürfte in meinen augen nur so um die 370 €uro kosten,aber die wird auch wieder wie alle anderen 500 bis 600 €uro kosten,trodz dem kleineren herstellungsprozesses wo man ja einspart...

Gruss Mixalot...:)

Da der G92 nur 128SP hat und kein DX10.1 unterstützt wird das wohl nicht möglich sein, egal wie sicher du dir bist :]
 
Das sehe ich anders. Der G80 war laut nvidia fast 4 jahre in arbeit. In nur 1.5 jahren kann nvidia unmöglich eine komplett neue architektur auf die beine stellen, genau wie der R700 auch keine neue architektur wird.
Gibts Quellen zu der Entwicklungszeit? Ansonsten: Wenn eine neue GPU-Architektur 4 Jahre Entwicklungsarbeit benötigen sollte, dann wär das neu, so große Abstände hats nämlich z.B. zwischen Geforce256 und Geforce3 (10-1999 bis 02-2001) oder zwischen Geforce3 und GeforceFX (02-2001 bis 01-2003) nicht gegeben AFAIK. Oder die haben auch damals schon so lange entwickelt, dann wurde allerdings parallel an mehreren Architekturen gearbeitet, so wie es ja auch bei den CPU Entwicklern üblich ist. Dann wüsste ich aber auch nicht, was dagegen spräche, dass das immer noch so ist. Jedenfalls wären 4 Jahre zwischen zwei grundlegenden Architekturen in der Vergangenheit völlig inakzeptabel im Wettbewerb gewesen. Ich vermute ganz stark, dass das auch in Zukunft nicht tragfähig wäre......


G70 war ja auch nur ein stark aufgebohrter NV40. Und wahrscheinlich wird, wie auch immer sie es nennen mögen, das was nach der GF9 kommt, auch wieder nur ein (diesmal) deutlich verbesserter G80 sein (ich sage bewusst nicht G92, da der urvater immer noch G80 heisst).
Dass G70 ein aufgebohrter NV40 war ist ja unstrittig. Aber zwischen beiden lagen nur 13 Monate AFAIK. Und die 7800GTX hatte schon deutlich mehr Leistung, als eine 6800Ultra, auch architektonisch durch 6 Quads vs. 4 Quads. Demgegenüber hat nV noch kein Refresh des G80 hinbekommen, der mehr Leistung bringt. Der G92 ist ausschließlich auf sparsamere Produktion getrimmt.G80 auf G92 entspricht eigentlich mehr dem Refresh von G70 auf G71, wofür nV drei Quartale gebraucht hatte damals.....


Das was hier jetzt von nvidia kommt, kommt mit detail verbesserungen und höheren taktraten und hat die 9 wohl noch weniger verdient als AMDs aktuelle pferdchen die 3 - ist aber vom marketing standpunkt her gesehen völlig verständlich.
Da kann ich Dir nur Recht geben! Trotzdem muss nV noch dieses Jahr eine neue Architektur bringen, sonst werden die sich hoffentlich umschauen müssen. Hoffentlich deshalb, weil auch zu hoffen ist, dass Ati mit ner echten 2nd Generation DX10 kommt.....
 
Gibts Quellen zu der Entwicklungszeit? Ansonsten: Wenn eine neue GPU-Architektur 4 Jahre Entwicklungsarbeit benötigen sollte, dann wär das neu, so große Abstände hats nämlich z.B. zwischen Geforce256 und Geforce3 (10-1999 bis 02-2001) oder zwischen Geforce3 und GeforceFX (02-2001 bis 01-2003) nicht gegeben AFAIK. Oder die haben auch damals schon so lange entwickelt, dann wurde allerdings parallel an mehreren Architekturen gearbeitet, so wie es ja auch bei den CPU Entwicklern üblich ist. Dann wüsste ich aber auch nicht, was dagegen spräche, dass das immer noch so ist. Jedenfalls wären 4 Jahre zwischen zwei grundlegenden Architekturen in der Vergangenheit völlig inakzeptabel im Wettbewerb gewesen. Ich vermute ganz stark, dass das auch in Zukunft nicht tragfähig wäre......
ja, Nv hat (mindestens) 2 Entwicklerteams die parallel an unterschiedlichen Architekturen arbeiten. Das mit den 4 Jahren kann also durchaus stimmen, ergo sollte der Nachfolger der G80 Architektur schon seit laengerer Zeit in Arbeit (oder sogar bereits fertiggestellt) sein.
 
Anscheinend hat Nvidia in der 9er Generation doch eine ganze Menge geändert zumindest deutlich mehr, als wir bisher dachten:

Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:

http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating

Und dann schaut euch einmal die Technischen Daten an:

http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten

Das ist fast die Hälfte der Recheneinheiten. Die theoretische Leistung ist nur 60% von der 8800GT bzw. die 8800GT ist 60-70% schneller beim Chip. Zwar ist die 8800GT stark speicherlimitiert wegen den 256Bit, aber so arg ist es nun auch bei weitem wieder nicht. Da hat Nvidia einiges geändert und wenn die dann mit 512Bit für ihre High End Karte daherkommen und den doppelten Einheiten im Chip, dann wird da schon etwas ordentliches Rausschauen. Die SLI/Crossfire Lösungen muss man ja eigentlich ausklammern, weil dank Mikroruckler von den höheren average FPS nicht mehr viel übrig bleibt. Ist doch egal, ob jetzt 1 Frame alle 20ms erzeugt wird oder 2 Frames alle 25ms um 5ms versetzt. Man merkt immer den größten Abstand und das sind in beiden Fällen 20ms.

Wenn Nvidia mit einer 9600GT mit 128 Stream Prozessoren, 64TMUs/TAUs und 512Bit ankommt mit erhöhten Taktraten, dann geht die ordentlich ab. Da kann keine 8800 Ultra auch nur annähernd mithalten und die 9800 GX2 bzw. 3870 X2 sind eh mehr Marketing, als wirklich an Leistung da ist. Dass die Mikroruckler sowohl bei ATI, als auch bei Nvidia auftreten zeigt doch, dass das Problem nicht nur ein Bug ist, der schnell behoben ist, sondern ein Problem grundsätzlicher Natur nur fällt es 99% der User nicht auf, die nur average FPS sehen.
 
Warum sollte NV jetzt warten, wenn sie eine neue Top GPU pereits fertig hätten? Und wenn die nur in kleinen Stückzahlen zu hohen Preisen angeboten würde. Da könnte man AMD aus den Highend-Segment rauskegeln. Gerade jetzt, wo der Mitbewerber anfängt sich etwas zu erholen.

Weil Entwicklung Geld kostet, darum. Und wenn man genau so gut Geld verdienen kann mit etwas deren Entwicklung schon bezahlt ist wäre man sehr dämlich was neues auf den Markt zu werfen. Denn jetzt ist genau die Zeit in der am meisten verdient wird.

Das sehe ich anders. Der G80 war laut nvidia fast 4 jahre in arbeit. In nur 1.5 jahren kann nvidia unmöglich eine komplett neue architektur auf die beine stellen, genau wie der R700 auch keine neue architektur wird.
nVidia wie auch ATI haben mehr als nur ein Entwicklerteam, die parallel arbeiten. Die entwinkeln am G100 und auch schon an deren Nachfolger. Und wahrscheinlich auch schon am über über nächsten.
 
Vielleicht wird ja auch das Speicherinteface wieder verbreitert ist ja bei der 8800GT doch ein Flaschenhals in sehr hohen Auflösungen mit AA

Würde aber wieder auf einen separaten Grafikchip hinauslaufen, da der G92 ebend nur 256Bit liefert.
Meiner Meinung nach wird da an der Taktschraube gedreht und das wars.
.
EDIT :
.

Anscheinend hat Nvidia in der 9er Generation doch eine ganze Menge geändert zumindest deutlich mehr, als wir bisher dachten:

Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:

http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating

Und dann schaut euch einmal die Technischen Daten an:

http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten

Na holla....satte 10 Treiberversionen (5 ATI, 5 nVidia) wurden da verwendet. Werden da einfach alte Testergebnisse in die Tabelle reinkopiert?
Sehe ich das richtig und der aktuellste ATI Treiber ist quasi der Catalyst 8.1 bei der HD 3870 X2?
 
Na holla....satte 10 Treiberversionen (5 ATI, 5 nVidia) wurden da verwendet. Werden da einfach alte Testergebnisse in die Tabelle reinkopiert?
Sehe ich das richtig und der aktuellste ATI Treiber ist quasi der Catalyst 8.1 bei der HD 3870 X2?
Das wurde hier im Forum schon reichlich diskutiert. Ja, vermutlich sind das "historische" Ergebnisse. Rechne mal durch, was die für Testzeiträume hätten, wenn sie 18 Grakas jedesmal neu durchtesten würden. Abgesehen davon, dass viele semiprofessionelle Sites ja Testsamples bekommen, die wieder zurückgeschickt werden. Der Leistungsunterschied ist außerdem meist ja nicht sooo gewaltig durch neue Treiberversionen, so dass das ganze als Orientierung trotzdem nützlich ist IMHO.
.
EDIT :
.

Anscheinend hat Nvidia in der 9er Generation doch eine ganze Menge geändert zumindest deutlich mehr, als wir bisher dachten:

Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:

http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating

Und dann schaut euch einmal die Technischen Daten an:

http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten

Das ist fast die Hälfte der Recheneinheiten. Die theoretische Leistung ist nur 60% von der 8800GT bzw. die 8800GT ist 60-70% schneller beim Chip. Zwar ist die 8800GT stark speicherlimitiert wegen den 256Bit, aber so arg ist es nun auch bei weitem wieder nicht. Da hat Nvidia einiges geändert und wenn die dann mit 512Bit für ihre High End Karte daherkommen und den doppelten Einheiten im Chip, dann wird da schon etwas ordentliches Rausschauen. Die SLI/Crossfire Lösungen muss man ja eigentlich ausklammern, weil dank Mikroruckler von den höheren average FPS nicht mehr viel übrig bleibt. Ist doch egal, ob jetzt 1 Frame alle 20ms erzeugt wird oder 2 Frames alle 25ms um 5ms versetzt. Man merkt immer den größten Abstand und das sind in beiden Fällen 20ms.

Wenn Nvidia mit einer 9600GT mit 128 Stream Prozessoren, 64TMUs/TAUs und 512Bit ankommt mit erhöhten Taktraten, dann geht die ordentlich ab. Da kann keine 8800 Ultra auch nur annähernd mithalten und die 9800 GX2 bzw. 3870 X2 sind eh mehr Marketing, als wirklich an Leistung da ist. Dass die Mikroruckler sowohl bei ATI, als auch bei Nvidia auftreten zeigt doch, dass das Problem nicht nur ein Bug ist, der schnell behoben ist, sondern ein Problem grundsätzlicher Natur nur fällt es 99% der User nicht auf, die nur average FPS sehen.

Hab ich nicht irgendwo gelesen, dass die neuen Treiber die Textureinheiten irgendwie anders ansprechen und deswegen ein Leistungsplus (hoffentlich nicht gleichzeitig ein Qualitätsminus.....) mit reinkommt? Und die goodies, auch das neue PureVideoHD, sollen ja auf G92 demnächst auch freigeschaltet werden. Wenn das so stimmt, dann ist der Chip doch nicht wesentlich gegenüber G92 aufgebort.
 
So viel ändert sich bei einem neuen Treiber nicht, wenn die Karten (8800 GTX) schon seit über einem Jahr am Markt sind. Wie wollt ihr euch sonst den Unterschied erklären, dass die 8800 GTX, die 50% mehr Speicherbandbreite und einen 60-70% leistungsfähigeren Chip hat selbst unter 1600x1200 nur 34% schneller ist. CPU Limitierung wird es ja kaum sein, schon gar nicht bei 3DMark, wo es nur 10% sind. Bei der 8800 GT hat man noch sagen können, dass nur der Speicher weniger Bandbreite hat, aber der Chip etwas höher getaktet ist und die Einheiten fehlen ihr auch fast keine (gerade einmal 1/8). Gerade, dass die 8800 GTS langsamer ist, kann man sich so nicht erklären. Die hat vielleicht 20% weniger Takt, aber 50% mehr Einheiten.
 
Da zeichnet sich doch irgendwie wieder der alte Trend aus den Anfangszeiten der GeForce-Reihe ab: geradzahlig (Gf 2, 4) Top - ungeradzahlig (GF 1 (256), 3, 5) Flop.

Die 6xxxer und 7xxxer Reihe passt vielleicht nicht ganz ins Schema, Bei 8xxx und 9xxx schient´s aber wieder zu passen.
 
Also wo die GF1 ein Flop gewesen sein soll, das muste erstmal erkären?
Ich war mit der Creative GF256 DDR superst zufrieden, dagegen hat die GF2 nicht so wirklich Mehrleistung gebracht. Quake3 Arena ging immer noch nicht in 1600x1200 in 32 Bit flüssig zu spielen.
In 16 Bit hatte auch die Gf256 gereicht.;D
 
Ergänzung zu meinem obigen Post: Ja, im cb-Test der 9600GT hab ich es gelesen. Zitat: "Nvidia hat für den G94 die ROPs per Treiber leicht verbessert (wobei der G92 genauso von den Modifizierungen profitiert). So hat man die Kompression der ROPs erhöhen können, womit G92 sowie G94 vor allem bei höheren Qualitätseinstellungen weniger Speicher- und Speicherbandbreite benötigen." http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/3/

Ob das als Erklärung für die teilweise erstaunlich gute Leistung z.B. der 9600GT langt, sei mal dahingestellt. Auf jeden Fall sagt jeder in den Reviews, die Architektur sei ansonsten nicht wesentlich verändert worden von G92 zu den 9xxx-Karten. Das erscheint mir auch höchst wahrscheinlich. Wenn nV ein neues Fass hätte aufmachen wollen, dann hätten sie bei der Gelegenheit auch gleich den shadern DX10.1 beibringen können.....
 
Zurück
Oben Unten