NVIDIA GeForce 7900 - Erste Spezifikationen aufgetaucht

AMD-Hammer

Grand Admiral Special
Mitglied seit
05.10.2003
Beiträge
2.760
Renomée
123
Standort
Bornheim (Rheinland)
Nachdem sich in der letzten Zeit die Hinweise gehäuft haben, dass die neue GeForce 7900 Serie aus dem Hause NVIDIA zur CeBIT veröffentlicht wird (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1140115382" target="b">wir berichteten</a>), tauchen nun auch die ersten, jedoch noch inoffiziellen, Spezifikationen dazu auf.

So haben unsere Kollegen von <a href="http://www.vr-zone.com.sg/" target="b">VR-Zone</a> nun angeblich erste Informationen zur kommenden GeForce Serie erhalten, welche auf dem G71 Grafikprozessor basiert und der kürzlich erschienden Radeon X1900 Serie (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1138113312" target="b">wir berichteten</A>) die Leistungskrone wieder entreißen soll.

Aus dem aktuellen <a href="http://www.vr-zone.com.sg/?i=3240" target="b">Bericht</a> bei VR-Zone geht hervor, dass für die neue in 90nm gefertigte Grafikkartenserie, genau wie bei der Einführung der GeForce 7800, zwei Modelle geplant sind. Laut Aussage von VR-Zone sollen diese wieder GeForce 7900 GTX und GeForce 7900 GT heißen. Ob es auch, wie auch bei dem G70-Chip (<a href="http://www.planet3dnow.de/artikel/hardware/geforce_g78gs_agp/" target="b">wir berichteten</a>), eine GeForce 7900 GS geben wird ist zur Zeit noch unklar, jedoch recht unwahrscheinlich.

Die GeForce 7900 Serie soll nach Aussagen des Berichtes wie folgt ausgestattet sein:

<B>NVIDIA GeForce 7900 GTX</b><ul><li>Chip: G71</li><li>Pixelpipelines: 32</li><li>Chiptakt: 650 MHz</li><li>Speichertakt: 800 MHz (1.6 GHz)</li><li>Speicher: GDDR 3 512 MB [1.1 ns]</li></ul><B>NVIDIA GeForce 7900 GT</b><ul><li>Chip: G71</li><li>Pixelpipelines: 24</li><li>Chiptakt: 450 MHz</li><li>Speichertakt: 666 MHz (1.32 GHz)</li><li>Speicher: GDDR 3 256 MB [1.4 ns]</li></ul>Sollte man diesen Zahlen glauben schenken, dann überraschen doch einige Werte sehr. So verwundert es den Leser zum Beispiel beim Anblick der Pixelpipelines bei der GeForce 7900 GTX, da nach der Erhöhung der Pipelines bei Einführung der GeForce 7800 GTX erst einmal keine Änderungen in nächster Zeit vorrauszusehen waren. Auch die kaum zu erwähnende Erhöhung des GPU-Taktes sollte doch ein wenig Verwunderung hervorrufen.

Was jedoch deutlich auffällt ist der doch recht große Unterschied zwischen der -GTX und -GT Variante. Hier fällt dir Differenz doch größer aus als bisher erwartet und lässt auch einiges an Preis- und Leistungsunterschieden vermuten.

<b>Links zum Thema:</b><ul><li><a href="http://www.vr-zone.com.sg/?i=3240" target="b">NVIDIA GeForce 7900 Series Specs</a></li></uL>
 
200MHz niedriger Chiptakt bei der GT, das ist komisch. Naja, mal schauen wann die Karten kommen.
 
Auch die kaum zu erwähnende Erhöhung des GPU-Taktes sollte doch ein wenig Verwunderung hervorrufen.

Der Satz ist zumindest merkwürdig:
1. Sind 100Mhz mehr Kerntakt schon allerhand
2. dazu kommen 8 weitere Pixelpipelines
was in der Summe eine um knapp 50% gesteigerte Füllrate bringt (7800GTX : 13200Mpixel/s gegen 7900GTX : 20800Mpixel/s).
Weiß nich was daran bei einem Refreshchip so verwunderlich sein soll *noahnung*
 
Der Satz ist zumindest merkwürdig:
1. Sind 100Mhz mehr Kerntakt schon allerhand
2. dazu kommen 8 weitere Pixelpipelines
was in der Summe eine um knapp 50% gesteigerte Füllrate bringt (7800GTX : 13200Mpixel/s gegen 7900GTX : 20800Mpixel/s).
Weiß nich was daran bei einem Refreshchip so verwunderlich sein soll *noahnung*

1. eben - abgesehen davon, dass die GTX 512 wohl kaum als Standardmodell gelten kann: schlecht verfügbar und teurer als vergleichbare Karten.
Ich bin mir allerdings nicht ganz sicher, ob mir diese Taktsteigerung besonders gefällt ... wenn nVidia mit dem G71 in die gleiche Falle tappt wie Ati beim R520/580, fällt für mich der Stromverbrauch als letztes Pro-Argument für die GTX Versionen in der G70 Serie flach.

2. Füllrate ist ja erst mal unspannend - das wird immer mehr an Bedeutung verlieren; allerdings sollte der 7900GTX immerhin eine wirklich brachiale Shaderleistung haben.
32PS/2 Shader-ALUs@650Mhz sollten gegen 16PS/3 Shader-ALUs@650Mhz gut ankommen - was die füllratenlastigen Spiele wie Q4 oder Doom3 angeht, wird der G71 wohl die dominante Stellung von nVidia nicht aufgeben.


Trotzdem werden mir die GPUs von Ati immer sympathischer - man hat einfach den Eindruck, dass Ati das intelligentere Design besitzt, während nVidia mit reiner Kraftprotzerei kontert ... *noahnung*

so long

JCD
 
Was mich nur verwundert ist, dass bei Hartware.net eine Tabelle mit den technischen Daten basierend auf den bisherigen Gerüchten veröffentlich wurde und bei der GeForce 7900 GTX wie bei der GeForce 7900 GT von acht Vertex Shader Units gespreochen wird. Dabei müsste doch eigentlich je Pixel Shader Pipeline Quad eine Vertex Shader Unit vorhanden sein, sodass die GeForce 7900 GTX auf 10 Einheiten kommen müsste.
 
[...] Dabei müsste doch eigentlich je Pixel Shader Pipeline Quad eine Vertex Shader Unit vorhanden sein, sodass die GeForce 7900 GTX auf 10 Einheiten kommen müsste.


die VS sind (anders als noch bei der R4xx Serie von Ati) unabhängig von dem Rest der Ausführungseinheiten - da 1. die Geometrieleistung bei Spielen meist ohnehin nicht wichtig ist und 2. der Chiptakt beim G71 ja recht hoch angesetzt ist, erscheint es schon sinnvoll, die Transistoren für weitere VS zu sparen :)

*edit* Deine Rechnung hat einen kleinen Haken: wenn pro Pixelshaderquad ein VS zu Verfügung stehen sollte, müsste eine GF6800 3 statt 5 VS haben, eine 6800GT 4 statt 6 und eine 7800GTX 6 statt 8 ;)

so long

JCD
 
Zuletzt bearbeitet:
*edit* Deine Rechnung hat einen kleinen Haken: wenn pro Pixelshaderquad ein VS zu Verfügung stehen sollte, müsste eine GF6800 3 statt 5 VS haben, eine 6800GT 4 statt 6 und eine 7800GTX 6 statt 8 ;)
Wieso es kommt doch hin. Eine GeForce 6800 hat 12 Pixelpipelines und 5 Vertex Shader Units. Die GeForce 6800 GT hat ein Pipe Quad mehr und insgesamt 6 Vertex Shader Units. Die GeForce 7800 GT hat wiederrum ein Pipe Quad mehr und somit insgesamt 20 Pixel Pipelines und hat gegenüber der GeFeforce 6800 GT eine Vertex Shader Unit (7) mehr. Die GeForce 7800 GTX hat dann wieder ein Pipe Quad mehr und eine Vertex Shader Einheit zusätzlich. Somit kommen immer auf vier Pixel Shader Pipelines eine Vertex Shader Unit. Man muss den Satz nur so formulieren, dass nicht auf vier Pixelpipelines eine Vertex Shader Einheit kommt, sondern auf ein zusätzliches Pipe Quad eine Vertex Shader Unit.
 
Zuletzt bearbeitet:
Ach so; entschuldige bitte, ich hatte Deinen Gedankengang missverstanden :P
Allerdings wäre es in meinen Augen - aus o.g. Gründen - eben ohnehin wenig sinnvoll diese 10VS zu implementieren.

so long

JCD
 
Zuletzt bearbeitet:
Das der Unterschied grösser wird zwischen den Modellen war klar, denn zwischen der 7800 GT und der normalen GTX waren gerade mal 10~15 % Unterschied je nach Anwendung und das bei durchschnittlich 120&#8364; Preisunterschied.
 
Das der Unterschied grösser wird zwischen den Modellen war klar, denn zwischen der 7800 GT und der normalen GTX waren gerade mal 10~15 % Unterschied je nach Anwendung und das bei durchschnittlich 120&#8364; Preisunterschied.

eigentlich war das ja in der Vergangenheit recht normal: GF4 Ti4200 vs. 4600 = etwas mehr Takt (mehr RAM), R9700 vs. Pro = etwas mehr Takt, GF6800GT vs. Ultra = etwas mehr Takt ... etc.
Die 7900GT nicht nur zweier Pixelquads zu berauben, sondern auch den Chiptakt satte 100Mhz geringer anzusetzen ist in meinen Augen schon ein sehr harter Einschnitt ... :P

so long

JCD
 
Erstaunlich welch Unterschied da zwischen der 7900GT und GTX sein soll. Da drängt sich doch gleich der Verdacht auf, daß die GTX als absolute Benchmarkkiller-Karte dienen soll und dabei (wenn überhaupt verfügbar) für irrsinnige Summen weggehen wird.
Die Highend-Massenkarte wird gewiss die 7900GT, aber ob die schneller als eine X1900 wird?

1. eben - abgesehen davon, dass die GTX 512 wohl kaum als Standardmodell gelten kann: schlecht verfügbar und teurer als vergleichbare Karten.
Ich bin mir allerdings nicht ganz sicher, ob mir diese Taktsteigerung besonders gefällt ... wenn nVidia mit dem G71 in die gleiche Falle tappt wie Ati beim R520/580, fällt für mich der Stromverbrauch als letztes Pro-Argument für die GTX Versionen in der G70 Serie flach.
Nicht daß ich hohen Stromverbrauch gutheiße... aber idle verbrauchen X1900 und 7800GTX etwa gleich viel, bei Last brauch die ATI mehr. Aber ob ich nun 133 oder 100W verbrauche macht bei 3 Stunden Zocken pro Tag in einem Jahr ganze 7,30€ Mehrkosten (bei 0,2€/kWh)...
 
Erstaunlich welch Unterschied da zwischen der 7900GT und GTX sein soll. Da drängt sich doch gleich der Verdacht auf, daß die GTX als absolute Benchmarkkiller-Karte dienen soll und dabei (wenn überhaupt verfügbar) für irrsinnige Summen weggehen wird.
Die Highend-Massenkarte wird gewiss die 7900GT, aber ob die schneller als eine X1900 wird?


Nicht daß ich hohen Stromverbrauch gutheiße... aber idle verbrauchen X1900 und 7800GTX etwa gleich viel, bei Last brauch die ATI mehr. Aber ob ich nun 133 oder 100W verbrauche macht bei 3 Stunden Zocken pro Tag in einem Jahr ganze 7,30€ Mehrkosten (bei 0,2€/kWh)...

Dann kommt noch hinzu, das in den nächsten ForceWare's wohl eine Funktion hinzukommt, die AMD's Cool'n'Quiet wohl ähnlich sein wird.

Und was der Titulierung "Benchmarkkiller" hinzuzufügen wäre, ist Folgendes:

a) hat das auch Ati mit seinem Flaggschiff erstklassig hinbekommen (nur eine handvoll Karten verfügbar)

b) werden soooviele Leute diese Karte nun auch nicht kaufen. Es werden Fetischisten sein, Leute die halt privat auch einen Ferrari oder Lamborghini benötigen um einkaufen zu fahren... ;D

Wichtig ist, das die GT ausreichend verfügbar sein wird und daran hege ich keinerlei Zweifel.
 
Feine Sache - wollte mir schon eine 7800GT holen, werde jetzt doch noch ein bisschen warten und die Preise/Benchmarks beobachten. :)
 
Das find ich saugeil und das macht mich tierisch an... So animalisch *Grins*

Zu diesem Kommentar, der Dich anscheinend animalisch anzieht, wollte ich auch noch was loswerden:

War es nicht die liebe Firma ATI, die SCHWITZEND nur an der Taktschraube drehte und vielen Karten den Tod brachte, während NVIDIA die technisch weit überlegene NV40 Generation auf den Markt bracht...? ;)

Alles bleibt sich doch irgendwie gleich. Umso schöner, das es bei ATI und NVIDIA recht ausgeglichen zugeht.
 
ja ATI hat 2005 eindeutig Ihre Chance verpasst und Nvidia einfach hart eroberten Markt wieder geschenkt. besonders in der Zeit wo die meisten Spiele rausgekommen sind und die Leute mit Geld zu den teuersten Karten zugerfiffen hatten, die aber nur von Nvidia zur Verfuegung gab. Mit dem entsprechenden Image ist es dann auch leicht die 7900 er Serie sogar fuer 600 Euro locker zu vertilgen und Preisleistungstechnisch ist die ATIs X8xx Serie auch nicht der Renner, wo schon 7800GT fuer unter 280 € erhaeltlich ist... Tendenz zu 250€. Und die Nvidias Strategie mit mehr Pipelines ist zwar nicht effizient aber das errinert mich an damalige Zeit, wo AMD mit Athlon XP gegen Intel mit seinen 3 Gigaherz Monstern wirken wollte.
 
Zurück
Oben Unten