G92 wird zur GeForce 8800GT

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Die eigentlich unter dem Namen 8700GTS für Mitte November erwarteten (wir berichteten) Grafikkarten für den Performance-Bereich sollen nun unter dem Namen 8800GT verkauft werden, und das evtl. bereits ab Anfang November.

Die 8800GT soll es dann als 256MB- und als 512MB-Version zu Preisen ab 150€ ($199) bzw. 200€ ($249) geben, die beide auf 1ns-GDDR3-Speicher setzen. Von der Geschwindigkeit sollen beide Modelle zwischen der 8600GTS und der 8800GTS.

NVIDIA versucht derzeit noch die Taktraten zu erhöhen und könnte versuchen, mit einem vorgezogenen Start Anfang November noch vor AMDs RV670 bzw. ATI Radeon HD 2950Pro den Markt aufzumischen.

<b>Quelle:</b> <a href="http://sg.vr-zone.com/articles/Nvidia_G92_is_GeForce_8800_GT/5299.html" target="_blank">Nvidia G92 is GeForce 8800 GT</a>

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1190990482">RV670 ab Mitte November</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189089678">8700GTS: Mittelklassegrafik auf Basis des G92</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1185004358">PCIe 2.0-Chipsätze von NVIDIA ab November</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1183134554">G92: Gibt es bald wieder richtige Mittelklasse-Grafikkarten?</a></li>
<li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1179997421">NVIDIA: G92 ab Ende des Jahres</a></li></ul>
 
Na da bin ich dann mal auf die Verlustleistung gespannt. Wird sich somit demnächst also die Frage stellen, ob es eine ATI (HD2950 Pro) oder eine nVidia (8800 GT) werden wird.
 
Scheint am ende alles weitaus weniger aufregend zu sein als manch einer glauben wollte. :P
 
Na da bin ich mal gespannt, ob das auch so eine Blenderkarte wird wie die 8800GTS320.
 
8800 GT und 2950 pro kann man nicht miteinander vergleichen. Die pro hat volle 320 stream Prozessoren wie die XT, während die 8800 GT mit 64 nur die Hälfte einer GTX hat.
Die 8800 GT ist Mittelklasse, die 2950 pro untere Oberklasse.
 
Die Aufregung bei neuer Hardware ist ja immer sofort weg, wenn sie auf dem Markt verfügbar ist. :]

Ich hoffe nur, daß AMD die Probleme mit dem unerwartet starken Leistungseinbruch unter AA gefixt und Nvidia auch die ein oder andere Ungereimtheit der 8800 beseitigt hat, dann wird man wohl beide Karten uneingeschränkt empfehlen können. Jedenfalls gibt es dann bald für jeden Preisbereich was vernünftiges.
 
Ungereimtheiten bei der 8800GTS320 beseitigen, dass glaubst Du doch wohl selbst nicht.

Folgende Vorgehensweise,
Übereilte Produktreleases
1 Erste Zweifel in der Öffentlichkeit
2 Verneinung eines Problemes.
3 Zugeben, es könnte ein Problem sein
4 Ja es gibt ein Problem wir arbeiten daran,ist allerdings sehr komplex kann etwas dauern
5 Workarounds zum Kaschieren des Problems wenn überhaupt was getan wird.
Denke fast da hat sogar MS mit in die Bütt springen müssen.
6 Die anderen sind eigentlich Schuld
7 Ablenkung auf anderes Produkt, wenns akut wird.

Das nennt sich Spiel auf Zeit.

Hat Nvidia nicht auch gute Vista Treiber für NForce3 versprochen nachdem sich die Stimmen erhoben, dass es Probleme gibt und glaub sogar fast schon geklagt wurde.
Es gab dann mal Treiber für alle Chipsätze ab Nforce4 als Ablenkung, nur der Nforce3 dümpelt noch so vor sich hin.
Oder wo bleibt die Stromsparfunktion für die G80
 
Zuletzt bearbeitet:
@Pitt G.
Du nimmst mir die Worte aus dem Munde. Wer mehr Details lesen möchte, kann ja meinen [F] an 8800 GTS Besitzer im Grafikkartenthread verfolgen.

Danke NVIDIA, die Karte kannst Du behalten. Fix Deine überfälligen Bugs und Hardwaredesignfehler und sorge dafür, das Käufer der G80 <= GTX/Ultra eine VOLL FUNKTIONSFÄHIGE Karte ohne VRAM-Bug und flackern @ DVI->VGA Adapter erhalten.

Nachwievor sind zu fixen:
Defekter Videoprozessor @ GeForce 6800 GT/Ultra (Wurde beworben, aber nicht eingehalten. Kunden erhielten natürlich KEINEN Ersatz).
Sterbende G71er... lt. NVIDIA natürlich nur Einbildung
VRAM Bug bei G80 und 8600ern... natürlich alles nur Einbildung, machen wir doch mal eben @ Treiberfix (lol)

NVIDIA, eure ActiveArmor Firewall @ nForce 4 kann man immer noch nicht gebrauchen. FTP Downloads werden nachwievor zerstört. Haben nForce 4 Besitzer nicht eine kleine Entschädigung verdient? Ihr habt's doch und laßt euch jeden Zwischenschritt vergolden. Zeit den treuen Kunden was zurückzugeben.
 
Ich merke gerade das ich bei den NV Produkten schon ein weilchen nicht mehr auf dem laufenden bin......und bin irgendwie auch froh darüber. *suspect*
Dei ATI hab ich da eher etwas lästige Probleme, wie die etwas zu gering eingestellte 2D Lüfterdrehzahl meiner 2900XT, weshalb sie sich langsam auf 70 Grad aufheizt, der Propeller eine Stufe hochschaltet (3D Tempo), innerhalb weniger Sekunden die Temperatur wieder auf 65 Grad fällt, wieder runterschaltet und sich das Spielchen alle 5-10 Minuten wiederholt.
 
Zuletzt bearbeitet:
Ich merke gerade das ich bei den NV Produkten schon ein weilchen nicht mehr auf dem laufenden bin......und bin irgendwie auch froh darüber. *suspect*
Empfehlenswerte Produkte NVIDIAs:
GeForce 8800 GTX/Ultra
GeForce 7600 GT

nForce 4x0 (wer ohne Active Armor leben kann)

Der Rest ist grütze und verbuggt (G80/G86 Serie: Je weniger RAM das Modell hat, desto schlimmer der VRAM Bug; Treiber schaffen nur einen workaround, keine Lösung).. Auch wenn jetzt die Meisten wieder die Augen zu machen und sagen "Boah, gar nicht war. Läuft doch ganz toll bei mir." Wird Zeit solchen Herstellern mal die Grenzen aufzuzeigen. Wenn ich gegenrechne, was ich bisher an NVIDIA Hardware GEKAUFT habe (Privat;Gewerbe) und was ich als GEGENLEISTUNG erhalten habe, wird mir schlecht. In jeder anderen Branche gehen solche Hersteller pleite. VIA konnte sich ja leider auch noch recht lange nach dem 686B Disaster durchschleppen. Mal sehen, wann NVIDIA gegen die Wand knallt (hoffentlich bald).
.
EDIT :
.

Dei ATI hab ich da eher etwas lästige Probleme, wie die etwas zu gering eingestellte 2D Lüfterdrehzahl meiner 2900XT, weshalb sie sich langsam auf 70 Grad aufheizt, der Propeller eine Stufe hochschaltet (3D Tempo), innerhalb weniger Sekunden die Temperatur wieder auf 65 Grad fällt, wieder runterschaltet und sich das Spielchen alle 5-10 Minuten wiederholt.
Das wäre für mich das kleinere Übel (da nur Geräuschkulisse). Bei ATI haste im Moment das Problem, das 1080i nicht beschleunigt wird bei deren Topmodellen; progressive Modi schon.
Vielleicht nur ein Treiberproblem. Aber im Moment bin ich mit ATI UND NVIDIA bedient.
 
Selbst die GTX und Ultra dürften es als 1st Generation Produkt für DX10 schwer haben.
Wirklich empfehlenswert werden eigentlich erst die Single Highendkarten der letzten DX10.x Generation.Die dann aber eigentlich veraltet sind, Sie sollte allerdings reichen,bis DX11 Games dann tatsächlich verfügbar sind und der Qualitätsunterschied wirklich bemerkbar ist.
Single deswegen, da jegliche Dualcards oder SLI/Crossfire Setups zusammengeschusterte Grakas sind, denen dann doch rasch die Puste ausgeht.

Und wenns für Firmen dann wirklich problematisch werden sollte, wird dann rasch ein williger Manager gesucht. Mit dem wird dann noch schnell eine Vertragsverlängerung auf ein paar Jahre gemacht. Der bekennt sich dann aber als Sündenbock und begibt sich mit einer grosszügigen Abfindung in den Ruhestand. Und alles läuft weiter wie bisher.

Und das alles durch den Druck auf Manager gute Vierteljahresresultate dem Shareholder gegenüber zu präsentieren und deren Gier nach Bonuszahlungen.
.
EDIT :
.

Zugegeben, es gab natürlich Highendzwischenkarten,die bei Grakaslotwechsel die auch ganz passabel waren.
Würde mal folgendes Schema machen.
Topsystem
AGP4x SockelA FSB133 GF4600Ultra,DX8.1
Zwischensystem
AGP8x SockelA FSB200 GFFX5950Ultra DX9
AGP8x Sockel 754 GF6800Ultra DX9
Topsystem
PCIe1.0ax16 Sockel939 Singlecore GF7900GTX DX9
Zwischensystem
PCIe1.0ax16 Sockel939/AM2 Dualcore GF8800Ultra DX10

Lies mann die Zwischensysteme aus, sparte mann sich das Geld für 2 Rechner, bis DX9 Grakas bei Games dann wirklich Pflicht wurden, obwohl es natürlich auch supi war, dass mann vom Sockel A FSB200 Sys, den Speicher noch bis zu Sockel939 Dualcore mitnehmen konnte.
 
Zuletzt bearbeitet:
Das wäre für mich das kleinere Übel (da nur Geräuschkulisse). Bei ATI haste im Moment das Problem, das 1080i nicht beschleunigt wird bei deren Topmodellen; progressive Modi schon.
Vielleicht nur ein Treiberproblem. Aber im Moment bin ich mit ATI UND NVIDIA bedient.

Na bei den 2900 Modellen halte ich das auch nicht für allso problematisch und sortiere es auch eher unter lästig ein, da diesen in der Regel ohnehin ein entsprechender Prozessor zur Seite steht. Selbst mit meinem 939er X2 4400+ konnte ich mir den Spiderman Trailer (der wurde doch immer al Beispiel genannt, oder?) problemlos mit max. 70% CPU Last anschauen.
 
Na bei den 2900 Modellen halte ich das auch nicht für allso problematisch und sortiere es auch eher unter lästig ein, da diesen in der Regel ohnehin ein entsprechender Prozessor zur Seite steht. Selbst mit meinem 939er X2 4400+ konnte ich mir den Spiderman Trailer (der wurde doch immer al Beispiel genannt, oder?) problemlos mit max. 70% CPU Last anschauen.
Den Einen mag die CPU-Auslastung nicht stören, mich allerdings schon. Einzig aus diesem Grunde KAUFE ich doch Grafikkarten die genau DIESES Feature bewerben.
Meine TV-Karten haben auch allesamt einen MPEG-2 Encoder OnBoard (bei 4 gleichzeitigen Aufnahmen @ 720 x 576 habe ich weniger als 5% CPU-Last!). Die CPU wird für andere Sachen benötigt, für Applikationen die im Hintergrund laufen (u.A. Streamingserver).
 
Ich hatte mich schon gewundert, wie der G92 die 8800GTS ersetzen sollte, wenn er schon vom Namen (8700GTS) nicht an sie ran kommt. Die Umentscheidung befördert den Chip, wenn er auch nach NV-Namensschematik noch unter der GTS steht.

Allerdings seh ich immernoch nciht, wie leich erhöhte Taktraten durch 65nm und ein 256Bit-SI gegenüber der 8600GTS den riesigen Unterschied zu den 8800ern aufheben sollen.
Hört sich für mich also ziemlich nach irreführender Namensgebung an.

OT: Ist das eigtl. wirklich so schlimm mit dem VRAM-Bug bei 8600ern (wahrscheinlich alle mit weniger als 512MB) und der GTS-320? In Benchmarks schneiden die ja meist nur geringfügig schlechter ab als gleichgetaktete Modelle mit mehr Speicher.
 
OT: Ist das eigtl. wirklich so schlimm mit dem VRAM-Bug bei 8600ern (wahrscheinlich alle mit weniger als 512MB) und der GTS-320? In Benchmarks schneiden die ja meist nur geringfügig schlechter ab als gleichgetaktete Modelle mit mehr Speicher.
Alles eine Frage, "wie" man bencht. Kommst Du an die falschen Spiele, ist eine 8600 GTS bspw. erheblich langsamer als eine 7600 GT...

Außerdem ist es irrelevant wie "schlimm" das doch sei. Das ist ein Hardwarefehler, der dem ganzen Internet bekannt ist und noch immer nicht beseitigt worden ist. Wie alle Hardwarefehler, die NVIDIA produziert. Wär' nett, wenn die Käufer endlich mal aufhören würden so einen Mist auch noch zu kaufen. Damit wäre uns allen geholfen.
 
Der G92 hat die doppelte Anzahl an Shadern wie die 8600GTS, und zwei Drittel dessen was die 8800GTS hat. Mit höheren Takten kann die schon nahe an die 8800GTS rankommen...
 
Der G92 hat die doppelte Anzahl an Shadern wie die 8600GTS, und zwei Drittel dessen was die 8800GTS hat. Mit höheren Takten kann die schon nahe an die 8800GTS rankommen...
Inklusive Speicherbug, oder darf man jetzt ein zweites Mal Geld raushauen um die tolle Edition ohne Bug zu bekommen?
 
Den Einen mag die CPU-Auslastung nicht stören, mich allerdings schon. Einzig aus diesem Grunde KAUFE ich doch Grafikkarten die genau DIESES Feature bewerben.
Meine TV-Karten haben auch allesamt einen MPEG-2 Encoder OnBoard (bei 4 gleichzeitigen Aufnahmen @ 720 x 576 habe ich weniger als 5% CPU-Last!). Die CPU wird für andere Sachen benötigt, für Applikationen die im Hintergrund laufen (u.A. Streamingserver).
Na ja, ist vielleicht Ansichtssache aber eine 2900 würd eich nicht mal ansatzweise in einen solchen Rechner einbauen, da sie durch ihren Strombedarf und die daraus resultierende Lautstärke schlicht und ergreifend eine Zockerkarte ist. :)
Richtig beworben wird dabei ja letztenendes vor allem die HDMI Unterstützung sammt Audioausgabe....wenn ich mich recht entsinne, dann übernehmen mangels Videoprozessor die Shader beim R600 die Videoberechnung.
 
wenn ich mich recht entsinne, dann übernehmen mangels Videoprozessor die Shader beim R600 die Videoberechnung.
Das wäre ja auch in Ordnung, die CPU Last wäre ja dennoch gering. Aber leider hapert's bei der ATI wohl bei 1080i, ob das nun auch andere interlaced Verfahren betrifft, kann ich Dir nicht sagen.
 
Also ich weiss net, ich für meinen Teil freunde mich immer mehr mit dem Gedanken an, mir in Zukunft ne Konsole zuzulegen. Und wenns dann noch ein PC sein muss, halt zusätzlich einen nur mit Onboardgraka, der dann aber von Anfang an so ausgestattet ist, dass er mehr als nur 3 Jahre hält. Bis dahin ist aber noch lange Zeit, bis meine ganzen Rechner in Rente gehen.
 
Also ich weiss net, ich für meinen Teil freunde mich immer mehr mit dem Gedanken an, mir in Zukunft ne Konsole zuzulegen. Und wenns dann noch ein PC sein muss, halt zusätzlich einen nur mit Onboardgraka, der dann aber von Anfang an so ausgestattet ist, dass er mehr als nur 3 Jahre hält. Bis dahin ist aber noch lange Zeit, bis meine ganzen Rechner in Rente gehen.
ASUS A8N-VM CSM, mit der OnBoard 6150 haste schonmal eine brauchbare Plattform. Auch Heute mit einem X2 4.200+ mehr als Allroundtauglich. Hätte ich es bloß nicht verkauft... -.-

Konsole kommt mir nicht ins Haus; die sind mittlerweile fast genauso verbuggt, wie PC's. Die guten alten Hersteller sind dahingeschieden. Ist nur noch Technikmüll.
 
Wär' nett, wenn die Käufer endlich mal aufhören würden so einen Mist auch noch zu kaufen. Damit wäre uns allen geholfen.
solange vor jedem 2. Spiel ein "Nvidia.. that meant´s to play" kommt.. nie ;)
Marketing^^
 
solange vor jedem 2. Spiel ein "Nvidia.. that meant´s to play" kommt.. nie ;)
Marketing^^
Ja, wie bei Oblivion. "TWIMTP"... super... nur das es auf ATI Karten besser läuft *g*

Peinliches Marketing. Wie war nochmal die Kernaussage von NVIDIA? TWIMTP bedeutet nicht, das man höhere Frameraten habe, sondern das das Spiel besonders kompatibel sei... (ähm ja, wer die ReleaseNotes studiert weiß, was wirklich Sache ist).

Nutzloses Label wie die WHQL Zertifizierung bei Microsoft (WHQL bedeutet nicht Absturzfrei).
 
Ja, wie bei Oblivion. "TWIMTP"... super... nur das es auf ATI Karten besser läuft *g*

Peinliches Marketing. Wie war nochmal die Kernaussage von NVIDIA? TWIMTP bedeutet nicht, das man höhere Frameraten habe, sondern das das Spiel besonders kompatibel sei... (ähm ja, wer die ReleaseNotes studiert weiß, was wirklich Sache ist).

Nutzloses Label wie die WHQL Zertifizierung bei Microsoft (WHQL bedeutet nicht Absturzfrei).
tja, das weißt du, das weiß ich (der problemlos mit seiner x1800 daddelt und das WHQL liebend gerne wegklikt), das weiß das halbe Forum.. aber nicht die ganzen Dummbratzen, die draußen durch die Weltgegend laufen :]
 
...
Dei ATI hab ich da eher etwas lästige Probleme, wie die etwas zu gering eingestellte 2D Lüfterdrehzahl meiner 2900XT, weshalb sie sich langsam auf 70 Grad aufheizt, der Propeller eine Stufe hochschaltet (3D Tempo), innerhalb weniger Sekunden die Temperatur wieder auf 65 Grad fällt, wieder runterschaltet und sich das Spielchen alle 5-10 Minuten wiederholt.

Dann probier doch mal den RivaTuner aus.
Mit der Anleitung zum temperaturabhängigen Lüfter hab ich endlich Ruhe und die GPU ist immer kühl genug.


AndyK
 
Zurück
Oben Unten