NVIDIA stellt GeForce GTX 200 GPUs vor

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Mit der GeForce GTX 280 und der GeForce GTX 260 stellt NVIDIA zwei neue Grafikchips auf Basis des GT200 vor.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=2557"><img src="http://www.planet3dnow.de/photoplog/file.php?n=2557&w=l"></a></center>

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=2556"><img src="http://www.planet3dnow.de/photoplog/file.php?n=2556&w=l"></a></center>

<b>Zur Pressemitteilung:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=3638089#post3638089"> Neue NVIDIA GeForce GTX 200 GPUs bringen Grafikspaß für weit mehr als nur Gaming</a>


<b>Reviews:</b>
<ul><li><a href="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/" target="b">Nvidia Geforce GTX 280: Alle PCGH-Tests im Überblick <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></a></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/" target="b">Test: Nvidia GeForce GTX 280 (SLI) - ComputerBase <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></a></li><li><a href="http://www.tweakpc.de/berichte/nvidia_geforce_gtx_200/s01.php" target="b">NVIDIA GeForce GTX 200 Videos</a> - TweakPC <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li>
<li><a href="http://anandtech.com/video/showdoc.aspx?i=3334" target="b"> NVIDIA's 1.4 Billion Transistor GPU: GT200 Arrives as the GeForce GTX 280 & 260 - AnandTech</a> <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li><li><a href="http://www.tweaktown.com/articles/1465/geforce_gtx_280_with_qx9650_at_4ghz/index.html" target="b">GeForce GTX 280 with QX9650 at 4GHz - TweakTown</a> <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li></ul>
 
Hi,
jetzt warten wir nach dieser Vorlage*em_zwinker* vom den Einwurf von AMD*em_wink*

Greetz
neax;)
 

Ich denke hier besteht das gleiche Problem wie bei ATI, mit dem alten Catalyst und der neuere dann nochmal einen deutlichen Performance Schub eingebracht hatte.

Interessant ist auch, das die X2 Karten so schlecht abschneiden. Deutet darauf hin das der Simulator nicht von SLI oder CF profitieren kann. Sonst könnte eine betagte Ultra nicht vorne liegen, mit der Technik einer 8800GTX+OC = Ultra !

Aber was ich nicht verstehe, warum NV hier krumme Taktraten angibt, und der Speicher ist wohl nen Witz, 1GB okay. Aber soll der Quatsch mit 896MB. Da hätte man auch auf 768MB bleiben können.
 
Interessant ist auch, das die X2 Karten so schlecht abschneiden. Deutet darauf hin das der Simulator nicht von SLI oder CF profitieren kann. Sonst könnte eine betagte Ultra nicht vorne liegen, mit der Technik einer 8800GTX+OC = Ultra !
Exakt, so ist es. Weder der FS9 (FS2004) noch der FSX ziehen irgendeinen Nutzen aus SLI, CF oder Doppel-GPU-Karten. Im Gegenteil, das macht ihn langsamer.

Interessant ist in dem Zusammenhang auch ein anderer Test (auch von THG - ich weiß, die sind zweifelhaft, aber leider die einzigen, die mit dem FS testen), bei dem durch Abkleben von Pins PCIe-x8, -x4, -x2 und -x1 simuliert wurde. Und da kam heraus, daß die verdoppelte Bandbreite durch PCIe-x16 2.0 die fps deutlich steigert, da Texturen schnell aus dem Hauptspeicher geladen werden müssen. Der Unterschied betrug bei einer 9800-GX2 ca. 15%, und wurde durch Abkleben der Kontakte auf PCIe-x8 2.0 ermittelt (was ja bandbreitenmäßig identisch mit PCIe-x16 1.1 ist).

Insofern müßte die (PCIe 2.0 unterstützende) 9800-GX2 eigentlich schneller sein als die 8800GTX/Ultra mit PCIe 1.1. Ist sie aber nicht - dies legt nahe, daß entweder das breite Speicherinterface der GTX besonders wichtig ist, oder daß (siehe oben) die Eigenschaft als Doppel-GPU-Karte bremsend wirkt. Oder beides.

Aber was ich nicht verstehe, warum NV hier krumme Taktraten angibt, und der Speicher ist wohl nen Witz, 1GB okay. Aber soll der Quatsch mit 896MB. Da hätte man auch auf 768MB bleiben können.
Man mußte eine Unterscheidung zur alten Generation herstellen, damit Leute, die sich nicht sooo genau auskennen (und für die die Speichergröße ein Kriterium für Leistungsfähigkeit ist), nicht die vermeintlich "gleichschnelle", aber ungleich billigere 8800GTX vorziehen. Und 896MB klingen nun mal besser als 768MB...
 
Aber THG hat doch z.b bei diesem Test kein P35er Board verwendet ! (leider)
 
Aber THG hat doch z.b bei diesem Test kein P35er Board verwendet ! (leider)
Nein, eins mit dem X38-Chipsatz - dieser beherrscht ja PCIe 2.0 (P35 nicht). Also nicht einmal mit einem PCIe-2.0-Board kann die PCIe-2.0-Karte 9800GX2 ihren Vorteil ausspielen.

Daß die GTX280 so schlecht abschneidet, liegt bestimmt am nicht optimierten Treiber, da bin ich Deiner Meinung. Aber erfahrungsgemäß haben ja Treiberoptimierungen nun auch keine bahnbrechenden Veränderungen zur Folge; die Quintesszenz, daß die GTX280 keinen allzu großen Vorteil für den FSX bringt, dürfte im Kern wohl erhalten bleiben.
 
Nein, eins mit dem X38-Chipsatz - dieser beherrscht ja PCIe 2.0 (P35 nicht). Also nicht einmal mit einem PCIe-2.0-Board kann die PCIe-2.0-Karte 9800GX2 ihren Vorteil ausspielen.

Daß die GTX280 so schlecht abschneidet, liegt bestimmt am nicht optimierten Treiber, da bin ich Deiner Meinung. Aber erfahrungsgemäß haben ja Treiberoptimierungen nun auch keine bahnbrechenden Veränderungen zur Folge; die Quintesszenz, daß die GTX280 keinen allzu großen Vorteil für den FSX bringt, dürfte im Kern wohl erhalten bleiben.

Stimmt, PCIe 2.0 erst IX-38/48/P-45............

Aber auf der anderen Seite könnte man den FSX für die Leistung von Single-Core bewerten, und da da die GTX-280 sich nicht deutlich von der 8800Ultra absetzen kann, ist schon ziemlich ernüchternt. Wäre mal interessant gewesen wie es bei 1280x1024 ausgesehen hätte., als vgl.
 
Stimmt, PCIe 2.0 erst IX-38/48/P-45............

Aber auf der anderen Seite könnte man den FSX für die Leistung von Single-Core bewerten, und da da die GTX-280 sich nicht deutlich von der 8800Ultra absetzen kann, ist schon ziemlich ernüchternt. Wäre mal interessant gewesen wie es bei 1280x1024 ausgesehen hätte., als vgl.
Aber gerade bei hohen Auflösungen sollte die GTX280 doch so stark sein...

Aber da sieht man mal, wie wichtig in Tests auch der FSX wäre. Die meisten anderen Spiele liefern - in großen und ganzen - ja stets ähnliche Ergebnisse. Mit dem FSX im Portfolio würde jeder Test aufschlußreicher, denn der ist in jeder Weise für eine Überraschung gut. Und es ist ja nicht so, daß Flugsimulanten nun eine kleine, zu vernachlässigende Gruppe wären, und es 10x so viele Ballerspieler gäbe... Die Flugsimulanten sind nur meist schon etwas älter, und deshalb treiben sich viele nicht mehr in den einschlägigen Hardwareforen rum, und wenn, dann eher nur lesend.
 
IAber was ich nicht verstehe, warum NV hier krumme Taktraten angibt, und der Speicher ist wohl nen Witz, 1GB okay. Aber soll der Quatsch mit 896MB. Da hätte man auch auf 768MB bleiben können.
Das ist kein Quatsch, sondern abhängig vom Speicherinterface. Das hat bei den 260er Karten jetzt 448bit, anstatt 384bit wie bei der alten G80.Damit lassen sich dann halt logischerweise auch mehr Speicherchips anschließen, wodurch man dann statt 786MB eben 896 MB verbaut.

Ansonsten könntest Du Dich genausogut darüber beschweren, dass die 512bit Karten 1 GB VRAM haben, und nicht 768 oder 512MB ;-)

@SLi Performance: Vielleicht spielt da jetzt doch der Flaschenhals des nvidia PCIe 2.0 Chips rein, der Chip selbst hat ja PCIe2 aber das Interface zum "Hauptchipsatz" mit dem Speicherinterface ist ja geringer. Bei den GX2 Karten könnte der Bridge Chip die Karten auf PCIe 1.1 abbremsen, ist zumindest bei der ATi X2 so, bei nvidia weiß ich es nicht.

ciao

Alex
 
Zuletzt bearbeitet:
"Realistisch betrachtet bietet die GeForce GTX 280 dem Käufer eine sehr hohe Spieleperformance auf Niveau der GeForce 9800 GX2 oder gar höher.."
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/35/

Und wo ist jetzt da der Brüller ? Der Knaller des Jahrtausends ? Die Hyper Anti Alles Gamer ich brenn dir das Hirn aus dem Schädel Effekt ?
Die Stromsparfunktionen in 3 Schritten soll jetzt den Hype darum nicht erklären oder doch ? Oder der Stromverbrauch unter Last ?

NVidias Heißluftballon ? *noahnung*
 
jetzt ist die frage wo sich ati platzieren wird. sicher unter der 280, aber zu nem besseren preis leistungs verhältnis. ich hoffe dann wird ati wieder punkten können.
 
Aber was ich nicht verstehe, warum NV hier krumme Taktraten angibt, und der Speicher ist wohl nen Witz, 1GB okay. Aber soll der Quatsch mit 896MB. Da hätte man auch auf 768MB bleiben können.

Der Quatsch erklärt sich einfach daraus, dass die GTX260 eine ROP Partition weniger hat als der GTX280 und entsprechend eine ROP Partition mehr als der G80-GTX. Dementsprechend hat die GTX260 auch einen 64bit Speicherkontroller weniger als die 280 und 128MB daran angehängten Speicher weniger. Ist also kein Quatsch sondern technisch nicht vermeidbar, wenn man eben entsprechend den Chip intern abrüsten will. nVidia hätte es natürlich bei der GTX260 auch bei sechs ROP Partitionen lassen können, dann hätte der Chip genau die gleiche Speichermenge wie der G80 gehabt. Wollte nVidia aber eben nicht......

Ansonsten ist eigentlich erstaunlich, wie gut offenbar schon doch die dual-GPU-Lösungen ihre theoretische Leistung auch abliefern in den meisten Benches. Das macht es der GTX280 natürlich schwer, in allen Settings an der GX2 vorbeizuziehen. Aber der Stromverbrauch ist unter Last und idle geringer, als die dual-GPU-Lösungen, von daher eigentlich nicht verkehrt. Die ultimative Offenbarung, wie damals der G80, ist es aber natürlich nicht.


Die FSX-Tests bei Toms machen eigentlich überhaupt keinen Sinn. An einer GTX280 ist eigentlich nichts langsamer, als an einer 8800GTX/Ultra. Außer der shader-Takt. Die einzig mögliche Erklärung wäre, dass der FSX von der größeren Anzahl paralleler shader nicht profitieren kann und quasi eine Art "single-thread shader Programm" darstellt. Das wäre dann wohl eher ein Armutszeugnis für den FSX und weniger für die Graka-Hersteller. Möglicherweise lässt sich das ja durch kräftiges shader replacement irgendwie noch beheben.
 
Zuletzt bearbeitet:
Durch den Treiber wird noch einiges an Performance rauszuholen sein, hat man bei den letzten ATi Karten auch gesehen. Der FSX Test zeigt doch eigentlich nur, das das ganze Spiel von der CPU limitiert wird und die Grafikkarte nicht die Möglichkeit hat zu zeigen was sie kann. Auch hier kann der Rückstand wieder am treiber liegen, der derzeit evtl. noch mehr CPU Zeit braucht um den GT200 anzusteuern, als einen G80 oder G92.

Wenn ein Spiel CPU limitiert ist, ist das schön und gut und zeigt, dass es sich nicht immer lohnt nur auf eine neue GraKa zu setzen, allerdings ist es für mich damit als Benchmark für eine Grafikkarte nonsens.
 
Also ich weiß nicht, was Ihr habt, die 280 ist wie erwartet die stärkste Einzelchip-Karte, und das SLI daraus ist auch der Leistungskönig. Klar gibt es immer Leute, die sich mehr erwarten, aber es war ja nicht nötig. Und da man sich im dem Bereich sowieso an der Grenze des technisch Machbaren bewegt und damit auch schnell in den Bereich der Unwirtschaftlichkeit gerät, ist doch klar, daß Nvidia nicht mehr macht als nötig.

Ob es mit 3-fach SLI reicht gegen ein Quad-CF aus RV770, wird man sehen, wahrscheinlich schon. Aber das ist sowieso nur ein reines Prestigeduell, die tatsächliche Anzahl derart ausgestatteter Kisten wird nie sehr hoch werden. Notfalls schieben sie dafür noch eine Ultra-Extreme-Version nach, mit höherem Takt und mit Wasserkühler, damit sie mit einem Slot auskommen, und schalten dafür Quad-SLI frei. Wenn man sich eh schon außerhalb der Vernunft bewegt, ist ja alles beliebig steigerbar.

Es wurde auch gemunkelt, daß es vom dem Chip auch bald eine 55nm-Version geben wird (diese ist noch 65nm), die dürfte für einige wohl interessanter werden.

Den 55nm-Shrink des G92 halte ich übrigens für wesentlich wichtiger, in dem Bereich wird die eigentliche Schlacht (gegen den RV770) stattfinden.
 
Wozu aber der ganze Spass mit dem riesen Hype darum wenn die stärksten CPUs limitieren, die Treiber nichts taugen, die Karte im Betastatus ist usw. usw. *noahnung*

Was ich da sehe ist das NVIdia es geschafft hat die Leistung einer Dual GPU auf eine Single CPU zu brutzeln und das für einen fetten Batzen Geld und dann noch verdammt warm und nicht gerade ohrenfreundlich :]

Also damit das Teil ein Kracher wird müßte schon mehr als ein neuer Treiber kommen.
Was nützt mir ein V8 der nur auf 4 Töpfen läuft und ich dazu nur Trommelbremsen habe ;D
 
V8 mit 8x100ccm braucht nur Trommelbremse :)

Aber im Ernst:
Aus EINEM Benchmark auf die Karte/den Chip zu schließen finde ich schon ziemlich gewagt.
Und 10-15% sollten durch Treiberoptimierungen machbar sein.
Erst recht, wenn ich daran denke, wie extrem langsam meine 6600GT damals am Anfang war.....
 
Ist doch eine Super Karte. Sehe das Problem einiger nicht. Sie ist noch zu laut und noch zu teuer, aber das sind die immer am Anfang. Zumindest ist die 280 eine Karte mit der man einen 26" TFT befeuern kann ohne SLI Macken wie bei der X2.

Die Leistung ist wie erwartet. Wer mehr erwartet hat ist ne arme Wurst. Die 7950 gx2 war zum Teil am Anfang auch schneller als die ersten G80. Aber zum Teil eben auch nicht, genau wie jetzt.

Da ich davon überzeugt bin das der Leistungsschub bei AMD genau so ausschaut wie gerade bei nVidia, wird meine nächste Karte wohl der leisere und billigere Nachfolger der 280 werden + mindestens 26" TFT.
 
Hi!...

Ich werde Nvidia mit einbeziehen und mich näher informieren, wenn ich aktuell auf der Suche nach ner Grafikkarte für einen Vista basierten Rechner bin..

Das Nvidia es da "gebacken" bekommen hat mit Hybrid - SLI den Stromverbrauch zu reduzieren, und noch dazu sehr schnelle Grakas baut, macht die Sache wieder interessant sich sowas mal "spasshalber" zu kaufen, bzw. ein System (BS/Software, etc. ) rund um die Grafikkarte zu konfigurieren...Grade wenn der Rechner nicht ausschließlich spieletauglich sein soll...Andererseits. Eine Limitierung auf nur ein OS
ist für meinen persönlichen Bedarf dann doch ziemlich Sch***.

Sowas sollte doch auch per BIOS + Softwaretool "on the fly" mit jedem OS machbar sein? Möchte natürlich auch mehrere OS nutzen können, ohne gleich im Idle 50 Watt durch eine (dann sinnlose) Grafik zu verbraten..Und das finde ich dann doch "unausgereift"...
Beschäftige mich also noch nicht so lange mit Hardware, hatte aber nur mitbekommen, dass hier sehr lange Zeit zum Zocken eine Radeon 1950 Pro oder eine 8800GTS empfohlen wurde...

Und als quasi "Außenstehender", frage ich mich nun, ob es nur eine Entwicklung der letzten ~12 Monate ist, dass in so kurzer Zeit so viele neue Karten releast werden?
Oder war das früher auch schon so?


Innerhalb von ~8 Monaten oder so gabs bei ATI von 2900XT über Radeon 3870 bis hin zum RV 770? in diesem Monat 3 Releases.
Bei Nvidia schauts mit 8800 GTS 512 MB / 9800 GTX (X2) und jetzt dem neuen GTX Chip auch nicht viel anders aus.

Also für mich wäre nach wie vor der beste Kaufgrund für eine High-End Karte das komplette "abschalten" auf jedem OS - wenn nicht benötigt...
Ich spiele halt nicht so oft, aber lieber wäre mir auch so ein "Sahneteil" an Grafikpower "bei Bedarf" anstatt einer IGP.

Grüße!
 
Normal das es ständig neue Karten gibt. PC ist keine Spielkonsole.
Das abschalten der Grafikkarte oder teilen der selben ist erst neu, das ist noch lange davon entfernt irgendwie Standard zu werden. Denn solange jeder sein eigenes Süppchen kocht wird davon auch nichts per BIOS für jedes OS umgesetzt.
 
Der Treiber wird da nicht mehr viel reisen können:
1. NV Optimiert schon bevor die Spiele auf dem Markt sind, denn dafür "The Way Its Meant To Be Played" da.
-> dadurch sind so Sprünge wie beim ATI 8.5er Treiber mehr als unwahrscheinlich außer auf kosten der Bildqualität (FSXI könnte eine Ausnahmen sein)!
2. Der GT200 ist zu sehr mit dem G92/G80 verwandt dass bedeutet das die Treiber schon bereits sehr lange Reifen konnten.
 
Das ist kein Quatsch, sondern abhängig vom Speicherinterface. Das hat bei den 260er Karten jetzt 448bit, anstatt 384bit wie bei der alten G80.Damit lassen sich dann halt logischerweise auch mehr Speicherchips anschließen, wodurch man dann statt 786MB eben 896 MB verbaut.

Ansonsten könntest Du Dich genausogut darüber beschweren, dass die 512bit Karten 1 GB VRAM haben, und nicht 768 oder 512MB ;-)

@SLi Performance: Vielleicht spielt da jetzt doch der Flaschenhals des nvidia PCIe 2.0 Chips rein, der Chip selbst hat ja PCIe2 aber das Interface zum "Hauptchipsatz" mit dem Speicherinterface ist ja geringer. Bei den GX2 Karten könnte der Bridge Chip die Karten auf PCIe 1.1 abbremsen, ist zumindest bei der ATi X2 so, bei nvidia weiß ich es nicht.

ciao

Alex

Was spricht dagegen eine 512-Bit Karte zu bringen, deren Chips mit 128-Bit angebunden sind, davon nehmen wir dann 4 Stück, mit jeweils 256MB dann hätten wir 1GB, oder man nimmt 8 Stück mit 64-Bit und 128MB, dann hätten wir auch 1GB. Man könnte nun die Karte mit 512MB bringen, sprich 4x64er Chips zu je 128MB nehmen und würde 256-Bit davon nutzen, oder man verbindet die 128M mittels 128Bit und könnte so bei 512MB ebenfalls das ganze Speicherinterface benutzen.

Die Karten hätten dadurch optimalen Speicherdurchsatz, egal mit wieviel Speicher sie ausgeliefert werden können, und man könnte die Anzahl der Chips auf dem PCB verringern, zu 286er Zeiten hätte ich ja noch verstanden wenn so eine Karte nun dank eines 16-Bit Interfaces der Chips so eine Karte mit echten 32 Käfern zu bestücken die jeweils eine Kapazität von
32MB auszustatten, um das ganze mit Ironie zu untermalen.

Nun die Argumente warum man das so nicht umsetzen kann !
 
Zuletzt bearbeitet:
Naja ich hab mehr erwartet nach dem berichten über den GT Chip.
Aber ja da sieht man wieder wie damals beim Phenom.
Vielleicht ist das gar nicht schlecht von AMD das sie den Termin der RV770 verschoben hatten. Viellecht ist die 4870 schneller als die GT280, oder die bringen gleich mit die X2 Version mit. Wer weiss AMD ist immer gut für eine Überraschung gut wie manns nimmt.
Aber was ich nicht verstehe ist wenn die X2 Graka laut Termin im August raus kommt, warzm zum Teufel kommt der RV870 im Noverber schon mit einer 40nm Fertigung!!!
Ich meine nur das sind nur zwei Monate nach der 4xxx Serien.
 
Zurück
Oben Unten