NVIDIA GeForce GTX 280 Reviews im Überblick

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Zwei Tage ist die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1213653449">offizielle Vorstellung des neuen Flaggschiffs aus dem Hause NVIDIA</a> mittlerweile her und es hat sich eine große Anzahl an Artikel angesammelt, die wir an dieser Stelle zusammengetragen haben:

<ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/" target="b">Nvidia GeForce GTX 280 (SLI)</a> [ComputerBase] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardwareluxx.de/pages/69928" target="b">NVIDIA GeForce GTX 280</a> [Hardwareluxx] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=186" target="b">GeForce GTX 280</a> [OCaholic] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardware-mag.de/artikel/grafikkarten/gt200_nvidia_geforce_gtx_280_260_im_detail/" target="b">GT200: Nvidia GeForce GTX 200 im Detail</a> [Hardware-Mag] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://ht4u.net/reviews/2008/msi_n280gtx/" target="b">MSI N280GTX-T2D1G-OC</a> [Hard Tecs 4U] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/" target="b">Übersicht aller Artikel zu Nvidia Geforce GTX 280</a> [PC Games Hardware] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> </ul><ul><li><a href="http://www.guru3d.com/article/geforce-gtx-280-sli-triple-review-test/" target="b">GeForce GTX 280 Dual and Triple SLI</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/articles/1466/nvidia_geforce_280_gtx_in_tri_sli_tested/index.html" target="b">NVIDIA GeForce 280 GTX in Tri SLI Tested</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://legitreviews.com/article/726/1/" target="b">NVIDIA GeForce GTX 280 Graphics Cards by EVGA and PNY</a> [Legit Reviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hexus.net/content/item.php?item=13736" target="b">NVIDIA GeForce GTX 280: does it rock our world?</a> [HeXus] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml" target="b">GeForce GTX 280</a> [NVNews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1" target="b">NVIDIA GeForce GTX 280</a> [Benchmark Reviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://techreport.com/articles.x/14934" target="b">Nvidia\'s GeForce GTX 280</a> [The Tech Report] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/Point_Of_View/GeForce_GTX_280" target="b">Point of View GeForce GTX 280 Assassins Creed Edition</a> [techPowerUp] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.madboxpc.com/review-nvidia-geforce-gtx-280/" target="b">NVIDIA GeForce GTX 280</a> [MadBoxPC] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.driverheaven.net/reviews.php?reviewid=579&pageid=1" target="b">NVIDIA GTX 260 & Zotac GTX 280 AMP!</a> [DriverHeaven] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition" target="b">Zotac GeForce GTX 280 Amp! Edition</a> [techPowerUp] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://translate.google.com/translate?u=http%3A%2F%2Fwww.chw.net%2FArticulos%2FNVIDIA%2FArquitectura-GT200-200806162031.html&hl=es&ie=UTF8&sl=es&tl=en" target="b">NVIDIA GeForce GTX 280 (Archtecture)</a> [ChileHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://translate.google.com/translate?u=http%3A%2F%2Fwww.chw.net%2FRevisiones%2FTarjetas-de-Video%2FNVIDIA-GeForce-GTX-280-200806152032.html&hl=es&ie=UTF8&sl=es&tl=en" target="b">NVIDIA GeForce GTX 280 (Performance)</a> [ChileHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hothardware.com/articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/" target="b">NVIDIA GeForce GTX 280 and GTX 260 Unleashed</a> [hotHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/articles/1465/geforce_gtx_280_with_qx9650_at_4ghz/index.html" target="b">GeForce GTX 280 with QX9650 at 4GHz</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.guru3d.com/article/geforce-gtx-280-review-test/" target="b">NVIDIA GeForce GTX 280</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.insidehw.com/Reviews/Graphics-cards/nVIDIA-GeForce-GTX-280.html" target="b">nVIDIA GeForce GTX 280</a> [InsideHW] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html" target="b">ZOTAC GeForce GTX 280 AMP! Edition</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> </ul>
 
ich find ne geile karte, aber der preis is alles andere als heiß :(

Ich hoffe auf die HD4870
 
ist da ein review bei, wo auf mikroruckler genauer eingegangen wird? also mit messungen oder so?
aber stimmt schon...außer schnell sein ist an der karte nix dran.

thx
mfg
 
ist da ein review bei, wo auf mikroruckler genauer eingegangen wird? also mit messungen oder so?
aber stimmt schon...außer schnell sein ist an der karte nix dran.

thx
mfg

Wurde schon dementiert, da die Probleme nur bei CF/SLI/Dual-GPU Karten auftritt, bei Single-GPU-Karten jedoch nicht, ob ATI dagegen es in den Griff bekommen hat, dürfte man sehr bald wissen.
 
@ TomTurbo

also mir fallen da spontan so sachen ein wie

- Leise sein
- Wenig Kosten
- Nen gutes Preis Leistungsverhältnis haben
- Nicht mehr Strom als mein Kühlschrank brauchen

ein :)
 
äh, gibts was anderes was einen Graka können muß ?? 8)

lg
__tom


hast du keine anderen ansprüche an eine graka?
verbrauch, lautstärke etc.?
naja, hat eben jeder seine präferenzen :)

mfg
.
EDIT :
.

Wurde schon dementiert, da die Probleme nur bei CF/SLI/Dual-GPU Karten auftritt, bei Single-GPU-Karten jedoch nicht, ob ATI dagegen es in den Griff bekommen hat, dürfte man sehr bald wissen.


tjo, nur das die x2 erst um september rum kommt.

beim normalen cf ist das bestimmt auch nicht behoben...
aber mir persönlich eh wurscht...

mfg
 
1.)
@ TomTurbo

also mir fallen da spontan so sachen ein wie

- Leise sein
- Wenig Kosten
- Nen gutes Preis Leistungsverhältnis haben
- Nicht mehr Strom als mein Kühlschrank brauchen

ein :)

a) Wenig kosten tut sie nicht, aber so schlimm ist es auch wieder nicht. In $ ist sie zwar schweineteuer, aber in Euro ganz brauchbar. Bei Geizahls ist sie schon bei 460 Euro gelistet d.h. in 2 Monaten, wenn sie wirklich verfügbar ist, dann wird sich der Preis schon gegen 400 Euro bewegen denke ich und das halte ich für das Top Produkt durchaus für angemessen. Die 8800 GTX hat über 500 Euro gekostet am Anfang. Blöd ist nur, dass die 260 GTX deutlich langsamer sein wird, aber das ist ja bei der 8800 GTS auch schon der Fall gewesen bzw. ist bei ATI genauso.

b) Preis Leistungsverhältnis ist immer Ansichtssache. Die Leistung ist ohne Frage top und die Karte kostet keine 1K Euro wie manche CPU, also ist das Preis-Leistungsverhältnis auch in Ordnung, aber das ist ziemlich individuell. Es zählt nämlich nicht Performance/Euro sondern Einsatzdauer/Euro und wenn man normalerweise die Grafikkarte alle 2 Jahre wechselt und das erste Jahr sich an den schönen Effekten erfreut und im zweiten Jahr läuft sie so halbwegs mit, so hat man nun 2 Jahre, wo die Karte wirklich gut läuft, also ist der doppelte Preis schon gerechtfertigt. Wenn man die Karte sowieso 5 Jahre im Einsatz hat, weil man sich nicht mehr leisten kann/will bzw. man nicht so anspruchsvoll ist, dann zahlt es sich natürlich nicht aus.

c) OK unter Volllast zieht die Karte viel, aber die meiste Zeit hat man ja nicht Volllast, sondern nur 2D Modus z.B. wenn man über die Nacht mit uTorrent seine Urlaubsvideos saugt, im Internet surft, irgendetwas anderes am Desktop tut, Filme schaut, Musik hört, programmiert etc., dann zieht die Karte nur 25Watt, was deutlich besser ist als früher.

d) Durch die 25 Watt lässt sich sicher auch der Lüfter herunterdrehen. Einfach mit dem ATI Tool die Lüftersteuerung neu programmieren. Mit einer guten Gehäusebelüftung sollte noch deutlich mehr drin sein. Beim Spielen ist es eh egal, weil man da eh meistens einen Ton hat und der Lüfter eh nur stört, wenn man konzentiert etwas liest oder man daneben schlafen möchte.

2.) Was die Mikroruckler angeht, so ist es genau dasselbe Problem wie früher:
Mikroruckler treten nur bei mehreren Grafikchips auf. Hier wird sowohl von ATI, als auch von Nvidia auf eine Technologie namens AFR (Alternate Frame Rendering) gesetzt. Hier wird ein Frame auf einem Grafikchip, das andere Frame auf dem anderen Chip gerechnet. Dass sich 2 Chips ein Frame teilen, funktioniert nicht, weil sie ja keinen gemeinsamen Speicher haben und man mit den ganzen Effekten nicht einfach das Bild wie zu Voodoo Zeiten einfach in 2 Bereiche teilt.
Das Problem des Ganzen ist es, dass hier die Frames nicht mehr gleichmäßig verteilt werden. Normalerweise läuft ein Frame nach dem anderen ab. Wenn ein Chip 50ms braucht, um ein Frame zu berechnen, dann kommt alle 50ms ein Bild heraus. Mit 2 Grafikchips wird ein Frame berechnet und da es ja parallel läuft, bekommt der andere Chip kurze Zeit nachher z.B. nach 10ms ein weiteres Frame (wahrscheinlich die Zeit, die die CPU an dem Frame rechnet). Das hat zur Folge, dass alle 50ms nicht 1 Frame, sondern 2 kommen und man hat so nicht 20fps, sondern 40fps. In den Benchmarks ist die Karte also (zumindest theoretisch) doppelt so schnell. In Wirklichkeit sind die Abstände aber nicht jeweils 25ms, sondern 10-40-10-40-10-40 usw. Optisch sichtbar sind dabei die Abstände von 40ms, also 25fps. Die Karte ist also nicht 100% schneller wie in den Benchmarks, sondern nur 25%. Bei 4 Kernen ist das Problem noch tragischer. Da hat man z.B. Abstände von 5-10-5-30, also gemessene 80fps, aber gefühlte 30-35fps.
Dieses Problem ist so grundsätzlicher Natur, dass es nicht einfach mit einem Treiber gelöst werden kann. Dessen sind sich Nvidia, als auch ATI bewusst. Es wird also nicht daran gearbeitet, dass man das Problem löst, sondern dass man den Nachweis erschwert. Momentan kann man das ziemlich leicht mit Fraps messen, indem man die Zeiten mitloggt. Nvidia versucht nun das zweite Frame bei der Ausgabe zu verzögern. Man bekommt dann schön seine 25-25-25-25er Aufteilung und die Mikroruckler sind nicht mehr messbar. Sichtbar sind wie jedoch noch genauso wie vorher, da es sich immer noch um 2 fast gleiche Bilder handelt und ob man 2 gleiche Bilder jetzt alle 25ms herzeigt, alle 50ms zwei ganz schnell hintereinander oder nur eines alle 50ms ist schon egal. Wichtig ist nur der optische Unterschied zwischen zwei Frames. Hier wird der einzige Nachweis möglich sein, indem man alle Frames mitspeichert und dann die Bewegung von Objekten (z.B. schnell fallenden Trümmern) analysiert und so zurückrechnet, welche reale Zeit das Bild hat.
 
Zuletzt bearbeitet:
Trotzdem ist die primäre Aufgabe einer Grafikkarte, dass sie das gewünschte Spiel mit den notwendigen Frames/sek ausstattet.
Alle anderen Eigenschaften sind Zubrot und helfen nichts wenn die eine ausschlaggebende fehlt ;D

Wobei das eine ja die anderen nicht ausschließen muss ;)

lg
__tom
 
25W ist gelogen. Selbst real.

Kostet ca. 500 Euro. Sonst n. verfügb.

P/L unterirdisch. Im Vergleich.

Zu laut. Deutlichster Rückschritt.
 
Ein würdiger Nachfolger der 8800GTX, wer was anderes sagt hat einfach nicht das nötiger klein geld übrig...

Es gibt wirklich gar nichts an der Karte das wirklich negativ wäre, die 280er verbraucht nur 20Watt mehr als eine 8800ULTRA und hat gut 60% mehr Leistung, der 2D Verbrauch von ca. 28Watt ist für so ein rissen ding einfach der Hammer!

Im 2D hört man die Karte übrigens nicht aus dem Rechner raus...
 
Also ja die Karte ist gelungen. Mein Bruder hat sich vor paar Wochen erst einen 3,6 GHZ QuadCore und 9800 GTX SLI mit 4 GIG RAM zugelegt und ich muß sagen bei der 1650ér Auflösung läuft alles auf Maximum Ruckelfrei mit AF (8x) und AA (16x). Außer Crysis auf High da bricht es auch mal unter 20 FPS ;) mit Fraps gemessen. Den TomsHardware Test finde ich etwas gemein ;) da ja bekannt ist das die 9800GTX wegen ihrem Speicherinterface bei solch hohen Auflösungen einknickt. Und wer hat schon n 30" TFT daheim stehen oder zockt permanent im Wohnzimmer :P

Ich froi mich schon auf die nächsten Karten dieser Chipgeneration!!

MfG
Nefi
 
Wie ist das eigentlich mit dem 6 und 6+2 PCI-E 2.0 Steckern. Mein BQT ES-600W hat nur zwei 6er PCI-E Stecker. Haben die Karten Adapter für Molex Standard 4 Pin Stecker dabei, oder brauch ich auch ein neues NT?
 
Und wer hat schon n 30" TFT daheim stehen oder zockt permanent im Wohnzimmer :P

Was hat das denn mit "zockt im Wohnzimmer" zu tun? Es gibt ja wohl so gut wie keinen Fernseher in der unter 10.000,- Euro Klasse der die Auflösung eines 30" Monitors hat.

@andr_gin,

die GTX hat beim Launch nicht um die 500,- Euro gekostet sondern 619,- Euro. Ich weiß es ich war dabei *buck* .
 
Sag mir nicht, dass du so'n Shit gekauft hast...

Hier die Rechnung:
Alternate_8800GTX_%f6ffentlich.jpg


Und sie war über eine lange Zeit das Beste was man seinem Gaming-Rechner bieten konnte.
 
Oh mein Gott, meine Augen bluten!!!

Aber ok, wenn man das Geld hat, kann man's auch ausgeben! ;)
 
Oh mein Gott, meine Augen bluten!!!

Die war nicht teuer, denn ich versteigerte meine 7950GX2 noch für 391,- Euro, so daß die Differenz dann nicht wirklich weh getan hat.
Ist im übrigen schon seit Jahren meine Strategie, zum richtigen Zeitpunkt die alte Karte abstoßen und dann für eine überschaubare DIfferenz aufrüsten.
 
Neneeee, ich meinte die GTX 280!
Da muss ich was überlesen haben...;)

Die 8800GTX ist was anderes (vor allem zu der Zeit)

Der Kauf EINER GTX 280 könnte mir nur jemand damit argumentieren, dass er EINE Karte im Rechner haben will - sonst macht das wirklich überhaupt keinen Sinn.
(Auch der Grund Triple-SLI zieht nicht - da kann man genauso gut 4x HD4870 im CF-X betreiben)
 
Zurück
Oben Unten