NVIDIA stellt GeForce-8-Serie vor

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.373
Renomée
9.707
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Mit der GeForce 8800 GTX und GeForce 8800 GTS stellt NVIDIA die beiden ersten Modelle der GeForce-8-Serie vor.

Die neuen Grafikprozessoren unterstützen erstmals das Programmier-Interface Microsoft DirectX 10.

Weitere Features der GeForce-8-Serie:
<ul><li>Neue Unified-Shader-Architektur mit 128 Stream-Prozessoren mit 1,35 GHz, die atemberaubende Floating-Point-Berechnungspower für die ultimative Gaming-Performance bietet</li><li>NVIDIAs Quantum-Effects-Physics-Technologie, die für ultra-realistische visuelle Effekte und Grafiken sorgen</li><li>16fach Anti-Aliasing mit gleichzeitiger 128-bit-HDR-Beleuchtung (High Dynamic Range) für eine gestochen scharfe Bildqualität.</li></ul>

<center><img src="/news_images/nvidia_gf8_specs.jpg"></center>

Produkte wurden bereits von einigen Herstellern angekündigt:
<ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288349">ASUS EN8800 Serie</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288350">FOXCONN launcht NVIDIA GeForce 8800GTX und GTS Grafikkarten</a></li><li><a href="">Leadtek: WinFast PX8800 GTX TDH und WinFast PX8800 GTS TDH</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288353">BFG TECHNOLOGIES </a></li>
</ul>
Ausserdem sind erste Reviews zu lesen:
<ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/" target="b">nVidia GeForce 8800 GTX (ComputerBase)</a></li><li><a href="http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487" target="b">NVIDIA GeForce 8800 GTX (HardwareLuxx)</a></li>
<li><a href="http://www.legitreviews.com/article/413/1/" target="b">XFX GeForce 8800 GTX and eVGA 8800 GTS GPU's (Legit Reviews)</a></li><li><a href="http://www.guru3d.com/article/Videocards/391/" target="b">GeForce 8800 GTS & GTX review (Guru 3D)</a></li></ul>

<b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288346">Pressemitteilung NVIDIA</a>
 
Vor allem in Oblivion: Beachtliche Leistung.

Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...

Die sollten sich mal anschauen was die CPU Hersteller leisten.
 
Vor allem in Oblivion: Beachtliche Leistung.
Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...

Ja genau... weil die Xbox 360 ja auch so ein Stromspar- und Ergonomiewunder ist... :]
 
Buuuuummmm.......da kommt was auf uns zu! Ich glaube das ist der erste echte Schritt in Richtung Fotorealismus.

Aber wenn man sich ansieht das dazu nötig ist, Core2Duo 6800 Plattform, eventuell ein leistungsstärkeres NT, höherer Stromverbrauch, Vista, etc. etc.!

Da kommt man ganz schnell auf mind. 1500 &#8364; Investitionskosten dazu der höhere Stromverbrauch. *buck*

Ich werde erstmal abwarten zumal ich es mir derzeit eh nicht leisten könnte, selbst wenn ich wollte! *lol*
 
Hab mich schon gewundert, denn so eine Geforce Karte lag gestern bei meinem Händler in der Ausstellung. Preis 699 Euro dort, nicht schlecht.

Richtig Lang und 2 Stromanschlüsse hat das gute Ding ;D

Da ist die Frage nach dem Stromverbrauch schon berechtigt ^^ Power hat die Karte wohl lt. den Benchmarks genug...
 
Ich bin nicht bereit, so einen Stromschlucker zusammenzubauen.

In einem Intelinterview hatte ich neulich gelesen, dass die Rechner in Zukunft viel stromsparender sein werden als heute. Tatsächlich aber passier das Gegenteil, jedenfalls bis heute. Ein Witz!

Na ja, für die aktuellen Spiele reicht auch etwas stromsparenderes. Wer sowas unbedingt braucht, soll es sich antun. Nötig ist das bei den aktuellen Spielen jedenfalls nicht.

Und wenn es Spiele gibt, die diese Power auch umsetzten (Nähe zu Fotorealismus), dann gibt es auch wieder neuere Grafikkarten, die genausoviel leistung haben und wesentlich weniger Strom verbraten.

Die sollen lieber sehen, dass endlich Intel-Dektopboards kommen, deren Onboardgrafik H264 unterstützt! Damit ich mir einen neuen, stromsparenden HTPC zusammenbauen kann.
 
Und es gibt endlich wieder winkelunabhängiges AF!!

Kein Gejammer mehr wegen der "soviel schlechteren Bildqualität"...
 
Es gibt sogar schon einen offiziellen Treiber mit exklusiver Unterstützung für die GeForce 8800 Serie.

ForceWare 97.02: http://www.nvidia.com/object/winxp_2k_97.02.html

Man wird also zu Beginn nicht mit Beta Treibern vertröstet, wie es in der Vergangenheit manchmal der Fall war.
 
Also ich werde auf jeden Fall warten, bis der Refresh-Chip in 65 nm kommt.
Denke mal dass nVidia dadurch auch dem Stromhunger etwas entgegenwirken kann.

Ansonsten eine sehr beeindruckende Grafikkarte.

MfG
Shadow79
 
Käme auch nie auf den Gedanken, eine Karte, die so enorm viel Strom verbraucht und doch relativ viel kostet, einzubauen. Aber kühl betrachtet bringt sie lt. Performancerating (computerbase.de, Auflösung 1280x1024) rd. 17% mehr Leistung bei nur rd. 10% mehr Stromaufnahme des Gesamtsystems (im Vergleich zur 7950 GX2). :( Und dieser Effekt wird bei steigender Auflösung und besserer Qualität noch ausgeprägter. ???

zwergnase
 
Ich bin mal gespannt auf die Antwort von ATI zumal die Karten im mom eh nicht im bezahlbaren Bereich liegen kann ich getrost abwarten.
 
Ja genau... weil die Xbox 360 ja auch so ein Stromspar- und Ergonomiewunder ist... :]
Also im Vergleich zu einem hochgerüsteten PC schneidet die XBox 360 gut ab. Und wart erstmal auf die PS3, die wird mehr als drei Mal soviel Strom verbraten, wie die XBox 360. :P :-X
 
Also im Vergleich zu einem hochgerüsteten PC schneidet die XBox 360 gut ab.

Für ne Konsole aber erbärmlich und in Sachen Ergonomie ist die Xbox360 ja wohl für die Tonne. Da ist ja selbst ein PC mit Standardlüftern um Klassen leiser.
 
Also keine Frage, die Karte hat Leistung ohne Ende. Das Problem bei der Karte ist, das die bisherigen CPU´s, bis auf den Kentsfield Quad Core, limitierend sind, kurz gesagt, die Karte wird ausgebremst.

Ein weiteres Problem ist, das es kein Game gibt, die das Potenzial der Karte ausreizt, und nach meiner Meinung her hat die Karte 2 gravierende Nachteile, einmal die Länge der Karte, könnte man glatt meinen, die ist sooooooooo lang wie eine Landebahn eines Flughafens und der Stromverbrauch. Leute, die so eine Karte kaufen und die anderen Komponente ihres restlichen Systems ebenfalls zu Gunsten der Karte anpassen, na dann viel spaß mit der Stromrechnung, da kann man doch echt langsam aber sicher einen eigenen Atomkernreaktor im Zimmer einbauen bezüglich der Stromversorgung ;D

Aber keine Frage, die Karte hat Leistung und Potenzial ohne Ende, mit Vista und D3Dx10 und entsprechende Games kann man dann echt sein spaß haben.

Aber von der rationellen und wirtschaftlichen Denkweise bekommt die Karte ein deutliches Minus von mir, auch ebenfalls die X1900 XTX.

Ich bin der Meinung, die Grafikkartenhersteller sollten endlich von ihrem, schneller, weiter, höher Denkweise runter kommen.

Hat den keiner der Grafikkarten Hersteller irgend wie daran gedacht, was die CPU Hersteller mit ihren Multi Threading CPU´s (Dual-Core und zukünftig Quad-Core) in die Realität umgesetzt haben, sprich Mehrkerne Prozessoren, die stromsparend sind, aber dennoch Leistung ohne Ende bereit stellen!!!!! Selbstverständlich ist die Sache mit dem Multithreading auch abhängig von der Softwarebranche !!!!!!

Von meiner Seite aus ein Appell an die Firmen AMD/"ATI" und nVidia, macht euch doch endlich Gott verdammt intensivere Gedanken bezüglich Strom sparen.

Diese Highendkarten können sich sicherlich gut betuchte Leute leisten, aber kein "Normalo". Hab mal im geizhals nachgeschaut, zwar ist der 8800 GTX von ASUS für 592 Euronen zu haben, aber das Spitzenpreismodell steigt weit über 600 Euronen, falls es manch einem noch nicht aufgefallen ist, das waren früher mal fast 1300 Deutsche Mark !!!!!

Ich bin der Meinung die Entwicklung seitens der Grafikkartenhersteller gehen mit dieser Vorgehensweise (schneller, höher, weiter, strom "sch..... drauf", etc.) einfach den falschen Weg. Dies gilt nicht nur für AMD/"ATI", sondern auch für nVidia.

So das war jetzt meine Meinung.

PSYCHO
 
Irgendwie hat man früher an den Spielekonsolen 1DM bezahlt und konnte wenn man gut war 20min spielen. Dann kamen die PC´s und ich dachte mir das ist doch deutlisch billiger, bis jetzt. JEtzt bezahlt man 1DM an Strom.

Was ich nciht ganz verstehe ist wieso intel und AMD das hinkriegen?
Wollen dei Graka Hersteller nicht?

Das muss doch einen Grund haben. Klärt mich mal auf.

Morpheus
 
Was ich nciht ganz verstehe ist wieso intel und AMD das hinkriegen?
Wollen dei Graka Hersteller nicht?

Das muss doch einen Grund haben. Klärt mich mal auf.

Morpheus

Die Spitzen-CPUs von AMD & Intel verbraten auch ~120W (bei AMD in kürze 2x dieser Wert), hinzu kommt der Speicher und vor allem der Chipsatz. Schwupps, schon sind wir im gleichen Verbrauchsbereich.

Die sparsamsten CPUs von Intel und AMD haben im Desktop-Bereich einen TDP von ~35W, die sparsamsten brauchbaren Grakas verbrauchen incl. RAM sogar nur 28W (7600GS lt. Geizhals.at).

Also würd' ich sagen, daß sich CPU- und GPU-Verbräuche doch ungefähr im selben Rahmen bewegen. Am Gipfel der Leistungsskala geht die Tendenz weiter nach oben, bei den sparsamen wird es vermutlich weiter abwärts gehen, da dort von den Bemühungen im Notebook-Bereich profitiert werden kann. Integrierte Chipsätze setzen da natürlich noch einen oben drauf, mit Gaming wird's dann allerdings langsam eng.

Edit:
Ich würde es viel mehr begrüßen (habe mich da allerdings auch noch nicht groß informiert), wenn die besseren Karten im Teillastbereich, also bei normalen Desktop-Anwendungen, effektiv Strom sparen würden. So könnte man ohne schlechtes Gewissen (und Lärmstreß) seinen Rechner mit einer gehobenen Mittelklasse-Karte (&#8364;200-Bereich und bitte gutem, großem, im Idle sehr langsam laufendem Lüfter) ausstatten und bei pielen trotzdem genug Bums haben. Dazu braucht's natürlich noch ein im Teillastbereich ebenfalls sehr effizientes Netzteil.

Hierzu wäre es schön, wenn die Hersteller sich entweder selbst verpflichten könnten (andernfalls: wofür gibt's Gesetze?), detaillierte Angaben zu Stromverbräuchen in den einzelnen Lastzuständen zu machen, das gilt für Mainboards, CPUs, Netzteile (Effizienz), Grafikkarten, und evtl. RAM.

Schön wär's.
 
Zuletzt bearbeitet:
Beiss mich ein Pferd, das Ding ist ja RIESIG.

Ich muss sagen das man nVidia in Sachen Bildqualität ein großes Lob aussprechen muss.
Die Anisotropische Filterung ist ja spitzenmäßig.

Und vom Stromverbrauch her: Wer sich für 600 Euro eine Grafikkarte holt, wird sich mit Sicherheit nicht bei einer hohen Stromrechnung anpinkeln.
Natürlich sind die Hersteller darauf aus, Grafikkarten zu bauen die alles bis jetzt dagewesene in den Schatten stellen aber ihr vergesst dabei das beide Hersteller in jeder Serie auch sehr stromeffiziente Karten rausbringen, von daher, für jeden etwas.

mfg
Chris
 
Zuletzt bearbeitet:
Vor allem in Oblivion: Beachtliche Leistung.

Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...

Die sollten sich mal anschauen was die CPU Hersteller leisten.

Du willst doch nicht ernsthaft diese GPU mit *irgendeiner* desktop CPU vergleichen? Oder gar einer konsole, sei sie nun auf dem markt oder nicht. Schau dir mal die knapp 700M transistoren an und dann vergleich das mal mit einer beliebigen desktop CPU ohne cache. Das eine ist ein hochoptimierter numbercruncher, das andere ist ein chip der einfach nur alles können muss. Da liegen welten zwischen diesen beiden gattungen. Vermutlich ist es eben doch nicht so einfach stromsparmechanismen in einer solche GPU einzubauen, denn die dreht in der regel nicht all zu oft däumchen wenn du ein spiel spielst.

Ich bin auch der meinung, dass sowohl ATI als auch Nvidia sicher noch nicht das bestmögliche an stromsparmechanismen implementieren, aber die leistungsaufnahme wird auch in zukunft nicht so viel weiter gedrückt werden können. Bestenfalls stagnation bei noch mehr rechenleistung.


Ich bin nicht bereit, so einen Stromschlucker zusammenzubauen.

In einem Intelinterview hatte ich neulich gelesen, dass die Rechner in Zukunft viel stromsparender sein werden als heute. Tatsächlich aber passier das Gegenteil, jedenfalls bis heute. Ein Witz!

Na ja, für die aktuellen Spiele reicht auch etwas stromsparenderes. Wer sowas unbedingt braucht, soll es sich antun. Nötig ist das bei den aktuellen Spielen jedenfalls nicht.

Und wenn es Spiele gibt, die diese Power auch umsetzten (Nähe zu Fotorealismus), dann gibt es auch wieder neuere Grafikkarten, die genausoviel leistung haben und wesentlich weniger Strom verbraten.

Man kann jede (single) karte der letzten generation mit genug eyecandy und auflösungen wie 2560x1600 (native bei 30"+ screens) absolut in die knie zwingen - diese karte jedoch offenbar nicht. Also hat sie schon ihre daseinsberechtigung. Wenn du der meinung bist, du brauchst das nicht - bleib bei einer kleineren karte. Wenn du der meinung bist, du kannst dir die 20 mücken mehr jährlich auf der stromrechnung nicht leisten - bleib bei einer sparsameren karte. Vermutlich wird das dann auch noch sehr lange so bleiben, die die high-end karten werden immer viel strom verbraten, weil sie auch deutlich mehr leistung bringen als massenware.


Also ich werde auf jeden Fall warten, bis der Refresh-Chip in 65 nm kommt.
Denke mal dass nVidia dadurch auch dem Stromhunger etwas entgegenwirken kann.

Ansonsten eine sehr beeindruckende Grafikkarte.

MfG
Shadow79

Wahrscheinlicher ist ein 80nm refresh im frühjahr. 65nm wirds wohl noch lange nicht geben.
 
Was kostet es ungefähr, wenn ein Rechner mit ca. 500 Watt Stromverbrauch ca. 2 Std. am Tag läuft? Da kommt wirklich was zusammen, auch Strom ist teurer geworden, das kostet mittlerweile richtig viel Geld. Wer das nicht zahlen muss, den interessiert das nat. nicht so doll *bye2*
 
Was kostet es ungefähr, wenn ein Rechner mit ca. 500 Watt Stromverbrauch ca. 2 Std. am Tag läuft? Da kommt wirklich was zusammen, auch Strom ist teurer geworden, das kostet mittlerweile richtig viel Geld. Wer das nicht zahlen muss, den interessiert das nat. nicht so doll *bye2*
Das wäre eine kWh, also je nach Anbieter 15ct/kWh oder so (ich kenn selbst nur unsre RZ-Strompreise, die sind natürlich incl. Klimatisierung gerechnet, also höher) pro Tag. Bei 365 Tagen wären das knapp 55 Euro.
Weia, bei mir laufen z.Zt. 2 Rechner rund um die Uhr, der eine braucht etwas mehr als 40W idle, der andere vermutlich knapp das doppelte. Das wird teuer :o
 
Also es wird echt an allem gemeckert.
Bei Kommentaren wie "Der Stromverbrauch ist zu hoch, die CPU Hersteller kriegen das viel besser hin." rünzel ich mir doch die Stirn.

Ich möchte mal sehen das ihr es besser macht.
Immer wird mit absoluter Leichtigkeit gesagt, dass der Hersteller dies und das auf jeden Fall für den Preis besser machen muss.
So ein gewaltiges Know-How was hinter dieser Karte steckt und grobgeschätzt 4 Jahre Entwicklungszeit ist für 500? Euro schon fast ein Schnäppchen wenn ihr mich fragt, es kommt nur darauf an wie man die Karte benutzen will.
Und große Hardware die viel Leistung bringt hat auch schon immer Unterhalt gekostet.
Das ist mit einer Grafikkarte im PC genauso wie mit einem Combi-Dämpfer in einer Großküche.
Die GTX-Version ist nun mal eben an Enthusiasten gerichtet und ich finde, dass die Ingenieure von nvidia wie schon mit der 7800GTX vor nicht allzu langer Zeit wieder einen guten Schlag nach Vorne gemacht haben.
Außerdem muss ich anhängen, dass die 8800 in Sachen Übertakbarkeit auch einiges zu bieten haben soll.
Legit Reviews hat den Core-clock der GTS-Version von 500 auf 630 Mhz und den RAM-clock von 620 auf 980 Mhz angehoben - Und das stabil!

mfg
Chris
 
Zuletzt bearbeitet:
CK][;2952467 schrieb:
Das ist mit einer Grafikkarte im PC genauso wie mit einem Combi-Dämpfer in einer Großküche.
LOL, ich hab erst überlegt, wozu man in einer Großküche wohl Stoßdämpfer braucht ;D

Ansonsten Full-ACK. Zudem trudeln denn ja demnächst auch weitere abgespeckte und sparsamere Versionen ein, wie bisher auch. Bin gespannt, wann nVidia schließlich ein DX10-IGP draus macht 8)
 
Zurück
Oben Unten