8800 GTS bleibt SLI-kompatibel

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Die GeForce 8800GTS, deren 640MB-Version nach dem Start der GeForce 8800GT auf 112 Stream-Prozessoren "aufgebohrt" wird, soll weiterhin mit dem älteren Modell als SLI-Gespann funktionieren.

Dies gab NVIDIA nach Informationen von VR-Zone bekannt und empfiehlt außerdem für das neue Modell die Benennung als "Special Edition" oder "OC Edition" und nicht als 112 Stream-Prozessoren-Modell, auch wenn dies ein gutes Verkaufsargument wäre.

Die 320MB-Version soll definitiv nicht von der Erhöhung der Stream-Prozessoren profitieren - diese ist exklusiv der 640MB-Version vorbehalten.

<b>Links zum Thema:</b><ul><li><a href="http://www.vr-zone.com/articles/112_SP_8800_GTS_Works_w_96_SP_8800_GTS_In_SLI/5346.html#Scene_1" target="_blank">112 SP 8800 GTS Works w/ 96 SP 8800 GTS In SLI</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/partner_preistrend/p3dclicks.pl?suchen.php?q=8800+GTS&s=0&a=&z=&x=0&y=0" TARGET="_blank">NVIDIA GeForce 8800 GTS Preisvergleich</a></li></ul>
 
Geht es nur mir so, dass ich bei der aktuellen Graka-Generation kaum den Überblick behalten kann?
Ich verfolge schon seit einigen Monaten die Preisentwicklung bei den 8800GTS. Bisher war die 320er mein Favorit. Nun hat sich das wohl erledigt. Irgendwas muss aber bei den bevorstehenden Games bald her.
Ist es richtig, dass die neue GTS mit 112 Stream mit 512 MB Ram kommen soll? Wie sieht es mit dem Speicherbug aus? Ist der behoben?
Falls ich hier redundante Fragen stelle, bitte nicht schimpfen. Ich blicke halt kaum noch durch. Bin glaube ich langsam zu alt fürs Ganze.

Gruß Med
 
Die 8800GTS mit 112 SP kommt mit 640MB V-Ram. si mir auch sowas von egal, ich hol mir eh die HD2950XT. Sollte knapp gleich schnell sein, billiger und zieht weniger Strom ;D

Edit: Wenn am am tag sich mehr als 2 Std damit beschäftigt, behält man da auch den durchblick. Und bei meinen 4h+ is das kein prob *rofl*
 
Na, toll die neue wird dann nur mit 96 Shadern laufen. Dann hat man auch nichts gewonnen dann doch lieber eine günstigere(?) alte. Oder gleich eine neue größere und die alte Verkauft.

SLI/ Crossfire ist sowas von nutzlos, außer für Freaks mit zwei GTX/Ultras oder oder 2900xt. Sowohl Ökonomisch als auch ökologisch ist es nun mal Sinnlos, ich bin mal gespannt was für eine Bilanz der R700 hat :]
 
Die 8800Gt kommt mit 512MB ;D
 
SLI/ Crossfire ist sowas von nutzlos, außer für Freaks mit zwei GTX/Ultras oder oder 2900xt. Sowohl Ökonomisch als auch ökologisch ist es nun mal Sinnlos, ich bin mal gespannt was für eine Bilanz der R700 hat :]

Klar ist das sinnlos...damit "erkaufen" sich aber NV und ATI (AMD) Zeit...normalerweise müssten sie ja sonst (so wie früher halt) die nachfolgenden GraKa-Generation wesentlich mehr "performanter" gestalten als jetzt...jetzt werden sie halt "etwas" schneller als die Vorgeneration und man rühmt sich mit SLI/CF...wer HighEnd will, muss heute nun mal mind. 2 GraKas in der Kiste haben.
 
SLI/ Crossfire ist sowas von nutzlos, außer für Freaks mit zwei GTX/Ultras oder oder 2900xt. Sowohl Ökonomisch als auch ökologisch ist es nun mal Sinnlos, ich bin mal gespannt was für eine Bilanz der R700 hat :]

Klar ist das sinnlos...damit "erkaufen" sich aber NV und ATI (AMD) Zeit...normalerweise müssten sie ja sonst (so wie früher halt) die nachfolgenden GraKa-Generation wesentlich mehr "performanter" gestalten als jetzt...jetzt werden sie halt "etwas" schneller als die Vorgeneration und man rühmt sich mit SLI/CF...wer HighEnd will, muss heute nun mal mind. 2 GraKas in der Kiste haben.

Erzählt mal eure mär von der sinnlosigkeit den bemitleidenswerten "opfern" von 30" displays die damit zocken wollen. Die sind froh das es CF/SLI gibt. Zumindest mit aktuellen und kommenden spielen. :P

Die ökologie sollten wir auch gleich aus dem spiel lassen, denn diesem argument fällt alles was keinen praktischen bzw. rationalen nutzen hat zum opfer - generell also spiele an sich und vieles andere. Und das wollen wir doch nicht, oder?

Nur weil man sich etwas nicht leisten möchte oder kann, heisst das doch nicht, dass man anderen seine persönliche ansicht als einzige wahrheit aufdrücken darf. Solange ein produkt gekauft wird, ist es wohl für irgend jemanden sinnvoll und für den hersteller sowieso.
 
Erzählt mal eure mär von der sinnlosigkeit den bemitleidenswerten "opfern" von 30" displays die damit zocken wollen. Die sind froh das es CF/SLI gibt. Zumindest mit aktuellen und kommenden spielen. :P

Die ökologie sollten wir auch gleich aus dem spiel lassen, denn diesem argument fällt alles was keinen praktischen bzw. rationalen nutzen hat zum opfer - generell also spiele an sich und vieles andere. Und das wollen wir doch nicht, oder?

Nur weil man sich etwas nicht leisten möchte oder kann, heisst das doch nicht, dass man anderen seine persönliche ansicht als einzige wahrheit aufdrücken darf. Solange ein produkt gekauft wird, ist es wohl für irgend jemanden sinnvoll und für den hersteller sowieso.

Genau so sehe ich das auch. ein 50PS Auto würde auch reichen aber man gönnt sich ja 75PS.

Mal im Ernst. Wenn man das so sieht das es SLI Sinnfrei ist muss man nach Tibet ziehen oder sich sonstwie von der Gesellschaft distanzieren.Wir leben in einer absoluten Konsumgesellschaft und jeder kann mit seinem Geld das machen was er damit halt machen möchte. Und die Energie die bei SLI drauf geht? Naja, 1960 haben die Autos im Schnitt 9 Liter verbraucht. Dummerweise liegt der Durschnitt immer noch bei 9 Liter. Und der einzige Sinn einer S-Klasse ist das wie der Name schon sagt :S wie Sensibler Hintern.

Morpheus
 
Klar ist das sinnlos...damit "erkaufen" sich aber NV und ATI (AMD) Zeit...normalerweise müssten sie ja sonst (so wie früher halt) die nachfolgenden GraKa-Generation wesentlich mehr "performanter" gestalten als jetzt...jetzt werden sie halt "etwas" schneller als die Vorgeneration und man rühmt sich mit SLI/CF...wer HighEnd will, muss heute nun mal mind. 2 GraKas in der Kiste haben.
Wo gab es beispielsweise beim Wechsel von der GF2 Ultra zur GF3 einen ordentlichen Leistungsschub? Das Ding war anfangs sogar etwas langsamer als das vorherige Ultra Modell und hatte mit späteren Spielen/Treibern im Vergleich an Leistung "zugelegt".
generell sehe ich in der reinen Leistungssteigerung kein allso grossen Unterschied, beim Nutzungsverhalten seit Aufkommen der TFTs hingegen sehr wohl, denn bei grösseren Bildschirmdiagonalen wird die Auflösung immer weiter aufgerissen und AA und AF am besten auch noch auf Anschlag raufgezogen.

Welcher normale mensch hätte zu CRT Zeiten denn schon in 1600x1200 gespielt und ernsthaft erwartet das er mit der max. Qualitätseinstellung zocken kann? Beim 30" Kasten sind wir dann schon bei 2560x1600.....
 
Klar ist das sinnlos...damit "erkaufen" sich aber NV und ATI (AMD) Zeit...normalerweise müssten sie ja sonst (so wie früher halt) die nachfolgenden GraKa-Generation wesentlich mehr "performanter" gestalten als jetzt...jetzt werden sie halt "etwas" schneller als die Vorgeneration und man rühmt sich mit SLI/CF...wer HighEnd will, muss heute nun mal mind. 2 GraKas in der Kiste haben.

Genau aus dem Grund überspringe ich mittlerweile immer wieder eine oder gleich mehrere Generationene. Ich sehe es schlicht nicht ein, für 20% mehr Performance mein ganzes System neu aufzulegen. Vor allem, weil heute grundsätzlich alle Produkte am Kunden getestet werden und man sich fast immer irgendwelchen Ärger einfängt!

MfG der BarBart
 
1. @ Fusseltuch:
Darf ich dich Napf nennen?...ach weißte was, ich tu's einfach! ^^ (Man beachte, dass die GF8800Ultra NICHT im SLI gelaufen ist...
Was höre ich da? Die GF8800Ultra schafft im NICHT-SLI-MODUS (zur Verdeutlichung für euch: !!!!!!!!!!!!!!111111111einseinself) auch genug Performance für Auflösungen über 1920x1200 selbst mit ALLEN DENKBAREN EYE-CANDY-EFFEKTEN?!?! (siehe Angabe der Qualitätseinstellungen unter "Testbed and Methods" auf Seite 7 des Artikels)
Ich bin erschüttert!...
:]-Smiley #1

2. @ morpheus1969:
*wieder revidiert, da die Aussage eher "neutraler" Natur und daher relativ einleuchtend war*
:]-Smiley #2 gestrichen

3. @ sompe:
Tjaaaaa, da haste wohl den "Technologiesprung" damals nicht mitbekommen...die GF3 war damals die erste GraKa mit Pixel- und Vertexshadern und seine Stärken lagen voll und ganz dort.
Und ein "intelligenter" Mensch spielt höchstwahrscheinlich mit seinem >30" TFT (bzw. wohl eher LCD-TV) nicht auf 2560x1600, sondern auf 1920x1200 bzw. 1920x1080, da dass die native Auflösung 99% aller Geräte ist (das bei dieser Auflösung auch heute schon im SingleCard-Modus genug Performance vorhanden ist, begutachte man bitte oben im Link)...und ich hoffe doch inständig, dass Personen die solche Hardware kaufen auch wenigstens einen klitzekleinen Blick in die Anleitung oder gar auf den großen Verpackungskarton werfen, um diese Auflösung in Erfahrung zu bringen, damit diese wunderschönen, über 1000€ teuren Teile nicht hässlich interpoliert müssen...
:]-Smiley #3

So, genug Rundumschlag für heute...jetzt kann ich in Ruhe in mein Bett und ihr beherzigt bitte ab sofort dieses Bild hier:

lesendenkenposten.jpg


nuff said
 
Zuletzt bearbeitet:
@p4z1f1st

Sinnfreies Umleitungs denken sieht also so aus das man andere Meinungen kritisiert aber selber nichts sinnvolles schreibt?

Zum Neutral: Ich habe Steckdosen mit Schalter, 75PS golf, usw. Aber wenn wir uns Ärgern über die paar SLI Nutzer und selber keine Autos unter 130PS kaufen, bzw grölen wenn ein Biturbo Commonrail einspritzer, was weiss ich noch, an uns vorbei fährt, naja.
Und was auch richtig Energie schluckt ist eine 120qm Wohnung für einen. 45qm lassen sich billiger heizen. usw...

Morpheus
 
Geht es nur mir so, dass ich bei der aktuellen Graka-Generation kaum den Überblick behalten kann?
Ich verfolge schon seit einigen Monaten die Preisentwicklung bei den 8800GTS. Bisher war die 320er mein Favorit. Nun hat sich das wohl erledigt. Irgendwas muss aber bei den bevorstehenden Games bald her.
Ist es richtig, dass die neue GTS mit 112 Stream mit 512 MB Ram kommen soll? Wie sieht es mit dem Speicherbug aus? Ist der behoben?
Falls ich hier redundante Fragen stelle, bitte nicht schimpfen. Ich blicke halt kaum noch durch. Bin glaube ich langsam zu alt fürs Ganze.

Gruß Med

Ne nicht nur dir. Ich Verfolge auch NV und ATI. Tendiere aber aber mehr zu ATI und das nur neben bei gesagt.
Was NV und teilweise ATI da liefern ist ja schon fast so schlimm wie in anderen Homeentrainment Breichen wenn nicht noch schlimmer.
Heute kann ich kaum noch in den Laden gehen und Geld ausgeben ohne mich nachher zu ärgern, wenn ich nicht mindesten 3 - 10 Tage intensiv im Internet nachgelesen habe was welche Karte kann und wie sie mit dem von mir gewünschten Spielen an Leistung hergibt. Sicher ob es die richtige Karte ist , welche ich gekauft habe, weiß ich erst wenn ich sie in den PC eingebaut habe. Erst dann stellt sich rauch ob das was ich gelesen habe auch so auf mich zutrifft. Mr geht diese sogenannte Vielfalt allmählich auf den Nerv.

Nicht das ich gegen Vielfalt bin, sondern ich finde diese besonders bei den Grafikkarten sehr ärgerlich. Dort gibt es erst mal einen Haufen an Namen. Ein Teil kommt von den GPU Herstellern selber un dann noch mal fast genau so viele zusätzliche Bezeichnungen der Boardhersteller. Man verläuft sich auch dank der GPU Hersteller, weil man sprichwörtlich den Wald vor lauter Bäumen nicht mehr sieht. Das liegt daran, dass es nicht in jeder Leistungsklasse 1 GPU von beiden Herstellern gibt sondern 3 oder 4. Zum Beispiel in der Mittelklasse gibt es Karten mit Boster und ohne und mit OC Möglichkeiten und ohne, dann mit etwas mehr Speed von Hersteller XY und so weiter. Oft kann man an hat der Namen nicht mal erkenne um welches GPU Modell es sich handelt, weil die alle so ähnlich klingen und jede Generation das anders definiert. Mal ist XT das schnellste Modell dann wieder GTXT und so weiter und auch die nur minimalen Unterschiede beim Ausbau der GPUs macht einem das leben nicht leichter. Am Preis ist meist auch nur bedingt zu erkennen welches Modell man vor sich hat. Einzig die High End Karten kann man am Preis ziemlich sicher erkennen.
Ich sage da zu nur danke NV und AMD.
 
3. @ sompe:
Tjaaaaa, da haste wohl den "Technologiesprung" damals nicht mitbekommen...die GF3 war damals die erste GraKa mit Pixel- und Vertexshadern und seine Stärken lagen voll und ganz dort.
Und ein "intelligenter" Mensch spielt höchstwahrscheinlich mit seinem >30" TFT (bzw. wohl eher LCD-TV) nicht auf 2560x1600, sondern auf 1920x1200 bzw. 1920x1080, da dass die native Auflösung 99% aller Geräte ist (das bei dieser Auflösung auch heute schon im SingleCard-Modus genug Performance vorhanden ist, begutachte man bitte oben im Link)...und ich hoffe doch inständig, dass Personen die solche Hardware kaufen auch wenigstens einen klitzekleinen Blick in die Anleitung oder gar auf den großen Verpackungskarton werfen, um diese Auflösung in Erfahrung zu bringen, damit diese wunderschönen, über 1000€ teuren Teile nicht hässlich interpoliert müssen...
:]-Smiley #3
Wer im Glashaus sitzt... ;)
Als intelligenter Mensch solltest du wissen das du ein grundlegendes Problem beim TFT hast. Willst du die volle Bildqualität, dann musst du auch die native Auflösung nutzen. jede darunter liegende Auflösung verkleinert entweder das Bild (wozu dann einen 30" Monitor kaufen..?) oder es wird auf die volle Diagonale angepasst und die Grafik wird matschig.
Nur so nebenbei.....wie du meiner Sig entnehmen kannst konnte ich schon mehr als genug Erfahrung mit TFTs sammeln und und habe selbst einen 24" Dell TFT mit einer HD 2900XT gepaart aber bevorzuge zum entspannten zocken nachwievor den CRT.
Die GF3 hatte damals im vergleich zur GF2 Ultra so ziemlich das gleiche problem wie der R600 heute.....eine geringere Füllrate und leistungsfähige Funktionen die noch kein Spiel ausnutzen kann und ist somit im vergleich sogar langsamer....wie sich das später entwickelst wird sich jedoch noch zeigen.
 
hey... hab bis jetzt als erscheinungstermin der "neuen" 8800GTS
immer nur als antwort "so im 1Q 08" genannt bekommen....

könnt ihr mir vllt einen etwas genaueren termin sagen oder ist das jetzt noch unmöglich?

(will nämlich so schnell wie möglich von meiner 9700er weg,
und die aktuelle 8800GTS schluckt mir zu viel Strom ^^)

grüße
 
Lustig in diesem zusammenhang auch die gefakten benchmarks von irgend einer HP die auf PCGHW gezeigt wurden. Ganz besonders toll sind die beiden Bilder:
scct.jpg
Prey.jpg

Also einmal is ne Ultra (die ja eine höher getaktete 8800GTS ist) ca. 35% schneller und einmal ca. 10% langsamer...
Die 35% sind ja auch zu viel, da die karte da ja zu über 100% mit dem takt skalieren müsste. Naja die leute haben echt keine Ahnung...

Und wie kommt es das die HD2900Xt trotz ihrer "Hass-Settings" (AA/AF) noch knapp an der 8800GTS dran sit, wo die ja sonst doch Arge probleme hat.
Wenn man sich alle Bilder ansieht, merkt man, das die ATi kartte im vergleich zu der 8800GTS in OpenGL Games besser abschneidet als in DX9 Games. War das nich immer andersrum?
Und warum hat nen highend Sys (Q6600, Super Graks...) nur 1GiB Ram verbaut???
 
Zuletzt bearbeitet:
Zurück
Oben Unten