NVIDIA GeForce 9800GX2: Hitze und schlechte SLI-Skalierung

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Vor zwei Wochen berichteten wir bereits über <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">Verzögerungen neuer NVIDIA-Produkte</a>, Gründe dafür sollen bei der 9800GX2 die Hitzeentwicklung und die schlechte Skalierung bei Quad-SLI sein.

Die ursprüngliche angesetzten 250W Leistungsaufnahme sollen weit überschritten werden und dadurch bedingt ein Temperaturproblem aufkommen. Die schlechte Skalierung bei Quad-SLI mit zwei dieser Karten ist ein weiteres Problem, mit dem NVIDIA bereits bei seiner ersten Quad-SLI-Lösung aus zwei 7950GX2 bzw. 7900GX2 zu kämpfen hatte. Dabei waren diese kaum schneller als ein klassisches 7900GTX-SLI-Gespann, trotz theoretisch deutlich höherer Leistungsfähigkeit.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1393"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1393"></a>
<small>Bildquelle: <a href="http://www.tomshardware.tw/309,news-309.html" target="_blank">TomsHardware Taiwan</a></small></center>
<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=5650&Itemid=1" target="_blank">Why is 9800 GX2 delayed?</a>

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">NVIDIA mit Verzögerungen bei neuen Produkten?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199716213">Weitere Bilder der GeForce 9800GX2</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199462620">Daten und Bilder zur GeForce 9800GX2</a></li></ul>
 
Auch wenn es mit der Leistung nicht so passt, die Karten mit "Gehäuse" sehen schon sehr brachial aus, gefällt mir.
Wenn sie direkt noch die Anschlüsse für die Wakü einbauen, könnte es ja vielleicht, als Dualkühlkonzept, doch klappen.
 
Auch wenn ich mich schütteln muss bei solchen Doppeldingern überhaupt von soetwas zu sprechen, ist die ATi Lösung doch wesentlich "eleganter".
Dass Hitzeprobleme entstehen ist ja fast schon logisch bei dieser komplett Umhüllung.
 
Mir gefallen die Karten garnicht...
Sie haben 0 Charme, man sieht nichts von der Karte etc. Aber sicherlich gut Wärmegedämmt so *chatt*
ATI hats hinbekommen mit ihren X2s...endlich mal wieder ein Problem bei nv^^
 
naja nv ist nicht gleich ATI.
 
Doppel-GPU-Karten sind imho derzeit völlig uninteressant!

Für kleines Geld jetzt lieber eine 8800GT oder ne 3870 kaufen und, falls nötig, in nem halben/ganzen Jahr durch eine schnellere Single-GPU-Karte ersetzen!

SLI oder CF funktioniert einfach nicht vernünftig, egal ob auf einer Karte oder zweien, siehe Mircroruckler und teilweise schlechte Skalierung!
Zudem muss man das Netzteil dann wieder größer dimensionieren, braucht ggf. wieder teurere Mainboards usw.

Und mal ehrlich: So billig wie heute waren Performance-Karten noch nie! Eine 8800GT kostet weniger als 200€, eine ATI 3870 ist nochmal ein paar Euro billiger (und etwas langsamer).
Laut meinen Rechnungen habe ich für eine 6800GT oder die 7800GT in beiden Fällen noch 300€ gezahlt!

Und die Leistung der 8800GT reicht doch auch selbst für hohe Auflösungen in den nächsten paar Monaten noch aus, denn soooo langsam ist sie nun auch wieder nicht!

Bei den etwas schnelleren 8800GTS stimmt das P/L-Verhältnis dann wieder nicht, genau wie bei den GTX oder Ultras, die zudem dank altem Chip noch deutlich mehr Strom fressen!

Fazit:
9800GX2 oder 3870X2 werde zumindest ich links liegen lassen! Lieber jetzt im 150-200€ Segment zuschlagen und bei Verfügbarkeit von nagelneuen Chips/Karten nachlegen! Das spart viel Geld und vor allem auch noch viel Strom!
 
Dass Hitzeprobleme entstehen ist ja fast schon logisch bei dieser komplett Umhüllung.
Eigentlich ist die Umhüllung ja eher dafür gedacht, den Luftstrom richtig zu leiten, so daß alle zu kühlenden Teile auch Luft abbekommen und danach auch die gesamte erwärmte Luft nach draußen geleitet wird. Die meisten 3rd-Party-Kühler kühlen den Chip vielleicht besser, aber dafür bekommt das Gehäuse mehr Wärme ab, ist auch nicht unbedingt erstrebenswert. Aber bei 250W pro Karte ist klar, daß das nicht einfach ist.

Die Radeon X2 verbraucht vielleicht etwas weniger, aber trivial ist die Kühlung da auch längst nicht. Und man darf auch nicht vergessen, daß die ebenfalls deutlich verspätet kam, angeblich weil der Treiber nicht fertig war, aber das hat natürlich auch noch Zeit gelassen für eine evtl. Kühlerveränderung, von der wir ja nichts wissen. Also sollte man nicht immer gleich auf irgendeine Firma verbal draufhauen, nur weil der Konkurrenz gerade vielleicht etwas mehr Glück hatte (die frühe Lauffähigkeit des RV670 soll AMD ja selbst überrascht haben) und deswegen etwas schneller war.
 
Das Problem ist das mit Rechenpower seitens der Programmiere einfach zu sorglos umgegangen wird.

Eine 8800GT 512mb bringt bei meinem Lieblingsspiel mit 1280x1024 alle settings auf High und 2x AA + 8x AF in manchen Szenen ganze: 11-13 FPS.

absolut zum k****

Gruß Hotstepper

Die 3850 512mb einem Freundes praktisch genau das gleiche.
 
Fazit:
9800GX2 oder 3870X2 werde zumindest ich links liegen lassen! Lieber jetzt im 150-200€ Segment zuschlagen und bei Verfügbarkeit von nagelneuen Chips/Karten nachlegen! Das spart viel Geld und vor allem auch noch viel Strom!
Ja, ich hab mich auch entschieden, keine dicken Karten mehr einzubauen, vor allem wenn der Mainstream schon an 100W heranreicht. Mit einem stattdessen etwas häufigerem Wechsel fährt man auf die Dauer besser und billiger.
 
Doppel-GPU-Karten sind imho derzeit völlig uninteressant!

Und wie immer gilt: diese pauschalen aussagen sind falsch. Wenn es nicht so wäre, würde es diese produkte nicht geben, denn der markt entscheided weiterhin welche produkte im angebot sind und bleiben.
 
Und wie immer gilt: diese pauschalen aussagen sind falsch. Wenn es nicht so wäre, würde es diese produkte nicht geben, denn der markt entscheided weiterhin welche produkte im angebot sind und bleiben.

na ja, manche abgebote werden aber auch durch marketing verkauft. für die breite masse ist die aussage aber sicher richtig, dass solche dual-chip-karten unter ferner liefen rangieren.
 
Wer's braucht.. meine 8800GTS512 spielt auch Crysis flüssig in 1920x1080, alles auf vollen Details. Ohne FSAA allerdings (mag keine künstliche Unschärfe).

Und dabei ist das Spiel schon eine Ausnahme. Bei allen anderen braucht man gar nicht drüber nachdenken, ob die aktuelle Karten ausreizen (es sei denn vielleicht man spielt in 2560x1600).
 
Wer's braucht.. meine 8800GTS512 spielt auch Crysis flüssig in 1920x1080, alles auf vollen Details. Ohne FSAA allerdings (mag keine künstliche Unschärfe).

Und dabei ist das Spiel schon eine Ausnahme. Bei allen anderen braucht man gar nicht drüber nachdenken, ob die aktuelle Karten ausreizen (es sei denn vielleicht man spielt in 2560x1600).
Ich nehme an du bezeichnest flüssig als 15-40 fps oder noch weniger.
 
das mit dem hitzeproblem war doch aber eigentlich klar und nvidia wollte dem ja auch nicht direkt aus dem weg gehen da sie bewusst immernoch 65nm fertigen.

da ist die 3870 x2 deutlich besser mit 55nm.
 
Also das Crysis mit vollen Details auf der GTS 8800 flüssig in 1920x1080 läuft wage ich zu bezweifeln, oder du hast ne "Ausnahme" Karte erwischt *lach
Definiton Flüssig ?
 
Da Grafikkarten eh schon parallel arbeiten ist der logische nächste Schritt die Nutzung von Multi-GPU- oder Multi-Core-Lösungen.

Vielleicht sollte man sich, bevor man immer über die schlechte Skalierung von SLI bzw. CrossFire meckert, einmal Gedanken darüber machen, dass auch ein nativ doppelt so breiter Chip auch bei weitem nicht die doppelte Geschwindigkeit bedeutet. Bei CPUs ist die Skalierung sogar meist noch deutlich schlechter als bei GPUs.
 
Wenn man es gut spielen kann und es nicht ruckelt, ist es flüssig. ;)

Ich bin aufgewachsen mit Spielen wie Chuck Yeager's AFT auf dem C64 (ca. 1-2 FPS). Seitdem schreckt mich nichts mehr. ;D

Crysis dürfte ungefähr mit 30-40 FPS laufen, vielleicht auch 50 (kann man sich das irgendwie anzeigen lassen?), DX9 mit "very high"-Hack. Reicht mir absolut.

p.s. selbst wenn es wie sau ruckeln würde, bliebe es immer noch das einzige Spiel, für das man eine aktuelle Karte wirklich braucht.
 
Und wie immer gilt: diese pauschalen aussagen sind falsch. Wenn es nicht so wäre, würde es diese produkte nicht geben, denn der markt entscheided weiterhin welche produkte im angebot sind und bleiben.

Vielleicht hätte ich folgendes ergänzen sollen: "... für 99% der Kunden!"

Natürlich werden die Top-Karten immer gehypt, aber wirklich brauchen tun Sie 99% der Leute eben nicht. Neben dem schlechten P/L-Verhältnis haben Dual-GPU-Karten eben auch noch andere Nachteile wie Stromdurst, Hitze, teilweise schlechte Skalierung und Mikroruckler!

Ich bin der Meinung, dass der großteil der spielenden Bevölkerung mit einer Karte wie der 8800GT selbst auf 24" Bildschirmen und entsprechender Auflösungen gut zurecht kommen kann. Klar gibt's da wieder Ausnahmen wie Crysis, aber läuft das Spiel mit nem teuren Mainboard und drei 8800Ultras im SLI-Verbund wirklich soviel besser (Stichwort Mikroruckler), und vor allem ist es einem wirklich soviel mehr Geld (Anschaffung, Strom) wert???

Wer aktuell ne 8800GT oder vergleichbar im System hat kann imho alles halbwegs vernünftig spielen, auch in relativ hohen Auflösungen. Zumindest bis es eine 9800GT oder vergleichbar gibt, wird's imho wohl mir und den meisten anderen auch reichen!

Ich habe natürlich auch nichts generell was gegen Grafikkarten die 300-350€ kosten, mich wundert ja sogar, dass die 8800GT und Konkurrenz derzeit soooo günstig sind!
Allerdings wäre für mich höchstens eine Karte a la 9800GTX interessant, also mit EINEM Chip, der deutlich schneller als eine 8800GT ist, aber eben keine Multi-GPU-Probleme aufweist!
Was man so hört soll ja eben jene 9800GTX auch wieder sehr viel Strom fressen. Da könnte es natürlich auch hier wieder sein, dass es sinnvoller ist auf eine DIE-geshrinkte 9800GT zu warten, die deutlich weniger kostet, weniger Strom verbraucht und fast die gleiche Leistung bringt!

Das Problem derzeit ist doch folgendes: Man bekommt oberhalb der 8800GT nicht wirklich was deutlich besseres, selbst wenn man deutlich mehr Geld hinlegt. Die 8800GTS (512) ist imho den Aufpreis kaum wert, und eine 8800GTX ist für die erbrachte Mehrleistung deutlich zu teuer und zu stromhungrig. Selbst wenn man als mehr Geld als die 200€ ausgeben wollte, man wird derzeit imho nicht richtig fündig!
 
Schon beachtlich, was AMD&ATI mit dem HD 3870 X2 & R6x0-Technologie erreicht hat.

Nicht nur, dass der G92 & RV670-Chip gleichzeitig heraus kamen.
Sondern Nvidia hatte mit 7950 GX2 schon mal Erfahrung mit SLI-auf-einer-Karte.

Abgesehen davon, dass Nvidia mit SLI nicht nur viel länger Erfahrung & Erfolg hat als ATI, sondern der Abstand des R600-Chip war auf den G80-Chip schon ziehmlich groß.
 
Der R600 ist dem RV670 durch die breitere Speicheranbindung technisch überlegen, die Fertigungstechnologie des RV670 ist hingegen dessen große Vorteil.

Bei gleichem Takt ist ein R600 (durch die höhere Bandbreite) ein wenig schneller als der RV670 aber verbraucht halt ungefähr das Doppelte. Die Radeon HD 3870 profitiert haupsächtlich durch den höheren Takt...


Mit der Rage Fury Maxx hatte ATI übrigens deutlich früher eine Dual-GPU-Lösung, inwieweit das Know-How aus der Zeit jedoch heute noch hilfreich war, ist eine andere Frage. Gerade der damals übliche AFR-Modus macht heute ja deutlich mehr Probleme.
 
Die 8800GTS512 war mir schon deshalb den Aufpreis wert, weil da die Abluft nach außen geblasen wird. Und die ist ja schon auch um einiges schneller, für Crysis ganz nützlich.

Aber bei allen anderen Spielen wird die kaum ausgelastet. Bei niedrigeren Auflösungen (1280) reichte sogar noch meine alte 7800GT aus, die ich vorher hatte.
Es hat sich da doch einiges geändert - sowas wie Crysis war Mitte der 90er der Normalfall, bzw. da war es noch heftiger (Hardware für flüssiges Spielen überhaupt noch nicht verfügbar, egal für wieviel Geld).
Ist ja auch kein Wunder, heute ist das alles ein Massengeschäft und die Masse kauft keine teuren Grafikkarten. Also ist der Mehrwert, den man damit bekommt, einfach durch mangelnde Unterstützung durch die jeweils aktuelle Spielegeneration gewaltig gesunken.

High-End-Karten sind deshalb für mich derzeit überhaupt kein Thema mehr.
 
Bei gleichem Takt ist ein R600 (durch die höhere Bandbreite) ein wenig schneller als der RV670 ...

Das kann ich bestätigen.

2x HD 3870 im CrossFire mit 995/1301: 26.064 Punkte im 3DMark06
2x HD 2900 im CrossFire mit 950/1000: 26.874 Punkte im 3DMark06

Sind also trotz wesentlich niedrigerer Taktraten rund 800 Punkte mehr, wovon vielleicht 200 Punkte auf DDR3 entfallen (gegenüber DDR2 beim 3870-Run).
 
Sind das Grafikkarten oder VHS-Videocassetten?

Natürlich muss und wird Hardware immer flotter werden, aber dieses Mal scheint NVidia einfach viel zu früh Leistung bereitzustellen. Ein Quad-SLI Gespann aus diesen Karten ist doch vermutlich bei 99,999% aller Anwendungen mindestens eine Karte zu viel. *noahnung*
 
Mir wird schwindelig bei den gemachten Angaben zur Leistungsaufnahme. Ist das überhaupt noch ökologisch vertretbar? nVidia wird auf einer Zweikarten-Lösung beharren müssen, ist SLI doch der derzeit einzige Faustpfand, mit welchem nVidia seine Existenz am Markt sichert. Hätte AMD besser Hausaufgaben gemacht und mit dem 790/790FX einen vernünftigen Chipsatz in peto, müßte man als AMD-Enthusiast nicht auf nVidias 790a-Lösung warten. Da Crossfire interessanterweise auch auf Intel-Platformen läuft, wird nVidias Stand naturgemäß etwas schwieriger zu halten.

Was mir allerdings nicht in den Kopf will ist, daß es nicht möglich sein soll zwei GPU Cores auf einen Siliziumträger, ähnlich Intels derzeitigen Dualcores, zu bringen. Warum dieser irrwitzige Aufwand mit zwei Graphikkarten? Das einzige Argument wäre, daß man in der Herstellung somit flexibler bliebe, aber mit einem Chip könnte man durchaus einige thermische Probleme besser in den Griff bekommen als mit zwei separaten, diskreten Boards, oder?
 
der nvidia 790a ist derzeit wohl wirklich das interessanteste was in nächster zeit zu erwarten ist und dann sollte auch die hohe leistungsaufnahme nichtmehr so ins gewicht fallen
 
Zurück
Oben Unten