App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA GeForce 9800GX2: Hitze und schlechte SLI-Skalierung
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Vor zwei Wochen berichteten wir bereits über <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">Verzögerungen neuer NVIDIA-Produkte</a>, Gründe dafür sollen bei der 9800GX2 die Hitzeentwicklung und die schlechte Skalierung bei Quad-SLI sein.
Die ursprüngliche angesetzten 250W Leistungsaufnahme sollen weit überschritten werden und dadurch bedingt ein Temperaturproblem aufkommen. Die schlechte Skalierung bei Quad-SLI mit zwei dieser Karten ist ein weiteres Problem, mit dem NVIDIA bereits bei seiner ersten Quad-SLI-Lösung aus zwei 7950GX2 bzw. 7900GX2 zu kämpfen hatte. Dabei waren diese kaum schneller als ein klassisches 7900GTX-SLI-Gespann, trotz theoretisch deutlich höherer Leistungsfähigkeit.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1393"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1393"></a>
<small>Bildquelle: <a href="http://www.tomshardware.tw/309,news-309.html" target="_blank">TomsHardware Taiwan</a></small></center>
<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=5650&Itemid=1" target="_blank">Why is 9800 GX2 delayed?</a>
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">NVIDIA mit Verzögerungen bei neuen Produkten?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199716213">Weitere Bilder der GeForce 9800GX2</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199462620">Daten und Bilder zur GeForce 9800GX2</a></li></ul>
Die ursprüngliche angesetzten 250W Leistungsaufnahme sollen weit überschritten werden und dadurch bedingt ein Temperaturproblem aufkommen. Die schlechte Skalierung bei Quad-SLI mit zwei dieser Karten ist ein weiteres Problem, mit dem NVIDIA bereits bei seiner ersten Quad-SLI-Lösung aus zwei 7950GX2 bzw. 7900GX2 zu kämpfen hatte. Dabei waren diese kaum schneller als ein klassisches 7900GTX-SLI-Gespann, trotz theoretisch deutlich höherer Leistungsfähigkeit.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1393"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1393"></a>
<small>Bildquelle: <a href="http://www.tomshardware.tw/309,news-309.html" target="_blank">TomsHardware Taiwan</a></small></center>
<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=5650&Itemid=1" target="_blank">Why is 9800 GX2 delayed?</a>
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">NVIDIA mit Verzögerungen bei neuen Produkten?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199716213">Weitere Bilder der GeForce 9800GX2</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199462620">Daten und Bilder zur GeForce 9800GX2</a></li></ul>
Pipo
Vice Admiral Special
Auch wenn es mit der Leistung nicht so passt, die Karten mit "Gehäuse" sehen schon sehr brachial aus, gefällt mir.
Wenn sie direkt noch die Anschlüsse für die Wakü einbauen, könnte es ja vielleicht, als Dualkühlkonzept, doch klappen.
Wenn sie direkt noch die Anschlüsse für die Wakü einbauen, könnte es ja vielleicht, als Dualkühlkonzept, doch klappen.
Ole
Grand Admiral Special
Auch wenn ich mich schütteln muss bei solchen Doppeldingern überhaupt von soetwas zu sprechen, ist die ATi Lösung doch wesentlich "eleganter".
Dass Hitzeprobleme entstehen ist ja fast schon logisch bei dieser komplett Umhüllung.
Dass Hitzeprobleme entstehen ist ja fast schon logisch bei dieser komplett Umhüllung.
Pixelmonster
Admiral Special
- Mitglied seit
- 13.02.2007
- Beiträge
- 1.345
- Renomée
- 15
- Standort
- Pfaffenhofen
- Mein Laptop
- Dell Vostro V131 (i5)
- Prozessor
- Core2Duo E8200 @3,3 Ghz
- Mainboard
- MSI P35 Neo2
- Kühlung
- Thermalright Ultra 120 Extreme Black
- Speicher
- 4Gb Gskill DDR2-1000
- Grafikprozessor
- Sapphire HD 2900XT
- HDD
- Spinnpoint F1 320GB und WD3200AAKS
- Optisches Laufwerk
- 2 DVD Brenner
- Gehäuse
- Lian Li PC-7 II
- Netzteil
- Seasonic S12+ 550W
Mir gefallen die Karten garnicht...
Sie haben 0 Charme, man sieht nichts von der Karte etc. Aber sicherlich gut Wärmegedämmt so
ATI hats hinbekommen mit ihren X2s...endlich mal wieder ein Problem bei nv^^
Sie haben 0 Charme, man sieht nichts von der Karte etc. Aber sicherlich gut Wärmegedämmt so
ATI hats hinbekommen mit ihren X2s...endlich mal wieder ein Problem bei nv^^
Makso
Grand Admiral Special
- Mitglied seit
- 15.02.2006
- Beiträge
- 3.393
- Renomée
- 142
- Standort
- Österreich
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, POEM, Docking
- Lieblingsprojekt
- Folding@Home
- Folding@Home-Statistiken
- Mein Laptop
- Desktopsystem
- Prozessor
- AMD Ryzen 5 1400@3,8GHz
- Mainboard
- Asrock B350 Pro4
- Kühlung
- Scythe Mugan 5
- Speicher
- 2x4GB ADATA
- Grafikprozessor
- RX 550
- Display
- BenQ 21,5
- SSD
- Samsung 960Pro
- HDD
- 1TB WD
- Optisches Laufwerk
- LG schwarz
- Soundkarte
- AC 97
- Gehäuse
- NZXT Beta Evo
- Netzteil
- AXP SimplePower 630W
- Betriebssystem
- Win 10
- Webbrowser
- Chrome
naja nv ist nicht gleich ATI.
OmaKuschel
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.882
- Renomée
- 4
- Mein Laptop
- Lenovo X300
- Prozessor
- Core 2 Duo E7200 (8,5*400MHz)
- Mainboard
- Gigabyte EP-P45-DS3R
- Kühlung
- Alpenföhn Groß Clockner @ Scythe Slipstream 120mm 800rpm
- Speicher
- 2x 2GB G.Skill DDR2-1000
- Grafikprozessor
- Gigabyte ATI 4850 512MB @ Arctic Cooling Accelero S1 Rev.2 @ Scythe Slipstream 120mm 800rpm
- Display
- Videoseven D24W33
- HDD
- Samsung F1 750GB 32MB @ Cooltek Disk Silencer
- Optisches Laufwerk
- LG GH20NS15
- Soundkarte
- Onboard ALC889A
- Gehäuse
- Sharkoon Rebel 9 Economy schwarz
- Netzteil
- beQuiet 450W Straight Power
- Betriebssystem
- Windows Vista Prof. x64 & Ubuntu 9.04 x64
- Webbrowser
- Firefox
- Verschiedenes
- Multi-Cardreader , 2x Scythe Slipstream 120mm 800rpm Front , 1x Scythe Slipstream 120mm 800rpm Front
Doppel-GPU-Karten sind imho derzeit völlig uninteressant!
Für kleines Geld jetzt lieber eine 8800GT oder ne 3870 kaufen und, falls nötig, in nem halben/ganzen Jahr durch eine schnellere Single-GPU-Karte ersetzen!
SLI oder CF funktioniert einfach nicht vernünftig, egal ob auf einer Karte oder zweien, siehe Mircroruckler und teilweise schlechte Skalierung!
Zudem muss man das Netzteil dann wieder größer dimensionieren, braucht ggf. wieder teurere Mainboards usw.
Und mal ehrlich: So billig wie heute waren Performance-Karten noch nie! Eine 8800GT kostet weniger als 200€, eine ATI 3870 ist nochmal ein paar Euro billiger (und etwas langsamer).
Laut meinen Rechnungen habe ich für eine 6800GT oder die 7800GT in beiden Fällen noch 300€ gezahlt!
Und die Leistung der 8800GT reicht doch auch selbst für hohe Auflösungen in den nächsten paar Monaten noch aus, denn soooo langsam ist sie nun auch wieder nicht!
Bei den etwas schnelleren 8800GTS stimmt das P/L-Verhältnis dann wieder nicht, genau wie bei den GTX oder Ultras, die zudem dank altem Chip noch deutlich mehr Strom fressen!
Fazit:
9800GX2 oder 3870X2 werde zumindest ich links liegen lassen! Lieber jetzt im 150-200€ Segment zuschlagen und bei Verfügbarkeit von nagelneuen Chips/Karten nachlegen! Das spart viel Geld und vor allem auch noch viel Strom!
Für kleines Geld jetzt lieber eine 8800GT oder ne 3870 kaufen und, falls nötig, in nem halben/ganzen Jahr durch eine schnellere Single-GPU-Karte ersetzen!
SLI oder CF funktioniert einfach nicht vernünftig, egal ob auf einer Karte oder zweien, siehe Mircroruckler und teilweise schlechte Skalierung!
Zudem muss man das Netzteil dann wieder größer dimensionieren, braucht ggf. wieder teurere Mainboards usw.
Und mal ehrlich: So billig wie heute waren Performance-Karten noch nie! Eine 8800GT kostet weniger als 200€, eine ATI 3870 ist nochmal ein paar Euro billiger (und etwas langsamer).
Laut meinen Rechnungen habe ich für eine 6800GT oder die 7800GT in beiden Fällen noch 300€ gezahlt!
Und die Leistung der 8800GT reicht doch auch selbst für hohe Auflösungen in den nächsten paar Monaten noch aus, denn soooo langsam ist sie nun auch wieder nicht!
Bei den etwas schnelleren 8800GTS stimmt das P/L-Verhältnis dann wieder nicht, genau wie bei den GTX oder Ultras, die zudem dank altem Chip noch deutlich mehr Strom fressen!
Fazit:
9800GX2 oder 3870X2 werde zumindest ich links liegen lassen! Lieber jetzt im 150-200€ Segment zuschlagen und bei Verfügbarkeit von nagelneuen Chips/Karten nachlegen! Das spart viel Geld und vor allem auch noch viel Strom!
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Eigentlich ist die Umhüllung ja eher dafür gedacht, den Luftstrom richtig zu leiten, so daß alle zu kühlenden Teile auch Luft abbekommen und danach auch die gesamte erwärmte Luft nach draußen geleitet wird. Die meisten 3rd-Party-Kühler kühlen den Chip vielleicht besser, aber dafür bekommt das Gehäuse mehr Wärme ab, ist auch nicht unbedingt erstrebenswert. Aber bei 250W pro Karte ist klar, daß das nicht einfach ist.Dass Hitzeprobleme entstehen ist ja fast schon logisch bei dieser komplett Umhüllung.
Die Radeon X2 verbraucht vielleicht etwas weniger, aber trivial ist die Kühlung da auch längst nicht. Und man darf auch nicht vergessen, daß die ebenfalls deutlich verspätet kam, angeblich weil der Treiber nicht fertig war, aber das hat natürlich auch noch Zeit gelassen für eine evtl. Kühlerveränderung, von der wir ja nichts wissen. Also sollte man nicht immer gleich auf irgendeine Firma verbal draufhauen, nur weil der Konkurrenz gerade vielleicht etwas mehr Glück hatte (die frühe Lauffähigkeit des RV670 soll AMD ja selbst überrascht haben) und deswegen etwas schneller war.
Hotstepper
Vice Admiral Special
- Mitglied seit
- 12.04.2005
- Beiträge
- 831
- Renomée
- 117
Das Problem ist das mit Rechenpower seitens der Programmiere einfach zu sorglos umgegangen wird.
Eine 8800GT 512mb bringt bei meinem Lieblingsspiel mit 1280x1024 alle settings auf High und 2x AA + 8x AF in manchen Szenen ganze: 11-13 FPS.
absolut zum k****
Gruß Hotstepper
Die 3850 512mb einem Freundes praktisch genau das gleiche.
Eine 8800GT 512mb bringt bei meinem Lieblingsspiel mit 1280x1024 alle settings auf High und 2x AA + 8x AF in manchen Szenen ganze: 11-13 FPS.
absolut zum k****
Gruß Hotstepper
Die 3850 512mb einem Freundes praktisch genau das gleiche.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Ja, ich hab mich auch entschieden, keine dicken Karten mehr einzubauen, vor allem wenn der Mainstream schon an 100W heranreicht. Mit einem stattdessen etwas häufigerem Wechsel fährt man auf die Dauer besser und billiger.Fazit:
9800GX2 oder 3870X2 werde zumindest ich links liegen lassen! Lieber jetzt im 150-200€ Segment zuschlagen und bei Verfügbarkeit von nagelneuen Chips/Karten nachlegen! Das spart viel Geld und vor allem auch noch viel Strom!
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Doppel-GPU-Karten sind imho derzeit völlig uninteressant!
Und wie immer gilt: diese pauschalen aussagen sind falsch. Wenn es nicht so wäre, würde es diese produkte nicht geben, denn der markt entscheided weiterhin welche produkte im angebot sind und bleiben.
Und wie immer gilt: diese pauschalen aussagen sind falsch. Wenn es nicht so wäre, würde es diese produkte nicht geben, denn der markt entscheided weiterhin welche produkte im angebot sind und bleiben.
na ja, manche abgebote werden aber auch durch marketing verkauft. für die breite masse ist die aussage aber sicher richtig, dass solche dual-chip-karten unter ferner liefen rangieren.
horst_sergio
Commander
- Mitglied seit
- 05.02.2006
- Beiträge
- 189
- Renomée
- 3
- Standort
- Hamburg
- Mein Laptop
- IBM T42
- Prozessor
- C2D E6700 @3.1
- Mainboard
- Gigabyte GA-965G-DS3
- Kühlung
- Boxed-Kühler
- Speicher
- 8 GB Aeneon DDR2-667 (4x2)
- Grafikprozessor
- Intel GMA X3000 onboard
- Display
- Samsung 213T 1600x1200, Panasonic AE2000 110"
- HDD
- 10 TB
- Optisches Laufwerk
- LG
- Soundkarte
- Terratec Aureon (Envy24HT)
- Gehäuse
- Chieftec CH-01B-SL
- Netzteil
- Seasonic S12-430HB
- Betriebssystem
- Debian GNU/Linux x86-64
- Webbrowser
- Firefox
Wer's braucht.. meine 8800GTS512 spielt auch Crysis flüssig in 1920x1080, alles auf vollen Details. Ohne FSAA allerdings (mag keine künstliche Unschärfe).
Und dabei ist das Spiel schon eine Ausnahme. Bei allen anderen braucht man gar nicht drüber nachdenken, ob die aktuelle Karten ausreizen (es sei denn vielleicht man spielt in 2560x1600).
Und dabei ist das Spiel schon eine Ausnahme. Bei allen anderen braucht man gar nicht drüber nachdenken, ob die aktuelle Karten ausreizen (es sei denn vielleicht man spielt in 2560x1600).
G@uneR
Lieutnant
- Mitglied seit
- 19.10.2007
- Beiträge
- 93
- Renomée
- 0
- Standort
- Neuwied
- Prozessor
- Q9550 E0 @ 3400mhz
- Mainboard
- Gigabyte P35-DS3
- Kühlung
- Zalman 9700NT
- Speicher
- 4x 1GB Corsair XMS 800er
- Grafikprozessor
- Gigabyte GTX 560Ti OC
- Display
- Asus 22"
- HDD
- 320GB Spinpoint F1
- Gehäuse
- CM690
- Netzteil
- be quiet! Straight Power 550W
- Betriebssystem
- Windows 7
- Webbrowser
- Chrome
Ich nehme an du bezeichnest flüssig als 15-40 fps oder noch weniger.Wer's braucht.. meine 8800GTS512 spielt auch Crysis flüssig in 1920x1080, alles auf vollen Details. Ohne FSAA allerdings (mag keine künstliche Unschärfe).
Und dabei ist das Spiel schon eine Ausnahme. Bei allen anderen braucht man gar nicht drüber nachdenken, ob die aktuelle Karten ausreizen (es sei denn vielleicht man spielt in 2560x1600).
fogzone
Grand Admiral Special
- Mitglied seit
- 01.05.2006
- Beiträge
- 2.377
- Renomée
- 19
- Standort
- BW \ Tübingen
- Mitglied der Planet 3DNow! Kavallerie!
- Lieblingsprojekt
- QMC, Einstein
- Meine Systeme
- wechselt öfters mal =)
- BOINC-Statistiken
das mit dem hitzeproblem war doch aber eigentlich klar und nvidia wollte dem ja auch nicht direkt aus dem weg gehen da sie bewusst immernoch 65nm fertigen.
da ist die 3870 x2 deutlich besser mit 55nm.
da ist die 3870 x2 deutlich besser mit 55nm.
CoolblueXP
Vice Admiral Special
- Mitglied seit
- 10.01.2002
- Beiträge
- 757
- Renomée
- 0
- Standort
- Fulda
- Prozessor
- Core™ i7-870
- Mainboard
- Asus P7P55D
- Kühlung
- Noctua NH-U12P SE2
- Speicher
- G.Skill DIMM 8 GB DDR3 Ripjaws
- Grafikprozessor
- EVGA GeForce GTX 580 SC
- Display
- HP Pavilion 2710m
- HDD
- 2x WD1002FAEX Raid0
- Soundkarte
- Auzentech X-Fi Forte 7.1
- Betriebssystem
- Windows 7 Ultimate 64Bit
- Webbrowser
- Google Chrome
Also das Crysis mit vollen Details auf der GTS 8800 flüssig in 1920x1080 läuft wage ich zu bezweifeln, oder du hast ne "Ausnahme" Karte erwischt *lach
Definiton Flüssig ?
Definiton Flüssig ?
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Da Grafikkarten eh schon parallel arbeiten ist der logische nächste Schritt die Nutzung von Multi-GPU- oder Multi-Core-Lösungen.
Vielleicht sollte man sich, bevor man immer über die schlechte Skalierung von SLI bzw. CrossFire meckert, einmal Gedanken darüber machen, dass auch ein nativ doppelt so breiter Chip auch bei weitem nicht die doppelte Geschwindigkeit bedeutet. Bei CPUs ist die Skalierung sogar meist noch deutlich schlechter als bei GPUs.
Vielleicht sollte man sich, bevor man immer über die schlechte Skalierung von SLI bzw. CrossFire meckert, einmal Gedanken darüber machen, dass auch ein nativ doppelt so breiter Chip auch bei weitem nicht die doppelte Geschwindigkeit bedeutet. Bei CPUs ist die Skalierung sogar meist noch deutlich schlechter als bei GPUs.
horst_sergio
Commander
- Mitglied seit
- 05.02.2006
- Beiträge
- 189
- Renomée
- 3
- Standort
- Hamburg
- Mein Laptop
- IBM T42
- Prozessor
- C2D E6700 @3.1
- Mainboard
- Gigabyte GA-965G-DS3
- Kühlung
- Boxed-Kühler
- Speicher
- 8 GB Aeneon DDR2-667 (4x2)
- Grafikprozessor
- Intel GMA X3000 onboard
- Display
- Samsung 213T 1600x1200, Panasonic AE2000 110"
- HDD
- 10 TB
- Optisches Laufwerk
- LG
- Soundkarte
- Terratec Aureon (Envy24HT)
- Gehäuse
- Chieftec CH-01B-SL
- Netzteil
- Seasonic S12-430HB
- Betriebssystem
- Debian GNU/Linux x86-64
- Webbrowser
- Firefox
Wenn man es gut spielen kann und es nicht ruckelt, ist es flüssig.
Ich bin aufgewachsen mit Spielen wie Chuck Yeager's AFT auf dem C64 (ca. 1-2 FPS). Seitdem schreckt mich nichts mehr.
Crysis dürfte ungefähr mit 30-40 FPS laufen, vielleicht auch 50 (kann man sich das irgendwie anzeigen lassen?), DX9 mit "very high"-Hack. Reicht mir absolut.
p.s. selbst wenn es wie sau ruckeln würde, bliebe es immer noch das einzige Spiel, für das man eine aktuelle Karte wirklich braucht.
Ich bin aufgewachsen mit Spielen wie Chuck Yeager's AFT auf dem C64 (ca. 1-2 FPS). Seitdem schreckt mich nichts mehr.
Crysis dürfte ungefähr mit 30-40 FPS laufen, vielleicht auch 50 (kann man sich das irgendwie anzeigen lassen?), DX9 mit "very high"-Hack. Reicht mir absolut.
p.s. selbst wenn es wie sau ruckeln würde, bliebe es immer noch das einzige Spiel, für das man eine aktuelle Karte wirklich braucht.
OmaKuschel
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.882
- Renomée
- 4
- Mein Laptop
- Lenovo X300
- Prozessor
- Core 2 Duo E7200 (8,5*400MHz)
- Mainboard
- Gigabyte EP-P45-DS3R
- Kühlung
- Alpenföhn Groß Clockner @ Scythe Slipstream 120mm 800rpm
- Speicher
- 2x 2GB G.Skill DDR2-1000
- Grafikprozessor
- Gigabyte ATI 4850 512MB @ Arctic Cooling Accelero S1 Rev.2 @ Scythe Slipstream 120mm 800rpm
- Display
- Videoseven D24W33
- HDD
- Samsung F1 750GB 32MB @ Cooltek Disk Silencer
- Optisches Laufwerk
- LG GH20NS15
- Soundkarte
- Onboard ALC889A
- Gehäuse
- Sharkoon Rebel 9 Economy schwarz
- Netzteil
- beQuiet 450W Straight Power
- Betriebssystem
- Windows Vista Prof. x64 & Ubuntu 9.04 x64
- Webbrowser
- Firefox
- Verschiedenes
- Multi-Cardreader , 2x Scythe Slipstream 120mm 800rpm Front , 1x Scythe Slipstream 120mm 800rpm Front
Und wie immer gilt: diese pauschalen aussagen sind falsch. Wenn es nicht so wäre, würde es diese produkte nicht geben, denn der markt entscheided weiterhin welche produkte im angebot sind und bleiben.
Vielleicht hätte ich folgendes ergänzen sollen: "... für 99% der Kunden!"
Natürlich werden die Top-Karten immer gehypt, aber wirklich brauchen tun Sie 99% der Leute eben nicht. Neben dem schlechten P/L-Verhältnis haben Dual-GPU-Karten eben auch noch andere Nachteile wie Stromdurst, Hitze, teilweise schlechte Skalierung und Mikroruckler!
Ich bin der Meinung, dass der großteil der spielenden Bevölkerung mit einer Karte wie der 8800GT selbst auf 24" Bildschirmen und entsprechender Auflösungen gut zurecht kommen kann. Klar gibt's da wieder Ausnahmen wie Crysis, aber läuft das Spiel mit nem teuren Mainboard und drei 8800Ultras im SLI-Verbund wirklich soviel besser (Stichwort Mikroruckler), und vor allem ist es einem wirklich soviel mehr Geld (Anschaffung, Strom) wert
Wer aktuell ne 8800GT oder vergleichbar im System hat kann imho alles halbwegs vernünftig spielen, auch in relativ hohen Auflösungen. Zumindest bis es eine 9800GT oder vergleichbar gibt, wird's imho wohl mir und den meisten anderen auch reichen!
Ich habe natürlich auch nichts generell was gegen Grafikkarten die 300-350€ kosten, mich wundert ja sogar, dass die 8800GT und Konkurrenz derzeit soooo günstig sind!
Allerdings wäre für mich höchstens eine Karte a la 9800GTX interessant, also mit EINEM Chip, der deutlich schneller als eine 8800GT ist, aber eben keine Multi-GPU-Probleme aufweist!
Was man so hört soll ja eben jene 9800GTX auch wieder sehr viel Strom fressen. Da könnte es natürlich auch hier wieder sein, dass es sinnvoller ist auf eine DIE-geshrinkte 9800GT zu warten, die deutlich weniger kostet, weniger Strom verbraucht und fast die gleiche Leistung bringt!
Das Problem derzeit ist doch folgendes: Man bekommt oberhalb der 8800GT nicht wirklich was deutlich besseres, selbst wenn man deutlich mehr Geld hinlegt. Die 8800GTS (512) ist imho den Aufpreis kaum wert, und eine 8800GTX ist für die erbrachte Mehrleistung deutlich zu teuer und zu stromhungrig. Selbst wenn man als mehr Geld als die 200€ ausgeben wollte, man wird derzeit imho nicht richtig fündig!
Schon beachtlich, was AMD&ATI mit dem HD 3870 X2 & R6x0-Technologie erreicht hat.
Nicht nur, dass der G92 & RV670-Chip gleichzeitig heraus kamen.
Sondern Nvidia hatte mit 7950 GX2 schon mal Erfahrung mit SLI-auf-einer-Karte.
Abgesehen davon, dass Nvidia mit SLI nicht nur viel länger Erfahrung & Erfolg hat als ATI, sondern der Abstand des R600-Chip war auf den G80-Chip schon ziehmlich groß.
Nicht nur, dass der G92 & RV670-Chip gleichzeitig heraus kamen.
Sondern Nvidia hatte mit 7950 GX2 schon mal Erfahrung mit SLI-auf-einer-Karte.
Abgesehen davon, dass Nvidia mit SLI nicht nur viel länger Erfahrung & Erfolg hat als ATI, sondern der Abstand des R600-Chip war auf den G80-Chip schon ziehmlich groß.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Der R600 ist dem RV670 durch die breitere Speicheranbindung technisch überlegen, die Fertigungstechnologie des RV670 ist hingegen dessen große Vorteil.
Bei gleichem Takt ist ein R600 (durch die höhere Bandbreite) ein wenig schneller als der RV670 aber verbraucht halt ungefähr das Doppelte. Die Radeon HD 3870 profitiert haupsächtlich durch den höheren Takt...
Mit der Rage Fury Maxx hatte ATI übrigens deutlich früher eine Dual-GPU-Lösung, inwieweit das Know-How aus der Zeit jedoch heute noch hilfreich war, ist eine andere Frage. Gerade der damals übliche AFR-Modus macht heute ja deutlich mehr Probleme.
Bei gleichem Takt ist ein R600 (durch die höhere Bandbreite) ein wenig schneller als der RV670 aber verbraucht halt ungefähr das Doppelte. Die Radeon HD 3870 profitiert haupsächtlich durch den höheren Takt...
Mit der Rage Fury Maxx hatte ATI übrigens deutlich früher eine Dual-GPU-Lösung, inwieweit das Know-How aus der Zeit jedoch heute noch hilfreich war, ist eine andere Frage. Gerade der damals übliche AFR-Modus macht heute ja deutlich mehr Probleme.
horst_sergio
Commander
- Mitglied seit
- 05.02.2006
- Beiträge
- 189
- Renomée
- 3
- Standort
- Hamburg
- Mein Laptop
- IBM T42
- Prozessor
- C2D E6700 @3.1
- Mainboard
- Gigabyte GA-965G-DS3
- Kühlung
- Boxed-Kühler
- Speicher
- 8 GB Aeneon DDR2-667 (4x2)
- Grafikprozessor
- Intel GMA X3000 onboard
- Display
- Samsung 213T 1600x1200, Panasonic AE2000 110"
- HDD
- 10 TB
- Optisches Laufwerk
- LG
- Soundkarte
- Terratec Aureon (Envy24HT)
- Gehäuse
- Chieftec CH-01B-SL
- Netzteil
- Seasonic S12-430HB
- Betriebssystem
- Debian GNU/Linux x86-64
- Webbrowser
- Firefox
Die 8800GTS512 war mir schon deshalb den Aufpreis wert, weil da die Abluft nach außen geblasen wird. Und die ist ja schon auch um einiges schneller, für Crysis ganz nützlich.
Aber bei allen anderen Spielen wird die kaum ausgelastet. Bei niedrigeren Auflösungen (1280) reichte sogar noch meine alte 7800GT aus, die ich vorher hatte.
Es hat sich da doch einiges geändert - sowas wie Crysis war Mitte der 90er der Normalfall, bzw. da war es noch heftiger (Hardware für flüssiges Spielen überhaupt noch nicht verfügbar, egal für wieviel Geld).
Ist ja auch kein Wunder, heute ist das alles ein Massengeschäft und die Masse kauft keine teuren Grafikkarten. Also ist der Mehrwert, den man damit bekommt, einfach durch mangelnde Unterstützung durch die jeweils aktuelle Spielegeneration gewaltig gesunken.
High-End-Karten sind deshalb für mich derzeit überhaupt kein Thema mehr.
Aber bei allen anderen Spielen wird die kaum ausgelastet. Bei niedrigeren Auflösungen (1280) reichte sogar noch meine alte 7800GT aus, die ich vorher hatte.
Es hat sich da doch einiges geändert - sowas wie Crysis war Mitte der 90er der Normalfall, bzw. da war es noch heftiger (Hardware für flüssiges Spielen überhaupt noch nicht verfügbar, egal für wieviel Geld).
Ist ja auch kein Wunder, heute ist das alles ein Massengeschäft und die Masse kauft keine teuren Grafikkarten. Also ist der Mehrwert, den man damit bekommt, einfach durch mangelnde Unterstützung durch die jeweils aktuelle Spielegeneration gewaltig gesunken.
High-End-Karten sind deshalb für mich derzeit überhaupt kein Thema mehr.
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.580
- Renomée
- 2.569
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Bei gleichem Takt ist ein R600 (durch die höhere Bandbreite) ein wenig schneller als der RV670 ...
Das kann ich bestätigen.
2x HD 3870 im CrossFire mit 995/1301: 26.064 Punkte im 3DMark06
2x HD 2900 im CrossFire mit 950/1000: 26.874 Punkte im 3DMark06
Sind also trotz wesentlich niedrigerer Taktraten rund 800 Punkte mehr, wovon vielleicht 200 Punkte auf DDR3 entfallen (gegenüber DDR2 beim 3870-Run).
gruenmuckel
Grand Admiral Special
- Mitglied seit
- 17.05.2001
- Beiträge
- 29.628
- Renomée
- 1.743
- Standort
- Gerry-Weber - Stadt
- Aktuelle Projekte
- Collatz, Milkyway, POEM
- Lieblingsprojekt
- POEM & QMC etwa gleich
- Meine Systeme
- C2Q8400@3,2Ghz I7-3770K C2DE6750
- BOINC-Statistiken
- Mein Laptop
- Dell Studio 1749 @ work / Medion Erazer X7826 @ play
- Prozessor
- Intel Core i7 6700K
- Mainboard
- Asrock Z270 Extreme4
- Kühlung
- EKL Alpenföhn Matterhorn PURE
- Speicher
- 1x 16GB G.Skill Aegis DDR4-2400 DIMM CL15-15-15-35
- Grafikprozessor
- Sapphire AMD Radeon RX 480 NITRO 8GB
- Display
- LG Ultrawide 21:9 "29UM67-P & FullHD Packard-Bell-TV
- SSD
- 1TB 840 EVO, Mushkin Reactor1TB, Sandisk Extreme 480GB
- HDD
- 1xMD04ACA400, 2x Seagate Archive 8TB
- Optisches Laufwerk
- LG GH22NS40, Sony Optiarc BD-5300S Blu-Ray Brenner
- Soundkarte
- Creative Recon3D PCIe
- Gehäuse
- Corsair Obsidian 650D (2x 140mm Vegas Duo + 1x 120mm Vegas Trio)
- Netzteil
- Corsair RM650i
- Betriebssystem
- Windows 7 64 SP1
- Webbrowser
- Firefox aktuelle Version
- Verschiedenes
- Hauppauge WinTV USB , Scythe Kaze Master Ace Lüfte
- Schau Dir das System auf sysprofile.de an
Sind das Grafikkarten oder VHS-Videocassetten?
Natürlich muss und wird Hardware immer flotter werden, aber dieses Mal scheint NVidia einfach viel zu früh Leistung bereitzustellen. Ein Quad-SLI Gespann aus diesen Karten ist doch vermutlich bei 99,999% aller Anwendungen mindestens eine Karte zu viel.
Natürlich muss und wird Hardware immer flotter werden, aber dieses Mal scheint NVidia einfach viel zu früh Leistung bereitzustellen. Ein Quad-SLI Gespann aus diesen Karten ist doch vermutlich bei 99,999% aller Anwendungen mindestens eine Karte zu viel.
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Mir wird schwindelig bei den gemachten Angaben zur Leistungsaufnahme. Ist das überhaupt noch ökologisch vertretbar? nVidia wird auf einer Zweikarten-Lösung beharren müssen, ist SLI doch der derzeit einzige Faustpfand, mit welchem nVidia seine Existenz am Markt sichert. Hätte AMD besser Hausaufgaben gemacht und mit dem 790/790FX einen vernünftigen Chipsatz in peto, müßte man als AMD-Enthusiast nicht auf nVidias 790a-Lösung warten. Da Crossfire interessanterweise auch auf Intel-Platformen läuft, wird nVidias Stand naturgemäß etwas schwieriger zu halten.
Was mir allerdings nicht in den Kopf will ist, daß es nicht möglich sein soll zwei GPU Cores auf einen Siliziumträger, ähnlich Intels derzeitigen Dualcores, zu bringen. Warum dieser irrwitzige Aufwand mit zwei Graphikkarten? Das einzige Argument wäre, daß man in der Herstellung somit flexibler bliebe, aber mit einem Chip könnte man durchaus einige thermische Probleme besser in den Griff bekommen als mit zwei separaten, diskreten Boards, oder?
Was mir allerdings nicht in den Kopf will ist, daß es nicht möglich sein soll zwei GPU Cores auf einen Siliziumträger, ähnlich Intels derzeitigen Dualcores, zu bringen. Warum dieser irrwitzige Aufwand mit zwei Graphikkarten? Das einzige Argument wäre, daß man in der Herstellung somit flexibler bliebe, aber mit einem Chip könnte man durchaus einige thermische Probleme besser in den Griff bekommen als mit zwei separaten, diskreten Boards, oder?
fogzone
Grand Admiral Special
- Mitglied seit
- 01.05.2006
- Beiträge
- 2.377
- Renomée
- 19
- Standort
- BW \ Tübingen
- Mitglied der Planet 3DNow! Kavallerie!
- Lieblingsprojekt
- QMC, Einstein
- Meine Systeme
- wechselt öfters mal =)
- BOINC-Statistiken
der nvidia 790a ist derzeit wohl wirklich das interessanteste was in nächster zeit zu erwarten ist und dann sollte auch die hohe leistungsaufnahme nichtmehr so ins gewicht fallen
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 680
- Aufrufe
- 87K
- Antworten
- 21
- Aufrufe
- 5K