App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA GeForce 9800GX2 sogar zurückgezogen?
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.369
- Renomée
- 9.694
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Momentan sind einige Spekulationen bezüglich NVIDIAs kommender GeForce 9800GX2 und deren Probleme mit Hitze und schlechter SLI-Skalierung (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202732246">berichteten</a>) unterwegs. Eventuell war die Produkteinführung für NVIDIA aber noch unangenehmer als bislang angenommen.
Bislang ging man davon aus, dass die offizielle Vorstellung der Karte nur immer weiter verschoben wurde. So war man anfangs von einer Vorstellung relativ zeitnah zum Erscheinen von AMDs ATI Radeon HD 3870 X2 oder spätestens zum 15. Februar ausgegangen.
Mittlerweile werden Karten wohl erst zur CeBIT verfügbar sein. Erste Hersteller haben auch bereits angekündigt, Karten auf Basis des 9800GX2 auf der Messe in Hannover zu zeigen.
Unterdessen wurde uns die Information zugetragen, dass 9800GX2 Grafikkarten bereits auf dem Weg zu Distributoren gewesen und dann auf Grund der bereits genannten Probleme mit der Hitzeentwicklung zurückgerufen worden sein sollen.
In wie weit dieses Gerücht der Wahrheit entspricht, ist schwer zu beurteilen, da man momentan sogar noch an den genauen Spezifikationen der 9800GX2 herumrätselt. Sollten die Karten wirklich bereits bei den Distributoren gelegen haben, wäre es sehr wahrscheinlich, dass die endgültigen Spezifikationen bereits ihren Weg ins Internet gefunden hätten.
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">NVIDIA mit Verzögerungen bei neuen Produkten?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199716213">Weitere Bilder der GeForce 9800GX2</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199462620">Daten und Bilder zur GeForce 9800GX2</a></li></ul>
Bislang ging man davon aus, dass die offizielle Vorstellung der Karte nur immer weiter verschoben wurde. So war man anfangs von einer Vorstellung relativ zeitnah zum Erscheinen von AMDs ATI Radeon HD 3870 X2 oder spätestens zum 15. Februar ausgegangen.
Mittlerweile werden Karten wohl erst zur CeBIT verfügbar sein. Erste Hersteller haben auch bereits angekündigt, Karten auf Basis des 9800GX2 auf der Messe in Hannover zu zeigen.
Unterdessen wurde uns die Information zugetragen, dass 9800GX2 Grafikkarten bereits auf dem Weg zu Distributoren gewesen und dann auf Grund der bereits genannten Probleme mit der Hitzeentwicklung zurückgerufen worden sein sollen.
In wie weit dieses Gerücht der Wahrheit entspricht, ist schwer zu beurteilen, da man momentan sogar noch an den genauen Spezifikationen der 9800GX2 herumrätselt. Sollten die Karten wirklich bereits bei den Distributoren gelegen haben, wäre es sehr wahrscheinlich, dass die endgültigen Spezifikationen bereits ihren Weg ins Internet gefunden hätten.
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201473838">NVIDIA mit Verzögerungen bei neuen Produkten?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199716213">Weitere Bilder der GeForce 9800GX2</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1199462620">Daten und Bilder zur GeForce 9800GX2</a></li></ul>
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Das Kühlkonzept der Karte ist auch schlicht Ungenügend. Das musste so enden, jedenfalls, wenn man den Bildern glauben darf, die durch die verschiedenen Foren gingen. 2 solche Grafikchips lassen sich nicht singleslot kühlen, so wie das da gedacht war und der Lufteinlass war ebenfalls winzig.
nookie88
Vice Admiral Special
- Mitglied seit
- 08.04.2007
- Beiträge
- 543
- Renomée
- 1
- Lieblingsprojekt
- Spin
- Prozessor
- AMD Athlon 64 5000+ Black Edition @3200MHz
- Mainboard
- Gigabyte GA-MA770-DS3
- Kühlung
- Lukü Xigmatek HDT-S1283
- Speicher
- 2x2048MB MDT DDR2-800 AE
- Grafikprozessor
- Club3D HD 3850 @740/860
- Display
- 17"Hyundai B71A
- HDD
- 160GB Samsung SpinPoint 1614C
- Optisches Laufwerk
- LG-GSA
- Soundkarte
- 5.1 onboard
- Gehäuse
- AeroEngine Jr.
- Netzteil
- BeQuiet BQT-450W
- Betriebssystem
- Windows XP 32bit
- Webbrowser
- Opera
Naja,
die einzigen Bilder die ich gesehen hab sahen eine Dualslot Kühlung vor. KA wie du auf singel kommst?
Ich versteh allerdings nicht warum nvidia auf 65nm setzt. Wenn sie ähnlich wie AMD auf die 55nm Technologie gesetzt hätten dann wäre die 9800GX2 wohl nicht mit so großen Hitzeproblemen behaftet.
MfG nookie
die einzigen Bilder die ich gesehen hab sahen eine Dualslot Kühlung vor. KA wie du auf singel kommst?
Ich versteh allerdings nicht warum nvidia auf 65nm setzt. Wenn sie ähnlich wie AMD auf die 55nm Technologie gesetzt hätten dann wäre die 9800GX2 wohl nicht mit so großen Hitzeproblemen behaftet.
MfG nookie
Cor Angar
Cadet
- Mitglied seit
- 07.07.2007
- Beiträge
- 16
- Renomée
- 0
- Standort
- Ruhrpott
- Prozessor
- AMD Athlon 64 X2 3800+ @2,8GHz
- Mainboard
- DFi Lanparty UT nF4 Ultra-D
- Kühlung
- Wakü für CPU, Graka, Chipsatz
- Speicher
- 2x1024MB infineon CE-5 @255MHz
- Grafikprozessor
- nV Geforce 7900GT @620/800
- Display
- 19" CRT
- HDD
- 160GB Samsung 8MB SATA II + 320GB Samsung 16MB SATAII
- Soundkarte
- Audigy 4
- Gehäuse
- Chiftec Bigtower
- Netzteil
- Tagan 430W
- Betriebssystem
- Wn XP Home
- Webbrowser
- Firefox
Insgesamt ists eine DualSlot Kühlung, aber jedes PCB / jede GPU hat nur nen SingleSlot Kühler. 2 Dual Slots wär wohl etwas dick^^
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.033
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Möglicherweise wäre es auch einfach sinnvoller gewesen, noch eine weitere "8800Ultra-Extreme" nachzuschieben, mit besonders selektierten G80 und noch schnellerem RAM, damit wäre man wohl in etwa auf das Niveau der 3870X2 gekommen. Aber es hätte weniger Aufwand bedeutet und wäre damit auch schneller gegangen.
Insgesamt halte ich aber weiterhin den G92 einfach für falsch dimensioniert. Er ist zu klein für High-End und zu groß für Mainstream. Besser hätten sie den G80 auf 65nm geschrumpft und ihm das 384bit-SI gelassen, evtl. noch ein paar Shader dazu spendiert (z.B. 160), dann hätten sie mit einer 1-Chip-Karte locker gegen die Radeon X2 bestehen können. Für den Mainstream wäre ein Chip mit 96 Shadern und 256bit-SI besser gewesen, dessen Performance hätte ausgereicht, wäre aber billiger zu fertigen gewesen und leichter zu kühlen, d.h. man wäre genau auf Höhe des RV670 gelandet.
Daß Nvidia es anders gemacht hat, läßt eigentlich nur den Schluß zu, daß sie nicht ausreichend informiert waren; vielleicht sind mit der Übernahme Atis durch AMD zuviele Spione aufgeflogen oder sonstwie hops gegangen.
Insgesamt halte ich aber weiterhin den G92 einfach für falsch dimensioniert. Er ist zu klein für High-End und zu groß für Mainstream. Besser hätten sie den G80 auf 65nm geschrumpft und ihm das 384bit-SI gelassen, evtl. noch ein paar Shader dazu spendiert (z.B. 160), dann hätten sie mit einer 1-Chip-Karte locker gegen die Radeon X2 bestehen können. Für den Mainstream wäre ein Chip mit 96 Shadern und 256bit-SI besser gewesen, dessen Performance hätte ausgereicht, wäre aber billiger zu fertigen gewesen und leichter zu kühlen, d.h. man wäre genau auf Höhe des RV670 gelandet.
Daß Nvidia es anders gemacht hat, läßt eigentlich nur den Schluß zu, daß sie nicht ausreichend informiert waren; vielleicht sind mit der Übernahme Atis durch AMD zuviele Spione aufgeflogen oder sonstwie hops gegangen.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Eine 8800gt mit Singel Slot Kühlung pfeift schon aus dem letzten Loch, dann sollen zwei 8800gt so nahe beieinander, ohne das die Luft nach außen geführt wird, laufen?! (Hauptsache 4 DVI Anschlüsse ).
Trodem schade es hätte mich interessiert wie die Leute/ Presse aus so eine Karte reagieren.
Wäre das >250W Monster verkauft worden? Microruckler inklusive etc.
Trodem schade es hätte mich interessiert wie die Leute/ Presse aus so eine Karte reagieren.
Wäre das >250W Monster verkauft worden? Microruckler inklusive etc.
Mastermind
Grand Admiral Special
- Mitglied seit
- 14.08.2001
- Beiträge
- 3.925
- Renomée
- 16
- Standort
- 0x0000001
- Prozessor
- Intel Core i7-7700K @ 4.40GHz @ 1,18 VCore
- Mainboard
- Gigabyte GA-Z270-HD3P
- Kühlung
- Noctua NH-U12S / 3 Gehäuselüfter - alle unter 900 UpM
- Speicher
- 16GB (2x8GB) Kingston HyperX FURY DDR4 @ 2666 CL15
- Grafikprozessor
- EVGA GTX 1060 6GB
- Display
- Monitor 1: Asus ROG PG278Q - Monitor 2: LG Flatron E2210
- SSD
- Samsung 850 EVO - 500GB | Crucial Micron RealSSD C400 256GB (Gaming SSD)
- HDD
- Samsung HD204UI 2TB - Datengrab
- Soundkarte
- Asus Xonar DX/XD PCIe LP 7.1 R + Creative Inspire 6.1
- Gehäuse
- Thermaltake Armor - Mit einem schwarz-blauen Flammenairbrush
- Netzteil
- Antec TruePower TP-750 750W
- Betriebssystem
- Windows 10 64Bit
- Webbrowser
- FireFox
- Verschiedenes
- Wasserkühlung komplett entfernt...
jopp das ist wahr...
wir sollten hier in der firma eigtl. mehrere für vor der cebit von nvidia bekommen (für ein noch nicht näher genanntes projekt das auf mehreren ständen der cebit präsentiert werden sollte/wird) und naja heute kam der anruf die testexemplare gehen frühestens am 10 märz raus (wenn überhaupt)
soll heißen genau einen tag !!!nach der cebit! DAS ist richtig sche**e da uns so das ganze konzept flöten gegangen ist und wir jetzt wohl mit den 3870x2 weitermachen müssen und das obwohl die im crossfire auch noch net richtig laufen... (gut das ich das projekt nicht mache )
wir sollten hier in der firma eigtl. mehrere für vor der cebit von nvidia bekommen (für ein noch nicht näher genanntes projekt das auf mehreren ständen der cebit präsentiert werden sollte/wird) und naja heute kam der anruf die testexemplare gehen frühestens am 10 märz raus (wenn überhaupt)
soll heißen genau einen tag !!!nach der cebit! DAS ist richtig sche**e da uns so das ganze konzept flöten gegangen ist und wir jetzt wohl mit den 3870x2 weitermachen müssen und das obwohl die im crossfire auch noch net richtig laufen... (gut das ich das projekt nicht mache )
Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Ich hab den Eindruck AMD versucht es mit nVidia so zu machen wie Intel es mit AMD macht - den Vorteil in der Fertigungstechnik ausnutzen und zum gleichen Zeitpunkt kleinere Chips herstellen können.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Das ganze PCB-sandwich konzept ist einfach nicht tauglich. War es schon zu zeiten des GF7 nicht. Das lässt sich einfach nicht vernünftig kühlen.
Alles in allem ist es aber ganz gut wenn nvidia mal wieder über die eigene überheblichkeit stolpert. Das kann am ende AMD nur nützen.
Alles in allem ist es aber ganz gut wenn nvidia mal wieder über die eigene überheblichkeit stolpert. Das kann am ende AMD nur nützen.
neax
Grand Admiral Special
Hi,
die Dual-Core Lösung mit den jetzigen GPU ist sowieso nicht die Lösung, da dieser Fall eigentlich nicht vorgesehen ist. Einzig die R700 / RV770 könnten dies von Hause aus.
Greetz
neax
die Dual-Core Lösung mit den jetzigen GPU ist sowieso nicht die Lösung, da dieser Fall eigentlich nicht vorgesehen ist. Einzig die R700 / RV770 könnten dies von Hause aus.
Greetz
neax
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
ATI Chips werden nicht in eigenen AMD-Fabs gefertigt ...Ich hab den Eindruck AMD versucht es mit nVidia so zu machen wie Intel es mit AMD macht - den Vorteil in der Fertigungstechnik ausnutzen und zum gleichen Zeitpunkt kleinere Chips herstellen können.
Da ist AMD ebenso auf Foundries angewiesen, wie es Nvidia ist.
Allenfalls eine AMD-TSMC-Zusammenarbeit im Bereich Forschung und Entwicklung auf Produktionsebene könnte da AMD einen zeitlich begrenzten Vorteil geben.
MFG Bobo(2008 )
Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Ich weiß, Fakt ist aber, dass AMD bisher hier deutlich früher am Zug ist als es Nvidia ist trotz teilweise gleichen Auftragsfertigern.
AMD bietet Grafikkarten seit Ende letzten Jahres in 55nm an und Nvidia wird ja eben auch den 9800GX2 wieder als 65nm-Chip bringen, da ist hohe Verlustleistung vorprogrammiert.
Und ich kann mir durchaus vorstellen, dass sich AMD für das eine oder andere bisschen KnowHow bei den Fremdfertigern Exklusivität einkauft.
Zuletzt dürfte ein Wissensvorsprung bei der Fertigungstechnologie auch Vorteile beim Chipdesign bieten, einen Wissenstransfer aus der CPU-Abteilung her vorausgesetzt.
Nvidia ist zumindest bisher noch beim "klassischen" Verfahren und scheint wie seit einiger Zeit zuerst die LowCost-Chips in der neuen Fertigungstechnologie herstellen zu wollen, das könnte jetzt zu konservativ sein.
AMD bietet Grafikkarten seit Ende letzten Jahres in 55nm an und Nvidia wird ja eben auch den 9800GX2 wieder als 65nm-Chip bringen, da ist hohe Verlustleistung vorprogrammiert.
Und ich kann mir durchaus vorstellen, dass sich AMD für das eine oder andere bisschen KnowHow bei den Fremdfertigern Exklusivität einkauft.
Zuletzt dürfte ein Wissensvorsprung bei der Fertigungstechnologie auch Vorteile beim Chipdesign bieten, einen Wissenstransfer aus der CPU-Abteilung her vorausgesetzt.
Nvidia ist zumindest bisher noch beim "klassischen" Verfahren und scheint wie seit einiger Zeit zuerst die LowCost-Chips in der neuen Fertigungstechnologie herstellen zu wollen, das könnte jetzt zu konservativ sein.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
@Nightshift
Ja so sehe ich das auch ... so weit scheinen unsere Ansichten ja doch nicht auseinander zu sein.
Ja so sehe ich das auch ... so weit scheinen unsere Ansichten ja doch nicht auseinander zu sein.
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
Nvidia hat wahrscheinlich erkannt, dass so eine Dual Karte ein grober Pfusch ist und sie warten noch ein bisschen und bringen gleich einen großen Chip raus. Dank Mikroruckler ist eine SLI/Crossfire Karte im Schnitt sowieso nur maximal 20% schneller, nur fällt das keinem auf, weil alle nur total geil auf die Average FPS sind. Dass dabei immer 2 Frames ganz knapp hintereinander erzeugt werden und deshalb nur etwas mehr als die Hälfte davon sichtbar ist, wissen die wenigsten. Das Sinnvollste ist es, sich einfach eine 8800GT zu holen und die noch einmal ordentlich zu übertakten. Damit ist man auch nicht viel langsamer, aber viel günstiger unterwegs.
Pitt G.
Admiral Special
- Mitglied seit
- 17.07.2002
- Beiträge
- 1.630
- Renomée
- 11
- Prozessor
- FX-60
- Mainboard
- ASRock 939Dual-VSTA
- Kühlung
- Boxed
- Speicher
- 4*1GB Kingston DDR 400
- Grafikprozessor
- ASUS EN8600 GTS
- Display
- 19"Eizo S1901SH-BK 1280*1020
- HDD
- Intel X-25M 80GB
- Optisches Laufwerk
- LG GGW-H20L
- Soundkarte
- onboard CMedia CM6501
- Gehäuse
- Chieftec Dragon DX-01BD-U-OP
- Netzteil
- Enermax Liberty ELT620AWT
- Betriebssystem
- WinVista HomePremium 32 Bit
- Webbrowser
- IE
die beste MotD
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 560
- Antworten
- 610
- Aufrufe
- 45K
- Antworten
- 0
- Aufrufe
- 432
- Antworten
- 13
- Aufrufe
- 1K