App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA stellt GeForce-8-Serie vor
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.373
- Renomée
- 9.707
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Mit der GeForce 8800 GTX und GeForce 8800 GTS stellt NVIDIA die beiden ersten Modelle der GeForce-8-Serie vor.
Die neuen Grafikprozessoren unterstützen erstmals das Programmier-Interface Microsoft DirectX 10.
Weitere Features der GeForce-8-Serie:
<ul><li>Neue Unified-Shader-Architektur mit 128 Stream-Prozessoren mit 1,35 GHz, die atemberaubende Floating-Point-Berechnungspower für die ultimative Gaming-Performance bietet</li><li>NVIDIAs Quantum-Effects-Physics-Technologie, die für ultra-realistische visuelle Effekte und Grafiken sorgen</li><li>16fach Anti-Aliasing mit gleichzeitiger 128-bit-HDR-Beleuchtung (High Dynamic Range) für eine gestochen scharfe Bildqualität.</li></ul>
<center><img src="/news_images/nvidia_gf8_specs.jpg"></center>
Produkte wurden bereits von einigen Herstellern angekündigt:
<ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288349">ASUS EN8800 Serie</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288350">FOXCONN launcht NVIDIA GeForce 8800GTX und GTS Grafikkarten</a></li><li><a href="">Leadtek: WinFast PX8800 GTX TDH und WinFast PX8800 GTS TDH</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288353">BFG TECHNOLOGIES </a></li>
</ul>
Ausserdem sind erste Reviews zu lesen:
<ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/" target="b">nVidia GeForce 8800 GTX (ComputerBase)</a></li><li><a href="http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487" target="b">NVIDIA GeForce 8800 GTX (HardwareLuxx)</a></li>
<li><a href="http://www.legitreviews.com/article/413/1/" target="b">XFX GeForce 8800 GTX and eVGA 8800 GTS GPU's (Legit Reviews)</a></li><li><a href="http://www.guru3d.com/article/Videocards/391/" target="b">GeForce 8800 GTS & GTX review (Guru 3D)</a></li></ul>
<b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288346">Pressemitteilung NVIDIA</a>
Die neuen Grafikprozessoren unterstützen erstmals das Programmier-Interface Microsoft DirectX 10.
Weitere Features der GeForce-8-Serie:
<ul><li>Neue Unified-Shader-Architektur mit 128 Stream-Prozessoren mit 1,35 GHz, die atemberaubende Floating-Point-Berechnungspower für die ultimative Gaming-Performance bietet</li><li>NVIDIAs Quantum-Effects-Physics-Technologie, die für ultra-realistische visuelle Effekte und Grafiken sorgen</li><li>16fach Anti-Aliasing mit gleichzeitiger 128-bit-HDR-Beleuchtung (High Dynamic Range) für eine gestochen scharfe Bildqualität.</li></ul>
<center><img src="/news_images/nvidia_gf8_specs.jpg"></center>
Produkte wurden bereits von einigen Herstellern angekündigt:
<ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288349">ASUS EN8800 Serie</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288350">FOXCONN launcht NVIDIA GeForce 8800GTX und GTS Grafikkarten</a></li><li><a href="">Leadtek: WinFast PX8800 GTX TDH und WinFast PX8800 GTS TDH</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288353">BFG TECHNOLOGIES </a></li>
</ul>
Ausserdem sind erste Reviews zu lesen:
<ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/" target="b">nVidia GeForce 8800 GTX (ComputerBase)</a></li><li><a href="http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487" target="b">NVIDIA GeForce 8800 GTX (HardwareLuxx)</a></li>
<li><a href="http://www.legitreviews.com/article/413/1/" target="b">XFX GeForce 8800 GTX and eVGA 8800 GTS GPU's (Legit Reviews)</a></li><li><a href="http://www.guru3d.com/article/Videocards/391/" target="b">GeForce 8800 GTS & GTX review (Guru 3D)</a></li></ul>
<b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=288346">Pressemitteilung NVIDIA</a>
Desertdelphin
Grand Admiral Special
- Mitglied seit
- 23.10.2002
- Beiträge
- 4.395
- Renomée
- 185
Vor allem in Oblivion: Beachtliche Leistung.
Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...
Die sollten sich mal anschauen was die CPU Hersteller leisten.
Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...
Die sollten sich mal anschauen was die CPU Hersteller leisten.
Chris_Bear
Admiral Special
Von TecChannel gibt's auch schon ein Review: http://www.tecchannel.de/technologie/komponenten/455141/
-cb-
Grand Admiral Special
Vor allem in Oblivion: Beachtliche Leistung.
Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...
Ja genau... weil die Xbox 360 ja auch so ein Stromspar- und Ergonomiewunder ist...
Michl
Grand Admiral Special
- Mitglied seit
- 29.07.2006
- Beiträge
- 2.479
- Renomée
- 32
- Standort
- Graz
- Mein Laptop
- Gericom Blockbuster
- Prozessor
- Intel i7-4770k@3,5 Ghz
- Mainboard
- Gigabyte Z87X-D3H
- Kühlung
- Wakü Cooler Master Seidon 120 V
- Speicher
- 2 x 8 Gig Corsair DDR3 PC1600
- Grafikprozessor
- ATI r9 280X von HIS
- Display
- Samsung 22" TFT
- SSD
- 120 GB SATA III Samsung 849 EVO
- HDD
- 1000 GB SATA 3
- Optisches Laufwerk
- ASUS
- Soundkarte
- Onboard
- Gehäuse
- Enermax Fulmo ST
- Netzteil
- Corsair 650 W VS650
- Betriebssystem
- Win 8.1
- Webbrowser
- Firefox
- Verschiedenes
- Die Mühle hat soviel Power das ich sie derzeit nicht übertakte ^^
Buuuuummmm.......da kommt was auf uns zu! Ich glaube das ist der erste echte Schritt in Richtung Fotorealismus.
Aber wenn man sich ansieht das dazu nötig ist, Core2Duo 6800 Plattform, eventuell ein leistungsstärkeres NT, höherer Stromverbrauch, Vista, etc. etc.!
Da kommt man ganz schnell auf mind. 1500 € Investitionskosten dazu der höhere Stromverbrauch.
Ich werde erstmal abwarten zumal ich es mir derzeit eh nicht leisten könnte, selbst wenn ich wollte!
Aber wenn man sich ansieht das dazu nötig ist, Core2Duo 6800 Plattform, eventuell ein leistungsstärkeres NT, höherer Stromverbrauch, Vista, etc. etc.!
Da kommt man ganz schnell auf mind. 1500 € Investitionskosten dazu der höhere Stromverbrauch.
Ich werde erstmal abwarten zumal ich es mir derzeit eh nicht leisten könnte, selbst wenn ich wollte!
Vudu3
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.574
- Renomée
- 6
- Standort
- Duisburg
- Mein Laptop
- Dell Vostro 1400
- Prozessor
- Intel Core i7 3770
- Mainboard
- MSI Z77A-GD65
- Kühlung
- Thermalright HR-02 Macho
- Speicher
- 2x 4GB DDR3 Team Group Elite
- Grafikprozessor
- MSI R5770 HAWK
- Display
- Eizo S2231WH
- HDD
- Samsung 830 128 GB, WD2001FASS 2TB, Hitachi 7K1000.B 1TB
- Optisches Laufwerk
- LG GGC-H20L HD/BD Reader, Pioneer BDR-207 BD Writer
- Soundkarte
- ASUS Xonar DX 7.1
- Gehäuse
- CS-901 Blau Metallic
- Netzteil
- Enermax Pro82+ II 425W
- Betriebssystem
- Windows 7 Professional x64
- Webbrowser
- Google Chrome
Hab mich schon gewundert, denn so eine Geforce Karte lag gestern bei meinem Händler in der Ausstellung. Preis 699 Euro dort, nicht schlecht.
Richtig Lang und 2 Stromanschlüsse hat das gute Ding
Da ist die Frage nach dem Stromverbrauch schon berechtigt ^^ Power hat die Karte wohl lt. den Benchmarks genug...
Richtig Lang und 2 Stromanschlüsse hat das gute Ding
Da ist die Frage nach dem Stromverbrauch schon berechtigt ^^ Power hat die Karte wohl lt. den Benchmarks genug...
lord_fritte
Vice Admiral Special
Ich dachte die verbauen GDDR4
deformator
Commodore Special
- Mitglied seit
- 11.01.2002
- Beiträge
- 363
- Renomée
- 0
Ich bin nicht bereit, so einen Stromschlucker zusammenzubauen.
In einem Intelinterview hatte ich neulich gelesen, dass die Rechner in Zukunft viel stromsparender sein werden als heute. Tatsächlich aber passier das Gegenteil, jedenfalls bis heute. Ein Witz!
Na ja, für die aktuellen Spiele reicht auch etwas stromsparenderes. Wer sowas unbedingt braucht, soll es sich antun. Nötig ist das bei den aktuellen Spielen jedenfalls nicht.
Und wenn es Spiele gibt, die diese Power auch umsetzten (Nähe zu Fotorealismus), dann gibt es auch wieder neuere Grafikkarten, die genausoviel leistung haben und wesentlich weniger Strom verbraten.
Die sollen lieber sehen, dass endlich Intel-Dektopboards kommen, deren Onboardgrafik H264 unterstützt! Damit ich mir einen neuen, stromsparenden HTPC zusammenbauen kann.
In einem Intelinterview hatte ich neulich gelesen, dass die Rechner in Zukunft viel stromsparender sein werden als heute. Tatsächlich aber passier das Gegenteil, jedenfalls bis heute. Ein Witz!
Na ja, für die aktuellen Spiele reicht auch etwas stromsparenderes. Wer sowas unbedingt braucht, soll es sich antun. Nötig ist das bei den aktuellen Spielen jedenfalls nicht.
Und wenn es Spiele gibt, die diese Power auch umsetzten (Nähe zu Fotorealismus), dann gibt es auch wieder neuere Grafikkarten, die genausoviel leistung haben und wesentlich weniger Strom verbraten.
Die sollen lieber sehen, dass endlich Intel-Dektopboards kommen, deren Onboardgrafik H264 unterstützt! Damit ich mir einen neuen, stromsparenden HTPC zusammenbauen kann.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Und es gibt endlich wieder winkelunabhängiges AF!!
Kein Gejammer mehr wegen der "soviel schlechteren Bildqualität"...
Kein Gejammer mehr wegen der "soviel schlechteren Bildqualität"...
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Es gibt sogar schon einen offiziellen Treiber mit exklusiver Unterstützung für die GeForce 8800 Serie.
ForceWare 97.02: http://www.nvidia.com/object/winxp_2k_97.02.html
Man wird also zu Beginn nicht mit Beta Treibern vertröstet, wie es in der Vergangenheit manchmal der Fall war.
ForceWare 97.02: http://www.nvidia.com/object/winxp_2k_97.02.html
Man wird also zu Beginn nicht mit Beta Treibern vertröstet, wie es in der Vergangenheit manchmal der Fall war.
Shadow79
Admiral Special
- Mitglied seit
- 27.03.2003
- Beiträge
- 1.857
- Renomée
- 6
- Mein Laptop
- Lenovo Y580
- Prozessor
- AMD Ryzen 7 3700X @stock
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Scythe Fuma 2
- Speicher
- Crucial Ballistix schwarz DIMM Kit 32GB, DDR4-3600, CL16-18-18-38
- Grafikprozessor
- ASUS ROG Strix Radeon RX Vega 56 OC Gaming
- Display
- 24" Dell UltraSharp 2407 (1920x1200)
- SSD
- PNY XLR8 CS3030 500GB, M.2
- HDD
- SanDisk SSD 2TB
- Optisches Laufwerk
- LG Electronics BH10LS38
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence 5
- Netzteil
- be quiet! Straight Power 11 Platinum 650W
- Betriebssystem
- Win 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
Also ich werde auf jeden Fall warten, bis der Refresh-Chip in 65 nm kommt.
Denke mal dass nVidia dadurch auch dem Stromhunger etwas entgegenwirken kann.
Ansonsten eine sehr beeindruckende Grafikkarte.
MfG
Shadow79
Denke mal dass nVidia dadurch auch dem Stromhunger etwas entgegenwirken kann.
Ansonsten eine sehr beeindruckende Grafikkarte.
MfG
Shadow79
-cb-
Grand Admiral Special
Und es gibt endlich wieder winkelunabhängiges AF!!
Kein Gejammer mehr wegen der "soviel schlechteren Bildqualität"...
Jetzt darf gemeckert werden über ATI's schlechte Bildqualität...
Käme auch nie auf den Gedanken, eine Karte, die so enorm viel Strom verbraucht und doch relativ viel kostet, einzubauen. Aber kühl betrachtet bringt sie lt. Performancerating (computerbase.de, Auflösung 1280x1024) rd. 17% mehr Leistung bei nur rd. 10% mehr Stromaufnahme des Gesamtsystems (im Vergleich zur 7950 GX2). Und dieser Effekt wird bei steigender Auflösung und besserer Qualität noch ausgeprägter.
zwergnase
zwergnase
Patmaniac
Grand Admiral Special
- Mitglied seit
- 21.05.2001
- Beiträge
- 14.789
- Renomée
- 266
Also im Vergleich zu einem hochgerüsteten PC schneidet die XBox 360 gut ab. Und wart erstmal auf die PS3, die wird mehr als drei Mal soviel Strom verbraten, wie die XBox 360.Ja genau... weil die Xbox 360 ja auch so ein Stromspar- und Ergonomiewunder ist...
-cb-
Grand Admiral Special
Also im Vergleich zu einem hochgerüsteten PC schneidet die XBox 360 gut ab.
Für ne Konsole aber erbärmlich und in Sachen Ergonomie ist die Xbox360 ja wohl für die Tonne. Da ist ja selbst ein PC mit Standardlüftern um Klassen leiser.
Psychodelik
Admiral Special
- Mitglied seit
- 29.02.2004
- Beiträge
- 1.224
- Renomée
- 22
- Prozessor
- Intel Core i7-3770 K
- Mainboard
- Gigabyte GA-Z77X-UD5H
- Kühlung
- top-blow Kühler inkl. 2 x 140 mm Lüfter
- Speicher
- G-skill 2 x 8 GB RAM
- Grafikprozessor
- Sapphire R9-390 NITRO with backplate, 8GB RAM
- Display
- HP ZR2440w
- SSD
- Samsung SSD 830 Series
- HDD
- Samsung HD240 UI
- Optisches Laufwerk
- LG Blue-Ray Brenner, LG DVD Brenner
- Soundkarte
- Creative Sound Blaster ZxR
- Netzteil
- Enermax 750 Watt Netzteil inkl. Kabelmanagement
- Betriebssystem
- Microsoft Windows 10 Pro x64 Edition
- Webbrowser
- Firefox, Vivaldi
Also keine Frage, die Karte hat Leistung ohne Ende. Das Problem bei der Karte ist, das die bisherigen CPU´s, bis auf den Kentsfield Quad Core, limitierend sind, kurz gesagt, die Karte wird ausgebremst.
Ein weiteres Problem ist, das es kein Game gibt, die das Potenzial der Karte ausreizt, und nach meiner Meinung her hat die Karte 2 gravierende Nachteile, einmal die Länge der Karte, könnte man glatt meinen, die ist sooooooooo lang wie eine Landebahn eines Flughafens und der Stromverbrauch. Leute, die so eine Karte kaufen und die anderen Komponente ihres restlichen Systems ebenfalls zu Gunsten der Karte anpassen, na dann viel spaß mit der Stromrechnung, da kann man doch echt langsam aber sicher einen eigenen Atomkernreaktor im Zimmer einbauen bezüglich der Stromversorgung
Aber keine Frage, die Karte hat Leistung und Potenzial ohne Ende, mit Vista und D3Dx10 und entsprechende Games kann man dann echt sein spaß haben.
Aber von der rationellen und wirtschaftlichen Denkweise bekommt die Karte ein deutliches Minus von mir, auch ebenfalls die X1900 XTX.
Ich bin der Meinung, die Grafikkartenhersteller sollten endlich von ihrem, schneller, weiter, höher Denkweise runter kommen.
Hat den keiner der Grafikkarten Hersteller irgend wie daran gedacht, was die CPU Hersteller mit ihren Multi Threading CPU´s (Dual-Core und zukünftig Quad-Core) in die Realität umgesetzt haben, sprich Mehrkerne Prozessoren, die stromsparend sind, aber dennoch Leistung ohne Ende bereit stellen!!!!! Selbstverständlich ist die Sache mit dem Multithreading auch abhängig von der Softwarebranche !!!!!!
Von meiner Seite aus ein Appell an die Firmen AMD/"ATI" und nVidia, macht euch doch endlich Gott verdammt intensivere Gedanken bezüglich Strom sparen.
Diese Highendkarten können sich sicherlich gut betuchte Leute leisten, aber kein "Normalo". Hab mal im geizhals nachgeschaut, zwar ist der 8800 GTX von ASUS für 592 Euronen zu haben, aber das Spitzenpreismodell steigt weit über 600 Euronen, falls es manch einem noch nicht aufgefallen ist, das waren früher mal fast 1300 Deutsche Mark !!!!!
Ich bin der Meinung die Entwicklung seitens der Grafikkartenhersteller gehen mit dieser Vorgehensweise (schneller, höher, weiter, strom "sch..... drauf", etc.) einfach den falschen Weg. Dies gilt nicht nur für AMD/"ATI", sondern auch für nVidia.
So das war jetzt meine Meinung.
PSYCHO
Ein weiteres Problem ist, das es kein Game gibt, die das Potenzial der Karte ausreizt, und nach meiner Meinung her hat die Karte 2 gravierende Nachteile, einmal die Länge der Karte, könnte man glatt meinen, die ist sooooooooo lang wie eine Landebahn eines Flughafens und der Stromverbrauch. Leute, die so eine Karte kaufen und die anderen Komponente ihres restlichen Systems ebenfalls zu Gunsten der Karte anpassen, na dann viel spaß mit der Stromrechnung, da kann man doch echt langsam aber sicher einen eigenen Atomkernreaktor im Zimmer einbauen bezüglich der Stromversorgung
Aber keine Frage, die Karte hat Leistung und Potenzial ohne Ende, mit Vista und D3Dx10 und entsprechende Games kann man dann echt sein spaß haben.
Aber von der rationellen und wirtschaftlichen Denkweise bekommt die Karte ein deutliches Minus von mir, auch ebenfalls die X1900 XTX.
Ich bin der Meinung, die Grafikkartenhersteller sollten endlich von ihrem, schneller, weiter, höher Denkweise runter kommen.
Hat den keiner der Grafikkarten Hersteller irgend wie daran gedacht, was die CPU Hersteller mit ihren Multi Threading CPU´s (Dual-Core und zukünftig Quad-Core) in die Realität umgesetzt haben, sprich Mehrkerne Prozessoren, die stromsparend sind, aber dennoch Leistung ohne Ende bereit stellen!!!!! Selbstverständlich ist die Sache mit dem Multithreading auch abhängig von der Softwarebranche !!!!!!
Von meiner Seite aus ein Appell an die Firmen AMD/"ATI" und nVidia, macht euch doch endlich Gott verdammt intensivere Gedanken bezüglich Strom sparen.
Diese Highendkarten können sich sicherlich gut betuchte Leute leisten, aber kein "Normalo". Hab mal im geizhals nachgeschaut, zwar ist der 8800 GTX von ASUS für 592 Euronen zu haben, aber das Spitzenpreismodell steigt weit über 600 Euronen, falls es manch einem noch nicht aufgefallen ist, das waren früher mal fast 1300 Deutsche Mark !!!!!
Ich bin der Meinung die Entwicklung seitens der Grafikkartenhersteller gehen mit dieser Vorgehensweise (schneller, höher, weiter, strom "sch..... drauf", etc.) einfach den falschen Weg. Dies gilt nicht nur für AMD/"ATI", sondern auch für nVidia.
So das war jetzt meine Meinung.
PSYCHO
G
Gast17122020
Guest
Irgendwie hat man früher an den Spielekonsolen 1DM bezahlt und konnte wenn man gut war 20min spielen. Dann kamen die PC´s und ich dachte mir das ist doch deutlisch billiger, bis jetzt. JEtzt bezahlt man 1DM an Strom.
Was ich nciht ganz verstehe ist wieso intel und AMD das hinkriegen?
Wollen dei Graka Hersteller nicht?
Das muss doch einen Grund haben. Klärt mich mal auf.
Morpheus
Was ich nciht ganz verstehe ist wieso intel und AMD das hinkriegen?
Wollen dei Graka Hersteller nicht?
Das muss doch einen Grund haben. Klärt mich mal auf.
Morpheus
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Was ich nciht ganz verstehe ist wieso intel und AMD das hinkriegen?
Wollen dei Graka Hersteller nicht?
Das muss doch einen Grund haben. Klärt mich mal auf.
Morpheus
Die Spitzen-CPUs von AMD & Intel verbraten auch ~120W (bei AMD in kürze 2x dieser Wert), hinzu kommt der Speicher und vor allem der Chipsatz. Schwupps, schon sind wir im gleichen Verbrauchsbereich.
Die sparsamsten CPUs von Intel und AMD haben im Desktop-Bereich einen TDP von ~35W, die sparsamsten brauchbaren Grakas verbrauchen incl. RAM sogar nur 28W (7600GS lt. Geizhals.at).
Also würd' ich sagen, daß sich CPU- und GPU-Verbräuche doch ungefähr im selben Rahmen bewegen. Am Gipfel der Leistungsskala geht die Tendenz weiter nach oben, bei den sparsamen wird es vermutlich weiter abwärts gehen, da dort von den Bemühungen im Notebook-Bereich profitiert werden kann. Integrierte Chipsätze setzen da natürlich noch einen oben drauf, mit Gaming wird's dann allerdings langsam eng.
Edit:
Ich würde es viel mehr begrüßen (habe mich da allerdings auch noch nicht groß informiert), wenn die besseren Karten im Teillastbereich, also bei normalen Desktop-Anwendungen, effektiv Strom sparen würden. So könnte man ohne schlechtes Gewissen (und Lärmstreß) seinen Rechner mit einer gehobenen Mittelklasse-Karte (€200-Bereich und bitte gutem, großem, im Idle sehr langsam laufendem Lüfter) ausstatten und bei pielen trotzdem genug Bums haben. Dazu braucht's natürlich noch ein im Teillastbereich ebenfalls sehr effizientes Netzteil.
Hierzu wäre es schön, wenn die Hersteller sich entweder selbst verpflichten könnten (andernfalls: wofür gibt's Gesetze?), detaillierte Angaben zu Stromverbräuchen in den einzelnen Lastzuständen zu machen, das gilt für Mainboards, CPUs, Netzteile (Effizienz), Grafikkarten, und evtl. RAM.
Schön wär's.
Zuletzt bearbeitet:
CK][
Vice Admiral Special
- Mitglied seit
- 17.01.2005
- Beiträge
- 681
- Renomée
- 6
- Standort
- Niedersachsen
- Prozessor
- AMD Athlon64 3500+ So.939 Venice
- Mainboard
- ASUS A8V Deluxe Rev. 2.0
- Kühlung
- AVC Boxed Kühler für Athlon64
- Speicher
- 2x 512MB Corsair ValueSelect DDR 400mhz cl 2.5
- Grafikprozessor
- Xpertvision Radeon X850XT AGP
- Display
- 17 Zoll Samtron 75E @ 1280x1024
- HDD
- Maxtor DiamondMax8 40GB(C)
- Optisches Laufwerk
- LG GSA-H42L (DVD-Brenner)
- Soundkarte
- Onboard Realtek AL850
- Gehäuse
- OEM-Teil
- Netzteil
- Enermax Freiheit 400W
- Betriebssystem
- Windows XP Professional ; Ubuntu 8.04
- Webbrowser
- Mozilla Firefox
Beiss mich ein Pferd, das Ding ist ja RIESIG.
Ich muss sagen das man nVidia in Sachen Bildqualität ein großes Lob aussprechen muss.
Die Anisotropische Filterung ist ja spitzenmäßig.
Und vom Stromverbrauch her: Wer sich für 600 Euro eine Grafikkarte holt, wird sich mit Sicherheit nicht bei einer hohen Stromrechnung anpinkeln.
Natürlich sind die Hersteller darauf aus, Grafikkarten zu bauen die alles bis jetzt dagewesene in den Schatten stellen aber ihr vergesst dabei das beide Hersteller in jeder Serie auch sehr stromeffiziente Karten rausbringen, von daher, für jeden etwas.
mfg
Chris
Ich muss sagen das man nVidia in Sachen Bildqualität ein großes Lob aussprechen muss.
Die Anisotropische Filterung ist ja spitzenmäßig.
Und vom Stromverbrauch her: Wer sich für 600 Euro eine Grafikkarte holt, wird sich mit Sicherheit nicht bei einer hohen Stromrechnung anpinkeln.
Natürlich sind die Hersteller darauf aus, Grafikkarten zu bauen die alles bis jetzt dagewesene in den Schatten stellen aber ihr vergesst dabei das beide Hersteller in jeder Serie auch sehr stromeffiziente Karten rausbringen, von daher, für jeden etwas.
mfg
Chris
Zuletzt bearbeitet:
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Vor allem in Oblivion: Beachtliche Leistung.
Aber bei dem Stromverbrauch... Wenns weiter so geht werd ich wohl doch auf konsolen umsteigen. nicht wegen der leistung oder so, sondern weil ich mich schämen muss einen PC zu haben der unter Last soviel verbraucht wie eine Herdplatte...
Die sollten sich mal anschauen was die CPU Hersteller leisten.
Du willst doch nicht ernsthaft diese GPU mit *irgendeiner* desktop CPU vergleichen? Oder gar einer konsole, sei sie nun auf dem markt oder nicht. Schau dir mal die knapp 700M transistoren an und dann vergleich das mal mit einer beliebigen desktop CPU ohne cache. Das eine ist ein hochoptimierter numbercruncher, das andere ist ein chip der einfach nur alles können muss. Da liegen welten zwischen diesen beiden gattungen. Vermutlich ist es eben doch nicht so einfach stromsparmechanismen in einer solche GPU einzubauen, denn die dreht in der regel nicht all zu oft däumchen wenn du ein spiel spielst.
Ich bin auch der meinung, dass sowohl ATI als auch Nvidia sicher noch nicht das bestmögliche an stromsparmechanismen implementieren, aber die leistungsaufnahme wird auch in zukunft nicht so viel weiter gedrückt werden können. Bestenfalls stagnation bei noch mehr rechenleistung.
Ich bin nicht bereit, so einen Stromschlucker zusammenzubauen.
In einem Intelinterview hatte ich neulich gelesen, dass die Rechner in Zukunft viel stromsparender sein werden als heute. Tatsächlich aber passier das Gegenteil, jedenfalls bis heute. Ein Witz!
Na ja, für die aktuellen Spiele reicht auch etwas stromsparenderes. Wer sowas unbedingt braucht, soll es sich antun. Nötig ist das bei den aktuellen Spielen jedenfalls nicht.
Und wenn es Spiele gibt, die diese Power auch umsetzten (Nähe zu Fotorealismus), dann gibt es auch wieder neuere Grafikkarten, die genausoviel leistung haben und wesentlich weniger Strom verbraten.
Man kann jede (single) karte der letzten generation mit genug eyecandy und auflösungen wie 2560x1600 (native bei 30"+ screens) absolut in die knie zwingen - diese karte jedoch offenbar nicht. Also hat sie schon ihre daseinsberechtigung. Wenn du der meinung bist, du brauchst das nicht - bleib bei einer kleineren karte. Wenn du der meinung bist, du kannst dir die 20 mücken mehr jährlich auf der stromrechnung nicht leisten - bleib bei einer sparsameren karte. Vermutlich wird das dann auch noch sehr lange so bleiben, die die high-end karten werden immer viel strom verbraten, weil sie auch deutlich mehr leistung bringen als massenware.
Also ich werde auf jeden Fall warten, bis der Refresh-Chip in 65 nm kommt.
Denke mal dass nVidia dadurch auch dem Stromhunger etwas entgegenwirken kann.
Ansonsten eine sehr beeindruckende Grafikkarte.
MfG
Shadow79
Wahrscheinlicher ist ein 80nm refresh im frühjahr. 65nm wirds wohl noch lange nicht geben.
deformator
Commodore Special
- Mitglied seit
- 11.01.2002
- Beiträge
- 363
- Renomée
- 0
Was kostet es ungefähr, wenn ein Rechner mit ca. 500 Watt Stromverbrauch ca. 2 Std. am Tag läuft? Da kommt wirklich was zusammen, auch Strom ist teurer geworden, das kostet mittlerweile richtig viel Geld. Wer das nicht zahlen muss, den interessiert das nat. nicht so doll
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Das wäre eine kWh, also je nach Anbieter 15ct/kWh oder so (ich kenn selbst nur unsre RZ-Strompreise, die sind natürlich incl. Klimatisierung gerechnet, also höher) pro Tag. Bei 365 Tagen wären das knapp 55 Euro.Was kostet es ungefähr, wenn ein Rechner mit ca. 500 Watt Stromverbrauch ca. 2 Std. am Tag läuft? Da kommt wirklich was zusammen, auch Strom ist teurer geworden, das kostet mittlerweile richtig viel Geld. Wer das nicht zahlen muss, den interessiert das nat. nicht so doll
Weia, bei mir laufen z.Zt. 2 Rechner rund um die Uhr, der eine braucht etwas mehr als 40W idle, der andere vermutlich knapp das doppelte. Das wird teuer
CK][
Vice Admiral Special
- Mitglied seit
- 17.01.2005
- Beiträge
- 681
- Renomée
- 6
- Standort
- Niedersachsen
- Prozessor
- AMD Athlon64 3500+ So.939 Venice
- Mainboard
- ASUS A8V Deluxe Rev. 2.0
- Kühlung
- AVC Boxed Kühler für Athlon64
- Speicher
- 2x 512MB Corsair ValueSelect DDR 400mhz cl 2.5
- Grafikprozessor
- Xpertvision Radeon X850XT AGP
- Display
- 17 Zoll Samtron 75E @ 1280x1024
- HDD
- Maxtor DiamondMax8 40GB(C)
- Optisches Laufwerk
- LG GSA-H42L (DVD-Brenner)
- Soundkarte
- Onboard Realtek AL850
- Gehäuse
- OEM-Teil
- Netzteil
- Enermax Freiheit 400W
- Betriebssystem
- Windows XP Professional ; Ubuntu 8.04
- Webbrowser
- Mozilla Firefox
Also es wird echt an allem gemeckert.
Bei Kommentaren wie "Der Stromverbrauch ist zu hoch, die CPU Hersteller kriegen das viel besser hin." rünzel ich mir doch die Stirn.
Ich möchte mal sehen das ihr es besser macht.
Immer wird mit absoluter Leichtigkeit gesagt, dass der Hersteller dies und das auf jeden Fall für den Preis besser machen muss.
So ein gewaltiges Know-How was hinter dieser Karte steckt und grobgeschätzt 4 Jahre Entwicklungszeit ist für 500? Euro schon fast ein Schnäppchen wenn ihr mich fragt, es kommt nur darauf an wie man die Karte benutzen will.
Und große Hardware die viel Leistung bringt hat auch schon immer Unterhalt gekostet.
Das ist mit einer Grafikkarte im PC genauso wie mit einem Combi-Dämpfer in einer Großküche.
Die GTX-Version ist nun mal eben an Enthusiasten gerichtet und ich finde, dass die Ingenieure von nvidia wie schon mit der 7800GTX vor nicht allzu langer Zeit wieder einen guten Schlag nach Vorne gemacht haben.
Außerdem muss ich anhängen, dass die 8800 in Sachen Übertakbarkeit auch einiges zu bieten haben soll.
Legit Reviews hat den Core-clock der GTS-Version von 500 auf 630 Mhz und den RAM-clock von 620 auf 980 Mhz angehoben - Und das stabil!
mfg
Chris
Bei Kommentaren wie "Der Stromverbrauch ist zu hoch, die CPU Hersteller kriegen das viel besser hin." rünzel ich mir doch die Stirn.
Ich möchte mal sehen das ihr es besser macht.
Immer wird mit absoluter Leichtigkeit gesagt, dass der Hersteller dies und das auf jeden Fall für den Preis besser machen muss.
So ein gewaltiges Know-How was hinter dieser Karte steckt und grobgeschätzt 4 Jahre Entwicklungszeit ist für 500? Euro schon fast ein Schnäppchen wenn ihr mich fragt, es kommt nur darauf an wie man die Karte benutzen will.
Und große Hardware die viel Leistung bringt hat auch schon immer Unterhalt gekostet.
Das ist mit einer Grafikkarte im PC genauso wie mit einem Combi-Dämpfer in einer Großküche.
Die GTX-Version ist nun mal eben an Enthusiasten gerichtet und ich finde, dass die Ingenieure von nvidia wie schon mit der 7800GTX vor nicht allzu langer Zeit wieder einen guten Schlag nach Vorne gemacht haben.
Außerdem muss ich anhängen, dass die 8800 in Sachen Übertakbarkeit auch einiges zu bieten haben soll.
Legit Reviews hat den Core-clock der GTS-Version von 500 auf 630 Mhz und den RAM-clock von 620 auf 980 Mhz angehoben - Und das stabil!
mfg
Chris
Zuletzt bearbeitet:
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
LOL, ich hab erst überlegt, wozu man in einer Großküche wohl Stoßdämpfer brauchtCK][;2952467 schrieb:Das ist mit einer Grafikkarte im PC genauso wie mit einem Combi-Dämpfer in einer Großküche.
Ansonsten Full-ACK. Zudem trudeln denn ja demnächst auch weitere abgespeckte und sparsamere Versionen ein, wie bisher auch. Bin gespannt, wann nVidia schließlich ein DX10-IGP draus macht 8)
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 47K
- Antworten
- 1K
- Aufrufe
- 72K
- Antworten
- 0
- Aufrufe
- 956
- Antworten
- 2K
- Aufrufe
- 114K
- Antworten
- 0
- Aufrufe
- 2K