App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA GeForce GTX 280 Reviews im Überblick
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Zwei Tage ist die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1213653449">offizielle Vorstellung des neuen Flaggschiffs aus dem Hause NVIDIA</a> mittlerweile her und es hat sich eine große Anzahl an Artikel angesammelt, die wir an dieser Stelle zusammengetragen haben:
<ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/" target="b">Nvidia GeForce GTX 280 (SLI)</a> [ComputerBase] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardwareluxx.de/pages/69928" target="b">NVIDIA GeForce GTX 280</a> [Hardwareluxx] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=186" target="b">GeForce GTX 280</a> [OCaholic] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardware-mag.de/artikel/grafikkarten/gt200_nvidia_geforce_gtx_280_260_im_detail/" target="b">GT200: Nvidia GeForce GTX 200 im Detail</a> [Hardware-Mag] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://ht4u.net/reviews/2008/msi_n280gtx/" target="b">MSI N280GTX-T2D1G-OC</a> [Hard Tecs 4U] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/" target="b">Übersicht aller Artikel zu Nvidia Geforce GTX 280</a> [PC Games Hardware] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> </ul><ul><li><a href="http://www.guru3d.com/article/geforce-gtx-280-sli-triple-review-test/" target="b">GeForce GTX 280 Dual and Triple SLI</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/articles/1466/nvidia_geforce_280_gtx_in_tri_sli_tested/index.html" target="b">NVIDIA GeForce 280 GTX in Tri SLI Tested</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://legitreviews.com/article/726/1/" target="b">NVIDIA GeForce GTX 280 Graphics Cards by EVGA and PNY</a> [Legit Reviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hexus.net/content/item.php?item=13736" target="b">NVIDIA GeForce GTX 280: does it rock our world?</a> [HeXus] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml" target="b">GeForce GTX 280</a> [NVNews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1" target="b">NVIDIA GeForce GTX 280</a> [Benchmark Reviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://techreport.com/articles.x/14934" target="b">Nvidia\'s GeForce GTX 280</a> [The Tech Report] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/Point_Of_View/GeForce_GTX_280" target="b">Point of View GeForce GTX 280 Assassins Creed Edition</a> [techPowerUp] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.madboxpc.com/review-nvidia-geforce-gtx-280/" target="b">NVIDIA GeForce GTX 280</a> [MadBoxPC] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.driverheaven.net/reviews.php?reviewid=579&pageid=1" target="b">NVIDIA GTX 260 & Zotac GTX 280 AMP!</a> [DriverHeaven] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition" target="b">Zotac GeForce GTX 280 Amp! Edition</a> [techPowerUp] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://translate.google.com/translate?u=http%3A%2F%2Fwww.chw.net%2FArticulos%2FNVIDIA%2FArquitectura-GT200-200806162031.html&hl=es&ie=UTF8&sl=es&tl=en" target="b">NVIDIA GeForce GTX 280 (Archtecture)</a> [ChileHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://translate.google.com/translate?u=http%3A%2F%2Fwww.chw.net%2FRevisiones%2FTarjetas-de-Video%2FNVIDIA-GeForce-GTX-280-200806152032.html&hl=es&ie=UTF8&sl=es&tl=en" target="b">NVIDIA GeForce GTX 280 (Performance)</a> [ChileHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hothardware.com/articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/" target="b">NVIDIA GeForce GTX 280 and GTX 260 Unleashed</a> [hotHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/articles/1465/geforce_gtx_280_with_qx9650_at_4ghz/index.html" target="b">GeForce GTX 280 with QX9650 at 4GHz</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.guru3d.com/article/geforce-gtx-280-review-test/" target="b">NVIDIA GeForce GTX 280</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.insidehw.com/Reviews/Graphics-cards/nVIDIA-GeForce-GTX-280.html" target="b">nVIDIA GeForce GTX 280</a> [InsideHW] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html" target="b">ZOTAC GeForce GTX 280 AMP! Edition</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> </ul>
<ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/" target="b">Nvidia GeForce GTX 280 (SLI)</a> [ComputerBase] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardwareluxx.de/pages/69928" target="b">NVIDIA GeForce GTX 280</a> [Hardwareluxx] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=186" target="b">GeForce GTX 280</a> [OCaholic] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardware-mag.de/artikel/grafikkarten/gt200_nvidia_geforce_gtx_280_260_im_detail/" target="b">GT200: Nvidia GeForce GTX 200 im Detail</a> [Hardware-Mag] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://ht4u.net/reviews/2008/msi_n280gtx/" target="b">MSI N280GTX-T2D1G-OC</a> [Hard Tecs 4U] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/" target="b">Übersicht aller Artikel zu Nvidia Geforce GTX 280</a> [PC Games Hardware] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> </ul><ul><li><a href="http://www.guru3d.com/article/geforce-gtx-280-sli-triple-review-test/" target="b">GeForce GTX 280 Dual and Triple SLI</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/articles/1466/nvidia_geforce_280_gtx_in_tri_sli_tested/index.html" target="b">NVIDIA GeForce 280 GTX in Tri SLI Tested</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://legitreviews.com/article/726/1/" target="b">NVIDIA GeForce GTX 280 Graphics Cards by EVGA and PNY</a> [Legit Reviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hexus.net/content/item.php?item=13736" target="b">NVIDIA GeForce GTX 280: does it rock our world?</a> [HeXus] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml" target="b">GeForce GTX 280</a> [NVNews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1" target="b">NVIDIA GeForce GTX 280</a> [Benchmark Reviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://techreport.com/articles.x/14934" target="b">Nvidia\'s GeForce GTX 280</a> [The Tech Report] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/Point_Of_View/GeForce_GTX_280" target="b">Point of View GeForce GTX 280 Assassins Creed Edition</a> [techPowerUp] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.madboxpc.com/review-nvidia-geforce-gtx-280/" target="b">NVIDIA GeForce GTX 280</a> [MadBoxPC] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.driverheaven.net/reviews.php?reviewid=579&pageid=1" target="b">NVIDIA GTX 260 & Zotac GTX 280 AMP!</a> [DriverHeaven] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition" target="b">Zotac GeForce GTX 280 Amp! Edition</a> [techPowerUp] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://translate.google.com/translate?u=http%3A%2F%2Fwww.chw.net%2FArticulos%2FNVIDIA%2FArquitectura-GT200-200806162031.html&hl=es&ie=UTF8&sl=es&tl=en" target="b">NVIDIA GeForce GTX 280 (Archtecture)</a> [ChileHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://translate.google.com/translate?u=http%3A%2F%2Fwww.chw.net%2FRevisiones%2FTarjetas-de-Video%2FNVIDIA-GeForce-GTX-280-200806152032.html&hl=es&ie=UTF8&sl=es&tl=en" target="b">NVIDIA GeForce GTX 280 (Performance)</a> [ChileHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hothardware.com/articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/" target="b">NVIDIA GeForce GTX 280 and GTX 260 Unleashed</a> [hotHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/articles/1465/geforce_gtx_280_with_qx9650_at_4ghz/index.html" target="b">GeForce GTX 280 with QX9650 at 4GHz</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.guru3d.com/article/geforce-gtx-280-review-test/" target="b">NVIDIA GeForce GTX 280</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.insidehw.com/Reviews/Graphics-cards/nVIDIA-GeForce-GTX-280.html" target="b">nVIDIA GeForce GTX 280</a> [InsideHW] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html" target="b">ZOTAC GeForce GTX 280 AMP! Edition</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> </ul>
MastorDisastor
Grand Admiral Special
- Mitglied seit
- 18.06.2002
- Beiträge
- 4.139
- Renomée
- 37
- Standort
- Bayern
- Mein Laptop
- MSI Megabook G600
- Prozessor
- intel Core i5-750 @ 4,1GHz
- Mainboard
- ASUS P7P55D Deluxe
- Kühlung
- Scythe Mugen2
- Speicher
- G.Skill 4 GB DDR3 1600 8-8-8-24
- Grafikprozessor
- Club3D Radeon HD5870
- Display
- LG 23" LCD
- HDD
- 2x WD Caviar Black 640BG 7.200 U/min @ RAID0
- Optisches Laufwerk
- LG DVD+/-R Brenner (DL)
- Soundkarte
- Creative XFi XtremeMusic
- Gehäuse
- Xigmatek Asgard
- Netzteil
- CoolerMaster SilentPro 500W
- Betriebssystem
- Windows 7
- Webbrowser
- Firefox 3.5
- Verschiedenes
- Teufel Concept E Magnum
- Schau Dir das System auf sysprofile.de an
ich find ne geile karte, aber der preis is alles andere als heiß
Ich hoffe auf die HD4870
Ich hoffe auf die HD4870
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
ist da ein review bei, wo auf mikroruckler genauer eingegangen wird? also mit messungen oder so?
aber stimmt schon...außer schnell sein ist an der karte nix dran.
thx
mfg
aber stimmt schon...außer schnell sein ist an der karte nix dran.
thx
mfg
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
äh, gibts was anderes was einen Graka können muß ?? 8)aber stimmt schon...außer schnell sein ist an der karte nix dran.
lg
__tom
G
Gast29012019_2
Guest
ist da ein review bei, wo auf mikroruckler genauer eingegangen wird? also mit messungen oder so?
aber stimmt schon...außer schnell sein ist an der karte nix dran.
thx
mfg
Wurde schon dementiert, da die Probleme nur bei CF/SLI/Dual-GPU Karten auftritt, bei Single-GPU-Karten jedoch nicht, ob ATI dagegen es in den Griff bekommen hat, dürfte man sehr bald wissen.
PlanB-Satanclaus
Commodore Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 385
- Renomée
- 1
@ TomTurbo
also mir fallen da spontan so sachen ein wie
- Leise sein
- Wenig Kosten
- Nen gutes Preis Leistungsverhältnis haben
- Nicht mehr Strom als mein Kühlschrank brauchen
ein
also mir fallen da spontan so sachen ein wie
- Leise sein
- Wenig Kosten
- Nen gutes Preis Leistungsverhältnis haben
- Nicht mehr Strom als mein Kühlschrank brauchen
ein
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
äh, gibts was anderes was einen Graka können muß ?? 8)
lg
__tom
hast du keine anderen ansprüche an eine graka?
verbrauch, lautstärke etc.?
naja, hat eben jeder seine präferenzen
mfg
.
EDIT :
.
Wurde schon dementiert, da die Probleme nur bei CF/SLI/Dual-GPU Karten auftritt, bei Single-GPU-Karten jedoch nicht, ob ATI dagegen es in den Griff bekommen hat, dürfte man sehr bald wissen.
tjo, nur das die x2 erst um september rum kommt.
beim normalen cf ist das bestimmt auch nicht behoben...
aber mir persönlich eh wurscht...
mfg
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
1.)
a) Wenig kosten tut sie nicht, aber so schlimm ist es auch wieder nicht. In $ ist sie zwar schweineteuer, aber in Euro ganz brauchbar. Bei Geizahls ist sie schon bei 460 Euro gelistet d.h. in 2 Monaten, wenn sie wirklich verfügbar ist, dann wird sich der Preis schon gegen 400 Euro bewegen denke ich und das halte ich für das Top Produkt durchaus für angemessen. Die 8800 GTX hat über 500 Euro gekostet am Anfang. Blöd ist nur, dass die 260 GTX deutlich langsamer sein wird, aber das ist ja bei der 8800 GTS auch schon der Fall gewesen bzw. ist bei ATI genauso.
b) Preis Leistungsverhältnis ist immer Ansichtssache. Die Leistung ist ohne Frage top und die Karte kostet keine 1K Euro wie manche CPU, also ist das Preis-Leistungsverhältnis auch in Ordnung, aber das ist ziemlich individuell. Es zählt nämlich nicht Performance/Euro sondern Einsatzdauer/Euro und wenn man normalerweise die Grafikkarte alle 2 Jahre wechselt und das erste Jahr sich an den schönen Effekten erfreut und im zweiten Jahr läuft sie so halbwegs mit, so hat man nun 2 Jahre, wo die Karte wirklich gut läuft, also ist der doppelte Preis schon gerechtfertigt. Wenn man die Karte sowieso 5 Jahre im Einsatz hat, weil man sich nicht mehr leisten kann/will bzw. man nicht so anspruchsvoll ist, dann zahlt es sich natürlich nicht aus.
c) OK unter Volllast zieht die Karte viel, aber die meiste Zeit hat man ja nicht Volllast, sondern nur 2D Modus z.B. wenn man über die Nacht mit uTorrent seine Urlaubsvideos saugt, im Internet surft, irgendetwas anderes am Desktop tut, Filme schaut, Musik hört, programmiert etc., dann zieht die Karte nur 25Watt, was deutlich besser ist als früher.
d) Durch die 25 Watt lässt sich sicher auch der Lüfter herunterdrehen. Einfach mit dem ATI Tool die Lüftersteuerung neu programmieren. Mit einer guten Gehäusebelüftung sollte noch deutlich mehr drin sein. Beim Spielen ist es eh egal, weil man da eh meistens einen Ton hat und der Lüfter eh nur stört, wenn man konzentiert etwas liest oder man daneben schlafen möchte.
2.) Was die Mikroruckler angeht, so ist es genau dasselbe Problem wie früher:
Mikroruckler treten nur bei mehreren Grafikchips auf. Hier wird sowohl von ATI, als auch von Nvidia auf eine Technologie namens AFR (Alternate Frame Rendering) gesetzt. Hier wird ein Frame auf einem Grafikchip, das andere Frame auf dem anderen Chip gerechnet. Dass sich 2 Chips ein Frame teilen, funktioniert nicht, weil sie ja keinen gemeinsamen Speicher haben und man mit den ganzen Effekten nicht einfach das Bild wie zu Voodoo Zeiten einfach in 2 Bereiche teilt.
Das Problem des Ganzen ist es, dass hier die Frames nicht mehr gleichmäßig verteilt werden. Normalerweise läuft ein Frame nach dem anderen ab. Wenn ein Chip 50ms braucht, um ein Frame zu berechnen, dann kommt alle 50ms ein Bild heraus. Mit 2 Grafikchips wird ein Frame berechnet und da es ja parallel läuft, bekommt der andere Chip kurze Zeit nachher z.B. nach 10ms ein weiteres Frame (wahrscheinlich die Zeit, die die CPU an dem Frame rechnet). Das hat zur Folge, dass alle 50ms nicht 1 Frame, sondern 2 kommen und man hat so nicht 20fps, sondern 40fps. In den Benchmarks ist die Karte also (zumindest theoretisch) doppelt so schnell. In Wirklichkeit sind die Abstände aber nicht jeweils 25ms, sondern 10-40-10-40-10-40 usw. Optisch sichtbar sind dabei die Abstände von 40ms, also 25fps. Die Karte ist also nicht 100% schneller wie in den Benchmarks, sondern nur 25%. Bei 4 Kernen ist das Problem noch tragischer. Da hat man z.B. Abstände von 5-10-5-30, also gemessene 80fps, aber gefühlte 30-35fps.
Dieses Problem ist so grundsätzlicher Natur, dass es nicht einfach mit einem Treiber gelöst werden kann. Dessen sind sich Nvidia, als auch ATI bewusst. Es wird also nicht daran gearbeitet, dass man das Problem löst, sondern dass man den Nachweis erschwert. Momentan kann man das ziemlich leicht mit Fraps messen, indem man die Zeiten mitloggt. Nvidia versucht nun das zweite Frame bei der Ausgabe zu verzögern. Man bekommt dann schön seine 25-25-25-25er Aufteilung und die Mikroruckler sind nicht mehr messbar. Sichtbar sind wie jedoch noch genauso wie vorher, da es sich immer noch um 2 fast gleiche Bilder handelt und ob man 2 gleiche Bilder jetzt alle 25ms herzeigt, alle 50ms zwei ganz schnell hintereinander oder nur eines alle 50ms ist schon egal. Wichtig ist nur der optische Unterschied zwischen zwei Frames. Hier wird der einzige Nachweis möglich sein, indem man alle Frames mitspeichert und dann die Bewegung von Objekten (z.B. schnell fallenden Trümmern) analysiert und so zurückrechnet, welche reale Zeit das Bild hat.
@ TomTurbo
also mir fallen da spontan so sachen ein wie
- Leise sein
- Wenig Kosten
- Nen gutes Preis Leistungsverhältnis haben
- Nicht mehr Strom als mein Kühlschrank brauchen
ein
a) Wenig kosten tut sie nicht, aber so schlimm ist es auch wieder nicht. In $ ist sie zwar schweineteuer, aber in Euro ganz brauchbar. Bei Geizahls ist sie schon bei 460 Euro gelistet d.h. in 2 Monaten, wenn sie wirklich verfügbar ist, dann wird sich der Preis schon gegen 400 Euro bewegen denke ich und das halte ich für das Top Produkt durchaus für angemessen. Die 8800 GTX hat über 500 Euro gekostet am Anfang. Blöd ist nur, dass die 260 GTX deutlich langsamer sein wird, aber das ist ja bei der 8800 GTS auch schon der Fall gewesen bzw. ist bei ATI genauso.
b) Preis Leistungsverhältnis ist immer Ansichtssache. Die Leistung ist ohne Frage top und die Karte kostet keine 1K Euro wie manche CPU, also ist das Preis-Leistungsverhältnis auch in Ordnung, aber das ist ziemlich individuell. Es zählt nämlich nicht Performance/Euro sondern Einsatzdauer/Euro und wenn man normalerweise die Grafikkarte alle 2 Jahre wechselt und das erste Jahr sich an den schönen Effekten erfreut und im zweiten Jahr läuft sie so halbwegs mit, so hat man nun 2 Jahre, wo die Karte wirklich gut läuft, also ist der doppelte Preis schon gerechtfertigt. Wenn man die Karte sowieso 5 Jahre im Einsatz hat, weil man sich nicht mehr leisten kann/will bzw. man nicht so anspruchsvoll ist, dann zahlt es sich natürlich nicht aus.
c) OK unter Volllast zieht die Karte viel, aber die meiste Zeit hat man ja nicht Volllast, sondern nur 2D Modus z.B. wenn man über die Nacht mit uTorrent seine Urlaubsvideos saugt, im Internet surft, irgendetwas anderes am Desktop tut, Filme schaut, Musik hört, programmiert etc., dann zieht die Karte nur 25Watt, was deutlich besser ist als früher.
d) Durch die 25 Watt lässt sich sicher auch der Lüfter herunterdrehen. Einfach mit dem ATI Tool die Lüftersteuerung neu programmieren. Mit einer guten Gehäusebelüftung sollte noch deutlich mehr drin sein. Beim Spielen ist es eh egal, weil man da eh meistens einen Ton hat und der Lüfter eh nur stört, wenn man konzentiert etwas liest oder man daneben schlafen möchte.
2.) Was die Mikroruckler angeht, so ist es genau dasselbe Problem wie früher:
Mikroruckler treten nur bei mehreren Grafikchips auf. Hier wird sowohl von ATI, als auch von Nvidia auf eine Technologie namens AFR (Alternate Frame Rendering) gesetzt. Hier wird ein Frame auf einem Grafikchip, das andere Frame auf dem anderen Chip gerechnet. Dass sich 2 Chips ein Frame teilen, funktioniert nicht, weil sie ja keinen gemeinsamen Speicher haben und man mit den ganzen Effekten nicht einfach das Bild wie zu Voodoo Zeiten einfach in 2 Bereiche teilt.
Das Problem des Ganzen ist es, dass hier die Frames nicht mehr gleichmäßig verteilt werden. Normalerweise läuft ein Frame nach dem anderen ab. Wenn ein Chip 50ms braucht, um ein Frame zu berechnen, dann kommt alle 50ms ein Bild heraus. Mit 2 Grafikchips wird ein Frame berechnet und da es ja parallel läuft, bekommt der andere Chip kurze Zeit nachher z.B. nach 10ms ein weiteres Frame (wahrscheinlich die Zeit, die die CPU an dem Frame rechnet). Das hat zur Folge, dass alle 50ms nicht 1 Frame, sondern 2 kommen und man hat so nicht 20fps, sondern 40fps. In den Benchmarks ist die Karte also (zumindest theoretisch) doppelt so schnell. In Wirklichkeit sind die Abstände aber nicht jeweils 25ms, sondern 10-40-10-40-10-40 usw. Optisch sichtbar sind dabei die Abstände von 40ms, also 25fps. Die Karte ist also nicht 100% schneller wie in den Benchmarks, sondern nur 25%. Bei 4 Kernen ist das Problem noch tragischer. Da hat man z.B. Abstände von 5-10-5-30, also gemessene 80fps, aber gefühlte 30-35fps.
Dieses Problem ist so grundsätzlicher Natur, dass es nicht einfach mit einem Treiber gelöst werden kann. Dessen sind sich Nvidia, als auch ATI bewusst. Es wird also nicht daran gearbeitet, dass man das Problem löst, sondern dass man den Nachweis erschwert. Momentan kann man das ziemlich leicht mit Fraps messen, indem man die Zeiten mitloggt. Nvidia versucht nun das zweite Frame bei der Ausgabe zu verzögern. Man bekommt dann schön seine 25-25-25-25er Aufteilung und die Mikroruckler sind nicht mehr messbar. Sichtbar sind wie jedoch noch genauso wie vorher, da es sich immer noch um 2 fast gleiche Bilder handelt und ob man 2 gleiche Bilder jetzt alle 25ms herzeigt, alle 50ms zwei ganz schnell hintereinander oder nur eines alle 50ms ist schon egal. Wichtig ist nur der optische Unterschied zwischen zwei Frames. Hier wird der einzige Nachweis möglich sein, indem man alle Frames mitspeichert und dann die Bewegung von Objekten (z.B. schnell fallenden Trümmern) analysiert und so zurückrechnet, welche reale Zeit das Bild hat.
Zuletzt bearbeitet:
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Trotzdem ist die primäre Aufgabe einer Grafikkarte, dass sie das gewünschte Spiel mit den notwendigen Frames/sek ausstattet.
Alle anderen Eigenschaften sind Zubrot und helfen nichts wenn die eine ausschlaggebende fehlt
Wobei das eine ja die anderen nicht ausschließen muss
lg
__tom
Alle anderen Eigenschaften sind Zubrot und helfen nichts wenn die eine ausschlaggebende fehlt
Wobei das eine ja die anderen nicht ausschließen muss
lg
__tom
unbekannt verzogen
Commodore Special
- Mitglied seit
- 19.10.2007
- Beiträge
- 377
- Renomée
- 10
25W ist gelogen. Selbst real.
Kostet ca. 500 Euro. Sonst n. verfügb.
P/L unterirdisch. Im Vergleich.
Zu laut. Deutlichster Rückschritt.
Kostet ca. 500 Euro. Sonst n. verfügb.
P/L unterirdisch. Im Vergleich.
Zu laut. Deutlichster Rückschritt.
Ein würdiger Nachfolger der 8800GTX, wer was anderes sagt hat einfach nicht das nötiger klein geld übrig...
Es gibt wirklich gar nichts an der Karte das wirklich negativ wäre, die 280er verbraucht nur 20Watt mehr als eine 8800ULTRA und hat gut 60% mehr Leistung, der 2D Verbrauch von ca. 28Watt ist für so ein rissen ding einfach der Hammer!
Im 2D hört man die Karte übrigens nicht aus dem Rechner raus...
Es gibt wirklich gar nichts an der Karte das wirklich negativ wäre, die 280er verbraucht nur 20Watt mehr als eine 8800ULTRA und hat gut 60% mehr Leistung, der 2D Verbrauch von ca. 28Watt ist für so ein rissen ding einfach der Hammer!
Im 2D hört man die Karte übrigens nicht aus dem Rechner raus...
Nefilim
Vice Admiral Special
- Mitglied seit
- 22.04.2003
- Beiträge
- 900
- Renomée
- 2
- Prozessor
- Core i7 980-X
- Speicher
- 12 GB
- Grafikprozessor
- GTX 580
- HDD
- 2 * 120 GB SSD
- Netzteil
- 1000 BeQuiet
- Betriebssystem
- Win7 64bit
Also ja die Karte ist gelungen. Mein Bruder hat sich vor paar Wochen erst einen 3,6 GHZ QuadCore und 9800 GTX SLI mit 4 GIG RAM zugelegt und ich muß sagen bei der 1650ér Auflösung läuft alles auf Maximum Ruckelfrei mit AF (8x) und AA (16x). Außer Crysis auf High da bricht es auch mal unter 20 FPS mit Fraps gemessen. Den TomsHardware Test finde ich etwas gemein da ja bekannt ist das die 9800GTX wegen ihrem Speicherinterface bei solch hohen Auflösungen einknickt. Und wer hat schon n 30" TFT daheim stehen oder zockt permanent im Wohnzimmer
Ich froi mich schon auf die nächsten Karten dieser Chipgeneration!!
MfG
Nefi
Ich froi mich schon auf die nächsten Karten dieser Chipgeneration!!
MfG
Nefi
Wie ist das eigentlich mit dem 6 und 6+2 PCI-E 2.0 Steckern. Mein BQT ES-600W hat nur zwei 6er PCI-E Stecker. Haben die Karten Adapter für Molex Standard 4 Pin Stecker dabei, oder brauch ich auch ein neues NT?
I
ITpassion-de
Guest
Und wer hat schon n 30" TFT daheim stehen oder zockt permanent im Wohnzimmer
Was hat das denn mit "zockt im Wohnzimmer" zu tun? Es gibt ja wohl so gut wie keinen Fernseher in der unter 10.000,- Euro Klasse der die Auflösung eines 30" Monitors hat.
@andr_gin,
die GTX hat beim Launch nicht um die 500,- Euro gekostet sondern 619,- Euro. Ich weiß es ich war dabei .
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
die GTX hat beim Launch nicht um die 500,- Euro gekostet sondern 619,- Euro. Ich weiß es ich war dabei .
Sag mir nicht, dass du so'n Shit gekauft hast...
I
ITpassion-de
Guest
Sag mir nicht, dass du so'n Shit gekauft hast...
Hier die Rechnung:
Und sie war über eine lange Zeit das Beste was man seinem Gaming-Rechner bieten konnte.
LauneBaer
Admiral Special
- Mitglied seit
- 24.11.2003
- Beiträge
- 1.360
- Renomée
- 6
- Mein Laptop
- Lenovo Thinkpad T420s
- Prozessor
- Intel Core 2 Duo E8400
- Mainboard
- Asus P5Q
- Kühlung
- Xigmatek HDT-S1283
- Speicher
- A-DATA Vitesta Extreme Edition DIMM Kit 4GB PC2-6400U CL4-4-4-12
- Grafikprozessor
- PowerColor ATI HD6950 2GB @ 6970 Shaders
- Display
- 27" AOC FullHD + 22" LG W2242T 1680 x 1050
- HDD
- Crucial M4 128GB + Western Digital Caviar Blue 640GB SATA II (WD6400AAKS)
- Optisches Laufwerk
- LG Electronics GH20NS SATA
- Soundkarte
- onboard
- Gehäuse
- Sharkoon Rebel 9
- Netzteil
- Enermax PRO82+ 385W ATX 2.2
- Betriebssystem
- Windows 7 Home Premium x64
- Webbrowser
- Iron
Oh mein Gott, meine Augen bluten!!!
Aber ok, wenn man das Geld hat, kann man's auch ausgeben!
Aber ok, wenn man das Geld hat, kann man's auch ausgeben!
I
ITpassion-de
Guest
Oh mein Gott, meine Augen bluten!!!
Die war nicht teuer, denn ich versteigerte meine 7950GX2 noch für 391,- Euro, so daß die Differenz dann nicht wirklich weh getan hat.
Ist im übrigen schon seit Jahren meine Strategie, zum richtigen Zeitpunkt die alte Karte abstoßen und dann für eine überschaubare DIfferenz aufrüsten.
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Neneeee, ich meinte die GTX 280!
Da muss ich was überlesen haben...
Die 8800GTX ist was anderes (vor allem zu der Zeit)
Der Kauf EINER GTX 280 könnte mir nur jemand damit argumentieren, dass er EINE Karte im Rechner haben will - sonst macht das wirklich überhaupt keinen Sinn.
(Auch der Grund Triple-SLI zieht nicht - da kann man genauso gut 4x HD4870 im CF-X betreiben)
Da muss ich was überlesen haben...
Die 8800GTX ist was anderes (vor allem zu der Zeit)
Der Kauf EINER GTX 280 könnte mir nur jemand damit argumentieren, dass er EINE Karte im Rechner haben will - sonst macht das wirklich überhaupt keinen Sinn.
(Auch der Grund Triple-SLI zieht nicht - da kann man genauso gut 4x HD4870 im CF-X betreiben)
I
ITpassion-de
Guest
(Auch der Grund Triple-SLI zieht nicht - da kann man genauso gut 4x HD4870 im CF-X betreiben)
Das wurde heute auf PCGH gestestet und bringt nix. Im übrigen sind MultiGPU Lösungen nur was für ganz harte Socken die es gerne micro ruckeln lassen .
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 46K
- Antworten
- 0
- Aufrufe
- 187
- Antworten
- 0
- Aufrufe
- 433
- Antworten
- 0
- Aufrufe
- 252
- Antworten
- 0
- Aufrufe
- 196