App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMD mit Preissenkungen bei ATI-Produkten?
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Nach Beobachtungen von Fudzilla hat AMD mit Preissenkungen bei seinen ATI Radeon Produkten HD 4870 X2 und HD 4850 X2 auf die Einführung <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1231495893">GeForce GTX 295 und GTX 285</a> reagiert.
Bei den Distributoren sind mittlerweile auch Preise zu sehen, die darauf schließen lassen, dass die ATI Radeon HD 4870 X2 bald um die 350 Euro kosten könnte. Vorreiter ist dabei der enge AMD-Partner Sapphire, der bislang als einziger Hersteller eine ATI Radeon HD 4850 X2 anbietet. Diese kostet mittlerweile in der Version mit 2 mal 512MB Speicher nur noch knappe 215 Euro.
<center><table><tr><td><table cellpadding="5" cellspacing="0" width="450" style="border-color:#000000; border-width:1px; border-style:solid;"><tr><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Modell</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58"> Preis ab</font></b></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>HD 4850 X2</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 215 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>GeForce GTX 285</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 315 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>HD 4870 X2</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 365 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>GeForce GTX 295</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 380 €</center></font></td></tr></table></td></tr></table></center>
<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=11360&Itemid=34" target="b">ATI cuts HD4870 prices </a>
Bei den Distributoren sind mittlerweile auch Preise zu sehen, die darauf schließen lassen, dass die ATI Radeon HD 4870 X2 bald um die 350 Euro kosten könnte. Vorreiter ist dabei der enge AMD-Partner Sapphire, der bislang als einziger Hersteller eine ATI Radeon HD 4850 X2 anbietet. Diese kostet mittlerweile in der Version mit 2 mal 512MB Speicher nur noch knappe 215 Euro.
<center><table><tr><td><table cellpadding="5" cellspacing="0" width="450" style="border-color:#000000; border-width:1px; border-style:solid;"><tr><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Modell</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58"> Preis ab</font></b></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>HD 4850 X2</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 215 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>GeForce GTX 285</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 315 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>HD 4870 X2</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 365 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>GeForce GTX 295</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 380 €</center></font></td></tr></table></td></tr></table></center>
<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=11360&Itemid=34" target="b">ATI cuts HD4870 prices </a>
G
Gast31082015
Guest
Ist ohne Zweifel ein attraktiver Preis für die 4850X2.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Ist ohne Zweifel ein attraktiver Preis für die 4850X2.
Wo da noch Platz für die 4870er bleibt? Schließlich ist die Platine teurer und es sind zwei GPUs drauf, der Ram dürfte kaum weiger kosten als 1GB GDDR5.
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
Ist das vielleicht ein Druckfehler und es sind tatsächlich 315€ bei der 4850 X2? 215€ kommen mir ziemlich seltsam vor.
Menace
Vice Admiral Special
- Mitglied seit
- 04.10.2007
- Beiträge
- 961
- Renomée
- 26
- Lieblingsprojekt
- World Community
- Meine Systeme
- Ryzen R7 1700
- BOINC-Statistiken
- Mein Laptop
- HP Elitebook
- Prozessor
- AMD R7 1700
- Mainboard
- Asus ROG Crosshair VI Hero AMD X370
- Kühlung
- be quiet! Pure Rock Tower Kühler
- Speicher
- 16GB (2x 8192MB) G.Skill Trident Z
- Grafikprozessor
- AMD Asus R9Nano
- Display
- NEC EA232WMI, Benq SW2700PT
- SSD
- Samsung EVO 500 GB, 2 x Samsungs EVO 1 GB
- HDD
- 1 x WD6400AAKS
- Optisches Laufwerk
- LG
- Soundkarte
- Focusrite Scarlett 2i4 II
- Gehäuse
- be quiet! Silent Base
- Netzteil
- 550 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum
- Betriebssystem
- Windows 10
- Webbrowser
- Vivaldi Developer
Ist das vielleicht ein Druckfehler und es sind tatsächlich 315€ bei der 4850 X2? 215€ kommen mir ziemlich seltsam vor.
http://geizhals.at/deutschland/a380439.html
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Dann ist das aber ein häufiger Druckfehler bei vielen Anbietern: http://geizhals.at/deutschland/a380439.html
Die HD 4870 wird vermutlich auch im Preis fallen...die kostet ja nur noch 180€ und schleicht sich immer weiter nach unten. Dürfte die nächste Zeit wohl was "offizielles" kommen.
Die HD 4870 wird vermutlich auch im Preis fallen...die kostet ja nur noch 180€ und schleicht sich immer weiter nach unten. Dürfte die nächste Zeit wohl was "offizielles" kommen.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Ist das vielleicht ein Druckfehler und es sind tatsächlich 315€ bei der 4850 X2? 215€ kommen mir ziemlich seltsam vor.
Die 4850 X2 mit 2x 1GB liegt bei 295 Euro.
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Zu Zeiten der Geforce1Man koennte fast sagen, dass es auch Zeit wird..fuer 4870 und die 4850 Single GPU Karten...wann hat man Hardware im Consumerbereich gesehen, die so lange preisstabil war...??
Desertdelphin
Grand Admiral Special
- Mitglied seit
- 23.10.2002
- Beiträge
- 4.395
- Renomée
- 185
bloß nicht KGBerlin!!! Hab noch meine 3850 256MB und warte lieber auf die nächste generation. Preise sind seid nem halben Jahr fast unverändert... Also wenn du jetzt kaufst dann wars echt schlecht *G*
Liko
Commander
- Mitglied seit
- 16.11.2005
- Beiträge
- 179
- Renomée
- 0
- Prozessor
- Phenom II 940 BE
- Mainboard
- Foxconn A7DA-S
- Kühlung
- Skythe Mugen2
- Speicher
- 2x 2Gb DDR2 800Mhz A-Data
- Grafikprozessor
- HD4850 @ Accelero mit 12cm Lüfter
- Display
- 19" Hyundai Imagequest Q90U
- SSD
- SSD Crucial M5 128Gb
- HDD
- WD 1TB
- Optisches Laufwerk
- LG Brenner
- Gehäuse
- Antec NSK6000
- Netzteil
- Seasonic S12-500W
- Betriebssystem
- Windows 8.1
Ja toll warte ich nun noch oder nicht. Eigentlich wollte ich mir diesen Monat eine 4850 zulegen
Bei mir liegt auch ein Kauf einer HD4850 an. Bisher bester Preis, den ich gefunden habe:
107,80 €http://www.litec-computer.de/PC-Komponenten/Grafikkarten/PCI-express/ATI/XpertVision-Palit-HD4850-512MB-GDDR3-2xDVI-TVout::17930.html
Ich warte aber noch bis Anfang Feb. und schau mir die Preise erst noch an
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
Das ist doch klar, warum ATI die Preise so senken muss für die Dual Karten. Früher waren auf beiden Seiten Mikroruckler ohne Ende vorhanden, wodurch die Dual Karten real fast nicht schneller waren, als die Single Karte, aber es wurde alles schön totgeschwiegen. Jetzt, wo Nvidia das Problem auf ca. 1/3 bis 1/2 reduziert hat, werden die ATI in den Medien total zerreißen deswegen und es wird zum großen Thema. Da ATI anscheinend das Problem nicht lösen kann, müssen die vom Preis ordentlich runter. Gleichzeitig werden die Single Karten von Nvidia um ein Eck billiger werden und zur starken Konkurrenz zur 4850 X2, wenn die 4850 um unter 300 Euro zu haben ist. Mehr ist nicht drin, weil sonst würde die ja keiner abnehmen, wenn es ab 400 Euro schon dasselbe als Dual Ausführung gibt.
Die 4850 X2 ist meiner Meinung nach eh ein ziemlich verzweifelter Versuch mitzuhalten, genauso wie der Phenom. Produktionskosten ohne Ende, aber Geld kommt nicht viel rein.
Die 4850 X2 ist meiner Meinung nach eh ein ziemlich verzweifelter Versuch mitzuhalten, genauso wie der Phenom. Produktionskosten ohne Ende, aber Geld kommt nicht viel rein.
neax
Grand Admiral Special
Hi,
ich denke, dass AMD eigentlich besser an der Preisschraube drehen kann,als Nvidia.
Wie groß der Spielraum wirklich ist, kann man nur raten. AMD hat aber sicherlich mit der HD4XXX keinen Verlust gemacht. Mirkroruckler sind ein Thema sicherlich und ev. ist auch dieses lösbar....
Aber vorerst trumpft AMD mit einem sehr attraktive P/L Verhältnis auf. Und ganz klar hier wird in erster Linie um Marktanteile gekämpft.....
Greetz
neax
ich denke, dass AMD eigentlich besser an der Preisschraube drehen kann,als Nvidia.
Wie groß der Spielraum wirklich ist, kann man nur raten. AMD hat aber sicherlich mit der HD4XXX keinen Verlust gemacht. Mirkroruckler sind ein Thema sicherlich und ev. ist auch dieses lösbar....
Aber vorerst trumpft AMD mit einem sehr attraktive P/L Verhältnis auf. Und ganz klar hier wird in erster Linie um Marktanteile gekämpft.....
Greetz
neax
neax
Grand Admiral Special
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
Es wäre eh schon längst Zeit, dass da einmal etwas vernünftiges kommt. AMD rennt jetzt schon seit Einführung der 8800 GTX Ende 2006 schon nur mehr hinter Nvidia her. Die 4870er ist auch um ein ordentliches Eck hinten. Die X2er Karten waren wegen Mikrorucklern unbrauchbar, weshalb sie real erst wieder langsamer als die GTX280 waren und jetzt kommt Nvidia und hat einfach so knapp 50% mehr Leistung, während AMD schon ohne Mikroruckler um über 10% langsamer ist. Zwar sind die Produktionskosten für ATI für eine 4870er Karte etwas geringer, als Nvidia für einen 280er Kern hat, aber bei dem Minus, das AMD bei den CPUs gerade einfährt, können Sie sich schon das nicht mehr wirklich leisten und die Verlustleistung ist immer noch um ein Stück höher. So Karten wie die 4850er X2, die die Produktionskosten von 2 Kernen haben (und 2 facher RAM), aber nur die Leistung von einem vollen (geringe Grundleistung eines Kerns plus sehr starke Mikroruckler) verbessern die Lage auch nicht unbedingt.
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Ääääääähhhh...was?Es wäre eh schon längst Zeit, dass da einmal etwas vernünftiges kommt. AMD rennt jetzt schon seit Einführung der 8800 GTX Ende 2006 schon nur mehr hinter Nvidia her. Die 4870er ist auch um ein ordentliches Eck hinten. Die X2er Karten waren wegen Mikrorucklern unbrauchbar, weshalb sie real erst wieder langsamer als die GTX280 waren und jetzt kommt Nvidia und hat einfach so knapp 50% mehr Leistung, während AMD schon ohne Mikroruckler um über 10% langsamer ist. Zwar sind die Produktionskosten für ATI für eine 4870er Karte etwas geringer, als Nvidia für einen 280er Kern hat, aber bei dem Minus, das AMD bei den CPUs gerade einfährt, können Sie sich schon das nicht mehr wirklich leisten und die Verlustleistung ist immer noch um ein Stück höher. So Karten wie die 4850er X2, die die Produktionskosten von 2 Kernen haben (und 2 facher RAM), aber nur die Leistung von einem vollen (geringe Grundleistung eines Kerns plus sehr starke Mikroruckler) verbessern die Lage auch nicht unbedingt.
"Hinterher"? ATI ist mit der HD 4870 X2 (in meinen Augen) immer noch Performancekönig...oder kauft sich jemand etwa eine 400€ teure Karte für Auflösungen unter 1680x1050, Medium Details und 0xAA? (bei der die X2 immer noch schneller als die GTX 295 ist)?
Ich habe mir auch mal diese Mikroruckler geschichte selber bei 2 Freunden mit je HD 4870 X2 im Rechner angeschaut...ich sah da bei keinem Spiel etwas (auch keinen Hardwarefressern wie Crysis), welches auch nur ansatzweise an sowas wie Mikroruckler ausgesehen hätte. Und daher ist ATI keinesfalls "hinter" nV...die R600-Zeiten sind vorüber, das hast du bemerkt, ja?
Das einzige was du ATI ankreiden kannst, ist der relativ schlecht funktionierende Sparmodus, der so groß angepriesen wurde.
Ich persönlich glaube aber auch, dass nV noch wesentlich mehr ins schwitzen kommen wird, wenn erstmal auf 40nm umgestellt wird.
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
1.) Also ich verlasse mich da doch auf objektive Messungen und nicht so Aussagen wie "bei meinem Freund schaut das doch flüssiger aus". Wenn eine nagelneue Karte um 400 Euro ein über ein 1 Jahr altes Spiel nicht flüssig darstellen könnte, dann wäre das doch ziemlich schlimm, es sei denn das Ganze ist auf 2560x1600 mit 8xAA/16xAF.
Wahrscheinlich warst du mit den fps nicht tief genug, um den Effekt mit freiem Auge zu sehen, aber er ist trotzdem da, unabhängig wie hoch die Framerate ist.
2.) Das Problem bei den Mikrorucklern ist, dass die Average FPS gemessen werden, sichtbar sind aber von 2 Frames immer nur das mit dem längern Abstand. Ob man durchgehend 30fps hat oder 1 Frame mit 30fps und eines mit 100fps oder gleich 2 Frames zur gleichen Zeit sieht oder im Abstand von 30fps 1 Million gleiche Frames auf einmal, ist egal. Man sieht den Effekt hier sehr gut: http://www.computerbase.de/artikel/...hd_4870_x2/24/#abschnitt_problem_mikroruckler
Um die Performanceeinbußen durch die Mikroruckler zu berechnen. Der obere Zacken ist die Zeit, die man sieht. Dann durchdividieren und man kommt auf ca. 60-70%. Wenn man die 80% her nimmt, die SLI/Crossfire ca. bringt, dann hat man knapp 20% mehr Leistung durch den zweiten Kern. OK damit ist ATI gleichauf mit der GTX280 mit wesentlich mehr Aufwand.
Hier sieht man die dieselben Werte bei der GTX295: http://www.computerbase.de/artikel/...95/21/#abschnitt_mikroruckler_auf_der_gtx_295
Immer noch etwas zackig, aber im Schnitt nur 20% weniger, also bringt der zweite Kern ca. 60-70%. Das sind 40% Unterschied.
P.S.: Die Minimum fps, die oft angegeben werden, sagen auch nichts aus, weil die Zeiten dafür meistens auf Sekundenbasis gerechnet werden, also jede Sekunde geschaut wie viele Frames und dann den schlechtesten Wert genommen. Da misst man immer noch falsch.
Wahrscheinlich warst du mit den fps nicht tief genug, um den Effekt mit freiem Auge zu sehen, aber er ist trotzdem da, unabhängig wie hoch die Framerate ist.
2.) Das Problem bei den Mikrorucklern ist, dass die Average FPS gemessen werden, sichtbar sind aber von 2 Frames immer nur das mit dem längern Abstand. Ob man durchgehend 30fps hat oder 1 Frame mit 30fps und eines mit 100fps oder gleich 2 Frames zur gleichen Zeit sieht oder im Abstand von 30fps 1 Million gleiche Frames auf einmal, ist egal. Man sieht den Effekt hier sehr gut: http://www.computerbase.de/artikel/...hd_4870_x2/24/#abschnitt_problem_mikroruckler
Um die Performanceeinbußen durch die Mikroruckler zu berechnen. Der obere Zacken ist die Zeit, die man sieht. Dann durchdividieren und man kommt auf ca. 60-70%. Wenn man die 80% her nimmt, die SLI/Crossfire ca. bringt, dann hat man knapp 20% mehr Leistung durch den zweiten Kern. OK damit ist ATI gleichauf mit der GTX280 mit wesentlich mehr Aufwand.
Hier sieht man die dieselben Werte bei der GTX295: http://www.computerbase.de/artikel/...95/21/#abschnitt_mikroruckler_auf_der_gtx_295
Immer noch etwas zackig, aber im Schnitt nur 20% weniger, also bringt der zweite Kern ca. 60-70%. Das sind 40% Unterschied.
P.S.: Die Minimum fps, die oft angegeben werden, sagen auch nichts aus, weil die Zeiten dafür meistens auf Sekundenbasis gerechnet werden, also jede Sekunde geschaut wie viele Frames und dann den schlechtesten Wert genommen. Da misst man immer noch falsch.
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Meiner Meinung hat AMD recht gut 'toter Mann' gespielt. Dem Unternehmen geht es seit der K10-Katastrophe nicht gut und das RV770-Design war bzw. ist nach wie vor nicht schlecht. Obwohl schon 'so alt', hält es wacker mit nVidias Produkten mit.
Wie sehen Langzeitstrategien bei AMD und nVidia aus? nVidia erreicht mit weniger ALUs mehr als AMD, aber welcher Optimierungsaufwand ist bei nVidia 'on Die' nötig, welcher bei AMD? Welche der beiden Architekturen skaliert problemlos bei kleiner werdenden Siliziumstrukturen? Aus dem Bauch heraus würde ich sagen, es ist AMDs Architektur, die besser skaliert. Aber das weiß ich nicht mit Sicherheit, nur spekulativ.
Mich interessiert vor allem die Rechenleistung der Chips und wie diese effektiv nutzbar gemacht werden kann und könnte. Leider hat nVidia auch hier die Nase vorn, wobei dies auf zwei Umstände zurückzuführen ist, die man beachten sollte:
a) viele Spielehersteller arbeiten sehr viel enger mit nVidia als mit ATI/AMD zusammen, weshalb Spiele oft vielmehr auf nVidia-Animositäten angepaßt sind als auf die der ATi-Konkuurenz.
b) CUDA war und ist bislang der strategisch bessere Weg zur GPGPU-Nutzung, wodurch auch hier ein ähnliches Bild wie unter a) bei der professionellen oder semi-professionellen Nutzung entsteht. CUDA bringt zur Zeit die Shader-Leistung besser 'auf die Straße' als es AMD/ATi kann. Ob OpenCL in mittelbarer Zukunft etwas daran ändern können wird, kann ich nicht sagen.
Wenn man den rohen FLOPS-Werten trauen kann dann liegt AMD wiederum vorne.
nVidia bringt JETZT Neuerungen, die schneller scheinen. AMD kämpft mit Designs an, die seit mehr als 12 Monaten am Markt sind. Warten wir doch einfach einmal ab, was AMD in den kommenden Monaten dagegenhalten will. Vielleicht werden nVidias Flügelchen gleich wieder auf die richtige Länge gestutzt, wenn die verbesserten Prä-RV800-Chips aus dem RV700-Baukasten das Licht der Welt erbliken.
Wie sehen Langzeitstrategien bei AMD und nVidia aus? nVidia erreicht mit weniger ALUs mehr als AMD, aber welcher Optimierungsaufwand ist bei nVidia 'on Die' nötig, welcher bei AMD? Welche der beiden Architekturen skaliert problemlos bei kleiner werdenden Siliziumstrukturen? Aus dem Bauch heraus würde ich sagen, es ist AMDs Architektur, die besser skaliert. Aber das weiß ich nicht mit Sicherheit, nur spekulativ.
Mich interessiert vor allem die Rechenleistung der Chips und wie diese effektiv nutzbar gemacht werden kann und könnte. Leider hat nVidia auch hier die Nase vorn, wobei dies auf zwei Umstände zurückzuführen ist, die man beachten sollte:
a) viele Spielehersteller arbeiten sehr viel enger mit nVidia als mit ATI/AMD zusammen, weshalb Spiele oft vielmehr auf nVidia-Animositäten angepaßt sind als auf die der ATi-Konkuurenz.
b) CUDA war und ist bislang der strategisch bessere Weg zur GPGPU-Nutzung, wodurch auch hier ein ähnliches Bild wie unter a) bei der professionellen oder semi-professionellen Nutzung entsteht. CUDA bringt zur Zeit die Shader-Leistung besser 'auf die Straße' als es AMD/ATi kann. Ob OpenCL in mittelbarer Zukunft etwas daran ändern können wird, kann ich nicht sagen.
Wenn man den rohen FLOPS-Werten trauen kann dann liegt AMD wiederum vorne.
nVidia bringt JETZT Neuerungen, die schneller scheinen. AMD kämpft mit Designs an, die seit mehr als 12 Monaten am Markt sind. Warten wir doch einfach einmal ab, was AMD in den kommenden Monaten dagegenhalten will. Vielleicht werden nVidias Flügelchen gleich wieder auf die richtige Länge gestutzt, wenn die verbesserten Prä-RV800-Chips aus dem RV700-Baukasten das Licht der Welt erbliken.
Ganz einfach.Wie sehen Langzeitstrategien bei AMD und nVidia aus?
ATI setzt auf
High-End ... 300 Watt ... 2x200-250mm²
Performance ... 150 Watt. ... 200-250 mm²
--- davon Dual-Slot 150 Watt
--- davon singl-Slot 110 Watt (auch Passiv möglich)
Mainstream ... ohne Stromstecker und somit <75 Watt
Low-End ... Passive und somit <25Watt
Nvidia hat nicht so ein Konzept und war bis vor kurzem noch, den größten & schnellsten GPU aus single-Chip-Karte zu bauen.
Per 285 & 295 hat sich es bischen geändert, da man die 295 mit zwei niedergetakteten 285er-in-der-xten-Revision gerade auch 300Watt geprügelt hat.
Aber in einem ATI-Interview von AFAIK Baumann wirde berichtet, dass die Entwicklung bzw. Grundsteinlegung von RV770 schon im Jahr 2005 gesetzt wurde alias hohe Packdichte.
Somit sollte man Annahmen, dass RV870 auch eine ähnliche Packdichte hat.
Und der GT300 könnte mit bisheriger Strategie, wieder eine verdammt großer Die mit nicht so toller Packdichte sein alais GT200-55nm vs. RV770-55nm Verhältnisse.
Mal sehen, ob es wirklich so kommt.
Denn bei einer Nochmaligen Stromverbrauchssteigung wie G80 zu GT200, wäre GT300 bei AFAIK ca. 300 Watt.
Die RV770 ist nur 6 Monate am Markt.nVidia bringt JETZT Neuerungen, die schneller scheinen. AMD kämpft mit Designs an, die seit mehr als 12 Monaten am Markt sind
Und alt ist dieses Design wirklich nicht, da sich sehr viel im Vergleich zu RV6x0 verändert hat.
In dem Interview wurde auch erwähnt, dass der R520 --> RV580 - Schritt ein viel größerer war, als es die Leute im Internet mit bekommen haben.
Falls das nicht schon erwähnt wurde,Hallo.
Kann man auch mit Preissenkungen bei den kleineren HD48XX/HD46XX Modellen rechnen?
Eher nicht, denn Nvidia hat nichts neues rausgebracht. Und die Preise sind ja auch nicht gerade sehr hoch.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 403
- Antworten
- 0
- Aufrufe
- 504