News AMD mit Preissenkungen bei ATI-Produkten?

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Nach Beobachtungen von Fudzilla hat AMD mit Preissenkungen bei seinen ATI Radeon Produkten HD 4870 X2 und HD 4850 X2 auf die Einführung <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1231495893">GeForce GTX 295 und GTX 285</a> reagiert.

Bei den Distributoren sind mittlerweile auch Preise zu sehen, die darauf schließen lassen, dass die ATI Radeon HD 4870 X2 bald um die 350 Euro kosten könnte. Vorreiter ist dabei der enge AMD-Partner Sapphire, der bislang als einziger Hersteller eine ATI Radeon HD 4850 X2 anbietet. Diese kostet mittlerweile in der Version mit 2 mal 512MB Speicher nur noch knappe 215 Euro.
<center><table><tr><td><table cellpadding="5" cellspacing="0" width="450" style="border-color:#000000; border-width:1px; border-style:solid;"><tr><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Modell</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58"> Preis ab</font></b></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>HD 4850 X2</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 215 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>GeForce GTX 285</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 315 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>HD 4870 X2</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 365 €</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>GeForce GTX 295</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center> ca. 380 €</center></font></td></tr></table></td></tr></table></center>

<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=11360&Itemid=34" target="b">ATI cuts HD4870 prices </a>
 
Ist ohne Zweifel ein attraktiver Preis für die 4850X2.

Wo da noch Platz für die 4870er bleibt? Schließlich ist die Platine teurer und es sind zwei GPUs drauf, der Ram dürfte kaum weiger kosten als 1GB GDDR5.
 
Ist das vielleicht ein Druckfehler und es sind tatsächlich 315€ bei der 4850 X2? 215€ kommen mir ziemlich seltsam vor.
 
Dann ist das aber ein häufiger Druckfehler bei vielen Anbietern: http://geizhals.at/deutschland/a380439.html

Die HD 4870 wird vermutlich auch im Preis fallen...die kostet ja nur noch 180€ und schleicht sich immer weiter nach unten. Dürfte die nächste Zeit wohl was "offizielles" kommen.
 
Man koennte fast sagen, dass es auch Zeit wird..fuer 4870 und die 4850 Single GPU Karten...wann hat man Hardware im Consumerbereich gesehen, die so lange preisstabil war...??
 
Man koennte fast sagen, dass es auch Zeit wird..fuer 4870 und die 4850 Single GPU Karten...wann hat man Hardware im Consumerbereich gesehen, die so lange preisstabil war...??
Zu Zeiten der Geforce1 ;D
 
Ja toll warte ich nun noch oder nicht. Eigentlich wollte ich mir diesen Monat eine 4850 zulegen *suspect*
 
bloß nicht KGBerlin!!! Hab noch meine 3850 256MB und warte lieber auf die nächste generation. Preise sind seid nem halben Jahr fast unverändert... Also wenn du jetzt kaufst dann wars echt schlecht *G*
 
Das ist doch klar, warum ATI die Preise so senken muss für die Dual Karten. Früher waren auf beiden Seiten Mikroruckler ohne Ende vorhanden, wodurch die Dual Karten real fast nicht schneller waren, als die Single Karte, aber es wurde alles schön totgeschwiegen. Jetzt, wo Nvidia das Problem auf ca. 1/3 bis 1/2 reduziert hat, werden die ATI in den Medien total zerreißen deswegen und es wird zum großen Thema. Da ATI anscheinend das Problem nicht lösen kann, müssen die vom Preis ordentlich runter. Gleichzeitig werden die Single Karten von Nvidia um ein Eck billiger werden und zur starken Konkurrenz zur 4850 X2, wenn die 4850 um unter 300 Euro zu haben ist. Mehr ist nicht drin, weil sonst würde die ja keiner abnehmen, wenn es ab 400 Euro schon dasselbe als Dual Ausführung gibt.

Die 4850 X2 ist meiner Meinung nach eh ein ziemlich verzweifelter Versuch mitzuhalten, genauso wie der Phenom. Produktionskosten ohne Ende, aber Geld kommt nicht viel rein.
 
Hi,

ich denke, dass AMD eigentlich besser an der Preisschraube drehen kann,als Nvidia.
Wie groß der Spielraum wirklich ist, kann man nur raten. AMD hat aber sicherlich mit der HD4XXX keinen Verlust gemacht. Mirkroruckler sind ein Thema sicherlich und ev. ist auch dieses lösbar....*noahnung*

Aber vorerst trumpft AMD mit einem sehr attraktive P/L Verhältnis auf. Und ganz klar hier wird in erster Linie um Marktanteile gekämpft.....

Greetz
neax;)
 
Hat man eigentlich mal wieder was von den angeblich zu erwartenden RV775 aka HD4970 oder so gehört? Wann kann man denn damit rechnen? Gibts da überhaupt mittlerweile eine offizielle Verlautbarung seitens AMD?
 
Hallo.
Kann man auch mit Preissenkungen bei den kleineren HD48XX/HD46XX Modellen rechnen?
 
Es wäre eh schon längst Zeit, dass da einmal etwas vernünftiges kommt. AMD rennt jetzt schon seit Einführung der 8800 GTX Ende 2006 schon nur mehr hinter Nvidia her. Die 4870er ist auch um ein ordentliches Eck hinten. Die X2er Karten waren wegen Mikrorucklern unbrauchbar, weshalb sie real erst wieder langsamer als die GTX280 waren und jetzt kommt Nvidia und hat einfach so knapp 50% mehr Leistung, während AMD schon ohne Mikroruckler um über 10% langsamer ist. Zwar sind die Produktionskosten für ATI für eine 4870er Karte etwas geringer, als Nvidia für einen 280er Kern hat, aber bei dem Minus, das AMD bei den CPUs gerade einfährt, können Sie sich schon das nicht mehr wirklich leisten und die Verlustleistung ist immer noch um ein Stück höher. So Karten wie die 4850er X2, die die Produktionskosten von 2 Kernen haben (und 2 facher RAM), aber nur die Leistung von einem vollen (geringe Grundleistung eines Kerns plus sehr starke Mikroruckler) verbessern die Lage auch nicht unbedingt.
 
Es wäre eh schon längst Zeit, dass da einmal etwas vernünftiges kommt. AMD rennt jetzt schon seit Einführung der 8800 GTX Ende 2006 schon nur mehr hinter Nvidia her. Die 4870er ist auch um ein ordentliches Eck hinten. Die X2er Karten waren wegen Mikrorucklern unbrauchbar, weshalb sie real erst wieder langsamer als die GTX280 waren und jetzt kommt Nvidia und hat einfach so knapp 50% mehr Leistung, während AMD schon ohne Mikroruckler um über 10% langsamer ist. Zwar sind die Produktionskosten für ATI für eine 4870er Karte etwas geringer, als Nvidia für einen 280er Kern hat, aber bei dem Minus, das AMD bei den CPUs gerade einfährt, können Sie sich schon das nicht mehr wirklich leisten und die Verlustleistung ist immer noch um ein Stück höher. So Karten wie die 4850er X2, die die Produktionskosten von 2 Kernen haben (und 2 facher RAM), aber nur die Leistung von einem vollen (geringe Grundleistung eines Kerns plus sehr starke Mikroruckler) verbessern die Lage auch nicht unbedingt.
Ääääääähhhh...was?
"Hinterher"? ATI ist mit der HD 4870 X2 (in meinen Augen) immer noch Performancekönig...oder kauft sich jemand etwa eine 400€ teure Karte für Auflösungen unter 1680x1050, Medium Details und 0xAA? (bei der die X2 immer noch schneller als die GTX 295 ist)?
Ich habe mir auch mal diese Mikroruckler geschichte selber bei 2 Freunden mit je HD 4870 X2 im Rechner angeschaut...ich sah da bei keinem Spiel etwas (auch keinen Hardwarefressern wie Crysis), welches auch nur ansatzweise an sowas wie Mikroruckler ausgesehen hätte. Und daher ist ATI keinesfalls "hinter" nV...die R600-Zeiten sind vorüber, das hast du bemerkt, ja?
Das einzige was du ATI ankreiden kannst, ist der relativ schlecht funktionierende Sparmodus, der so groß angepriesen wurde.
Ich persönlich glaube aber auch, dass nV noch wesentlich mehr ins schwitzen kommen wird, wenn erstmal auf 40nm umgestellt wird.
 
1.) Also ich verlasse mich da doch auf objektive Messungen und nicht so Aussagen wie "bei meinem Freund schaut das doch flüssiger aus". Wenn eine nagelneue Karte um 400 Euro ein über ein 1 Jahr altes Spiel nicht flüssig darstellen könnte, dann wäre das doch ziemlich schlimm, es sei denn das Ganze ist auf 2560x1600 mit 8xAA/16xAF.
Wahrscheinlich warst du mit den fps nicht tief genug, um den Effekt mit freiem Auge zu sehen, aber er ist trotzdem da, unabhängig wie hoch die Framerate ist.

2.) Das Problem bei den Mikrorucklern ist, dass die Average FPS gemessen werden, sichtbar sind aber von 2 Frames immer nur das mit dem längern Abstand. Ob man durchgehend 30fps hat oder 1 Frame mit 30fps und eines mit 100fps oder gleich 2 Frames zur gleichen Zeit sieht oder im Abstand von 30fps 1 Million gleiche Frames auf einmal, ist egal. Man sieht den Effekt hier sehr gut: http://www.computerbase.de/artikel/...hd_4870_x2/24/#abschnitt_problem_mikroruckler

Um die Performanceeinbußen durch die Mikroruckler zu berechnen. Der obere Zacken ist die Zeit, die man sieht. Dann durchdividieren und man kommt auf ca. 60-70%. Wenn man die 80% her nimmt, die SLI/Crossfire ca. bringt, dann hat man knapp 20% mehr Leistung durch den zweiten Kern. OK damit ist ATI gleichauf mit der GTX280 mit wesentlich mehr Aufwand.

Hier sieht man die dieselben Werte bei der GTX295: http://www.computerbase.de/artikel/...95/21/#abschnitt_mikroruckler_auf_der_gtx_295

Immer noch etwas zackig, aber im Schnitt nur 20% weniger, also bringt der zweite Kern ca. 60-70%. Das sind 40% Unterschied.

P.S.: Die Minimum fps, die oft angegeben werden, sagen auch nichts aus, weil die Zeiten dafür meistens auf Sekundenbasis gerechnet werden, also jede Sekunde geschaut wie viele Frames und dann den schlechtesten Wert genommen. Da misst man immer noch falsch.
 
Meiner Meinung hat AMD recht gut 'toter Mann' gespielt. Dem Unternehmen geht es seit der K10-Katastrophe nicht gut und das RV770-Design war bzw. ist nach wie vor nicht schlecht. Obwohl schon 'so alt', hält es wacker mit nVidias Produkten mit.

Wie sehen Langzeitstrategien bei AMD und nVidia aus? nVidia erreicht mit weniger ALUs mehr als AMD, aber welcher Optimierungsaufwand ist bei nVidia 'on Die' nötig, welcher bei AMD? Welche der beiden Architekturen skaliert problemlos bei kleiner werdenden Siliziumstrukturen? Aus dem Bauch heraus würde ich sagen, es ist AMDs Architektur, die besser skaliert. Aber das weiß ich nicht mit Sicherheit, nur spekulativ.

Mich interessiert vor allem die Rechenleistung der Chips und wie diese effektiv nutzbar gemacht werden kann und könnte. Leider hat nVidia auch hier die Nase vorn, wobei dies auf zwei Umstände zurückzuführen ist, die man beachten sollte:
a) viele Spielehersteller arbeiten sehr viel enger mit nVidia als mit ATI/AMD zusammen, weshalb Spiele oft vielmehr auf nVidia-Animositäten angepaßt sind als auf die der ATi-Konkuurenz.
b) CUDA war und ist bislang der strategisch bessere Weg zur GPGPU-Nutzung, wodurch auch hier ein ähnliches Bild wie unter a) bei der professionellen oder semi-professionellen Nutzung entsteht. CUDA bringt zur Zeit die Shader-Leistung besser 'auf die Straße' als es AMD/ATi kann. Ob OpenCL in mittelbarer Zukunft etwas daran ändern können wird, kann ich nicht sagen.
Wenn man den rohen FLOPS-Werten trauen kann dann liegt AMD wiederum vorne.
nVidia bringt JETZT Neuerungen, die schneller scheinen. AMD kämpft mit Designs an, die seit mehr als 12 Monaten am Markt sind. Warten wir doch einfach einmal ab, was AMD in den kommenden Monaten dagegenhalten will. Vielleicht werden nVidias Flügelchen gleich wieder auf die richtige Länge gestutzt, wenn die verbesserten Prä-RV800-Chips aus dem RV700-Baukasten das Licht der Welt erbliken.
 
Wie sehen Langzeitstrategien bei AMD und nVidia aus?
Ganz einfach.
ATI setzt auf
High-End ... 300 Watt ... 2x200-250mm²
Performance ... 150 Watt. ... 200-250 mm²
--- davon Dual-Slot 150 Watt
--- davon singl-Slot 110 Watt (auch Passiv möglich)
Mainstream ... ohne Stromstecker und somit <75 Watt
Low-End ... Passive und somit <25Watt

Nvidia hat nicht so ein Konzept und war bis vor kurzem noch, den größten & schnellsten GPU aus single-Chip-Karte zu bauen.

Per 285 & 295 hat sich es bischen geändert, da man die 295 mit zwei niedergetakteten 285er-in-der-xten-Revision gerade auch 300Watt geprügelt hat.

Aber in einem ATI-Interview von AFAIK Baumann wirde berichtet, dass die Entwicklung bzw. Grundsteinlegung von RV770 schon im Jahr 2005 gesetzt wurde alias hohe Packdichte.

Somit sollte man Annahmen, dass RV870 auch eine ähnliche Packdichte hat.
Und der GT300 könnte mit bisheriger Strategie, wieder eine verdammt großer Die mit nicht so toller Packdichte sein alais GT200-55nm vs. RV770-55nm Verhältnisse.

Mal sehen, ob es wirklich so kommt.
Denn bei einer Nochmaligen Stromverbrauchssteigung wie G80 zu GT200, wäre GT300 bei AFAIK ca. 300 Watt.

nVidia bringt JETZT Neuerungen, die schneller scheinen. AMD kämpft mit Designs an, die seit mehr als 12 Monaten am Markt sind
Die RV770 ist nur 6 Monate am Markt.
Und alt ist dieses Design wirklich nicht, da sich sehr viel im Vergleich zu RV6x0 verändert hat.

In dem Interview wurde auch erwähnt, dass der R520 --> RV580 - Schritt ein viel größerer war, als es die Leute im Internet mit bekommen haben.

Hallo.
Kann man auch mit Preissenkungen bei den kleineren HD48XX/HD46XX Modellen rechnen?
Falls das nicht schon erwähnt wurde,
Eher nicht, denn Nvidia hat nichts neues rausgebracht. Und die Preise sind ja auch nicht gerade sehr hoch.
 
Zurück
Oben Unten