R900 Spekulationsthread

Ich hab ja jetzt eine neue HD5870M bekommen, weil die alte kaputt war. Ich hatte eine der ersten HD5870M gehabt, da ich das G73 habe, welches als erstes gelauncht wurde.
Zum Thema. Die zweite Graka hat nun wesentlich mehr Übertaktungsspielraum (+10%) was bedeuten könnte, dass ich einfach nur glück hatte, oder dass der Prozess wesentlich besser geworden ist. Daher könnte das des Bayers These stützen
 
Schon interessant, wie gut es AMD gelingt, die Daten zu den kommenden RV9xx-GPUs bis zum Schluss unter Verschluss zu halten. Jetzt soll es ja nur noch ein Monat bis zum Release der ersten RV9xx-Graka sein, und bis heute weiß man immer noch kaum was, nur sehr vage Gerüchte.

Nach meiner Theorie gelingt sowas vor allem, wenn die Produkte sehr gut werden, denn dann kann AMD leicht androhen, dass der, wer Infos raus läßt, anfangs keine Produkte erhält. Denn je besser die Dinger werden, desto begehrter werden sie sein und desto besser wirkt dieser Mechanismus. Demnach müssten diese RV9xx sehr überzeugend werden. Ich bin schon sehr gespannt.
 
GTS450-SLI gegen HD5750/5770-Crossfire-X: http://www.hardocp.com/article/2010/09/14/nvidia_geforce_gts_450_sli_video_card_review/9

"...The performance compared here today was quite surprising. We are actually seeing CrossFireX provide better performance compared to SLI for the first time in a long time, across the board. Our experiences in our GTS 450 SLI testing have been consistent and can be summarized as such.
Radeon HD 5750 CrossFireX is on average 9% faster than GeForce GTS 450 SLI.
Radeon HD 5770 CrossFireX is on average 28% faster than GeForce GTS 450 SLI...
...If you look at our power testing of total system Wattage, GeForce GTS 450 drew 456 Watts at full load. ATI Radeon HD 5770 CrossFireX drew 443 Watts at full load, and ATI Radeon HD 5750 CrossFireX drew a much lower 370 Watts at full load.
It doesn’t seem like performance is scaling with power very well with GeForce GTS 450 SLI. It seems it is a power hog compared to the competition. In all but Metro 2033 ATI Radeon HD 5750 CrossFireX provided up to 10% more performance than GeForce GTS 450 SLI, but it was using 86 system Watts less! ATI Radeon HD 5770 CrossFireX beat GTS 450 SLI by up to 31% and was still using less power! This is rather shocking, and shows how efficient the ATI Radeon HD 5700 series GPUs really are; better performance with less power, in a nutshell...
...Our GeForce GTS 450 SLI versus Radeon HD 5770 CrossFireX and Radeon HD 5750 CrossFireX comparisons today have revealed that GeForce GTS 450 SLI is on the bottom end of performance in this price range. Two standard GeForce GTS 450 video cards will cost you $260. On the other hand, two Radeon HD 5770 video cards will cost you $10 less at $250 and provide up to 30% better performance in games. Radeon HD 5750 CrossFireX will cost you as little as $210 saving you $50 and providing the same or better performance than GTS 450 SLI.
NVIDIA should be worried, they’ve given us a GPU that is either underpowered in this price range or overpriced, and it seems to take a lot of power to produce substandard performance...
...NVIDIA is behind this generation folks, there is no denying that. In the 20"-22" display size market, the market that NVIDIA explains the GTS 450 is targeting, there has never been a clearer "winner," and that is the ATI Radeon HD 5770..."
 
SLI und Crossfire mögen zwar nette Checklistfeatures sein ... aber die Meldung, dass der nächste 3DMark ohne PhysX kommen und um so schlimmer noch dafür Microsofts DirectCompute eingesetzt wird, ist viel schlimmer für den grünen Grafikgiganten.

Allerdings wird das auch Baldrian für OpenCL sein und den Enthusiasmus hier bei P3D pro OpenCL nun mal endlich in realistische Bahnen lenken.

"Nächster 3DMark ohne PhysX? "

Das kann zwar ein falsches schräges Gerücht von Golem.de sein, aber wenn die schon vor Ort auf der kommenden Nvidias GPU Technology Conference (GTC) sein werden, dann muss da schon was dran sein.

Nicht, dass ich gegen PhysX bin, oder gegen eine Physik-API, nein überhaupt nicht. Aber die Industrie hat es versäumt einen einheitlichen Standard zu etablieren und darf sich nicht wundern, wenn sich diese weitgehend proprietären Standards nur zersplittert auf den Spiele-Markt präsentieren.

Im Grunde genommen die ideale Voraussetzung für den Softwaregiganten aus Redmond sich von hinter her das Feld aufrollend durchzusetzen ... wäre ja nicht das erste Mal.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Hi Bobo_Oberon

ja das sehe ich wie du, hätten sich die Großen API Firmen mal den kopf darüber gemacht zusammen etwas besseres zu leisten um einen Standart zu haben, wäre das sicher nicht passiert.
Sehr schade der eine Lacht und die anderen Weinen nur auf welcher Seite der Kunde steht
ist wohl immer eine offene Frage.

Lg
 
SLI und Crossfire mögen zwar nette Checklistfeatures sein ... aber die Meldung, dass der nächste 3DMark ohne PhysX kommen wird und um so schlimmer noch dafür Microsofts DirectCompute eingesetzt wird, ist viel schlimmer für den grünen Grafikgiganten.

Zumal die Radeons die Geforces in DirectCompute Messungen in der Pfeife rauchen. Ich finde es zwar nicht gut, dass OpenCL außen vorgelassen wird, aber immerhin wird AMD dadurch nicht weiter benachteiligt.
 
Daher sehe ich gespannt auf die neuen iGPs von beiden Herstellen. Wenn sich ein Standard doch durchsetzen lässt, oder man die OpenCL Schnittstelle dafür verwendet, kann man die iGP als Physikrechner nutzen und die Dedizierte als Grafikeinheit. So wenig Leistung scheinen beide kommenden iGPs ja nicht zu haben.
 
Interessant, dass womöglich die erste HD6xxx als Mobil-Variante erscheinen könnte:
HD6370 in HP-Notebook, siehe Seite 12 hier: http://bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02439213/c02439213.pdf

Den Link hab ich übrigens von hier: http://www.cpu-world.com/news_2010/2010083101_Core_i7_Mobile_i7-640M_specifications.html

"...The notebooks will work with the graphics controller, integrated into the CPU, and, as an option, will offer three different ATI Mobility Radeon HD graphics cards - HD 5470, HD 530v or HD 6370..."

In dem Link geht es um einen neuen Intel Core i7-640M mit 2,8Ghz, der ebenfalls in Q4/10 kommen soll.
 
Bei dieser 6370 halte ich es aber für nicht unwahrscheinlich, dass es sich einfach um eine umgelabelte 5470 handelt. Die 530v ist ja auch so etwas in der Art...

LG
 
Beim Low-End GPU wäre ein automatisches Swithable-Grafik, fall es kommt, nicht so wichtig.
Wozu also eine RV910 entwickeln, wenn der RV810 schon sparsam & gut genug ist?
 
Bei dieser 6370 halte ich es aber für nicht unwahrscheinlich, dass es sich einfach um eine umgelabelte 5470 handelt. Die 530v ist ja auch so etwas in der Art...

Ich denke dass es sich bei HD6370 um den Caicos handelt. Alleine von diesem gab es bisher Bilder im Netz, von daher glaube ich, dass dieser auch mit als erstes kommen wird. Offenbar hat AMD für den RV810 doch einen Nachfolger entwickelt weil es dafür womöglich viel Nachfrage aus dem Notebook-Segment gibt.
 
Der Vollständigkeit halber: Eckdaten zu Cayman & Barts inkl. Leistungsabschätzung (Zitate):

Cayman: Mit den herkömmlichen 5-D VLIW Shader-Einheiten dürfte dies für 20 bis 30 Prozent Mehrperformance gegenüber dem Vorgänger RV870/Cypress reichen, wenn schon die effizienteren 4-D VLIW Shader-Einheiten verbaut sind, liegt der Schätzbereich bei 30 bis 45 Prozent.

Barts: Mit den herkömmlichen 5-D VLIW Shader-Einheiten vielleicht 25 bis 40 Prozent gegenüber dem Vorgänger RV840/Juniper, mit den effizienteren 4-D VLIW Shader-Einheiten dann vielleicht 40 bis 60 Prozent.

Greetz,
GHad
 
Der Vollständigkeit halber: Eckdaten zu Cayman & Barts inkl. Leistungsabschätzung (Zitate):

Cayman: Mit den herkömmlichen 5-D VLIW Shader-Einheiten dürfte dies für 20 bis 30 Prozent Mehrperformance gegenüber dem Vorgänger RV870/Cypress reichen, wenn schon die effizienteren 4-D VLIW Shader-Einheiten verbaut sind, liegt der Schätzbereich bei 30 bis 45 Prozent.

Barts: Mit den herkömmlichen 5-D VLIW Shader-Einheiten vielleicht 25 bis 40 Prozent gegenüber dem Vorgänger RV840/Juniper, mit den effizienteren 4-D VLIW Shader-Einheiten dann vielleicht 40 bis 60 Prozent.

Greetz,
GHad
Na, da bin ich mal gespannt...diese Werte wären aber phänomenal, wie ich finde...und ENDLICH, ENDLICH würden die Preise der R800 fallen!
 
Zuletzt bearbeitet:
K.A. wer diese Tabelle verbrochen hat, aber einiges kann nicht stimmen, insbesondere das 512 -bit SpeicherIbterface ergibt keinen Sinn. Mit Ausnützung des schnellsten verfügbaren Speichers würde dies fast 3 x die Speicherbandbreite von Cypress ergeben, und da Cayman sicherlich im Vergleich dazu weniger als 3 x Rechenleistung aufweist, wäre dies ein erneuter R600

Zur eigentlichen Frage: beherrscht Barts DP:
- Wenn AMD sogleich nach der Übernahme von ATi ein Projekt iniziiert hat, welches zum Zweck hatte, CPU-know-how in die GPU Architektur einfliessen zu lassen, dann sollte eigentlich ein 4-D shader vergleichbar mit einer 128-bit FPU sein, und 2 x 64-bit oder 4 x 32- bit Operationen in einem Rutsch abferigen können.
- Wenn die Entwicklung einer neuen Architektur ca. 4 Jahre dauert, wann könnte so ein Design auf den Markt kommen? (hint: Übernahme von Ati durch AMD war im Jahre 2006)
 
Zuletzt bearbeitet:
Seit dem R600 wird man in Zukunft wohl sehr vorsichtig und mit Bedacht das Speicherinterface erhöhen. Und für einen "etwas-mehr-als-nur-ein-Refresh"-Refresh wird AMD sich sicherlich kein Bein ausreißen, um krampfhaft die Performance zu erhöhen.

Ist ja zurzeit auch gar nicht nötig...
 
Also rein von der Rechenleistung hätte eine 5770 auch DP gekonnt, war ja stärker als eine 4850 und etwa gleichauf mit einer 4870, beide DP. Nur wurde es seitens AMD blockiert.
Nun ist die Frage, wird es bei der 6770 wieder so sein?!?
Die angestrebte Konkurents GTX460 jedenfalls unterstützt es.
 
Zuletzt bearbeitet:
Zumindest dürfte der Release-Zeitpunkt in etwa stimmen: Die Preise der HD5870 und 5850 fallen langsam, aber stetig.

HD5870


HD5850


HD5770
 
200-300$ macht doch keinen Sinn, AMD braucht eine Karte zwischen 5770 und 5850 gegen die 460. Die Performance darf dann gerne auch die 5850 ankratzen, aber der Preis ist wichtiger, man muß was für unter 200 bringen.

Man darf aber auch nicht vergessen, daß die 5850 auch ursprünglich mit 200$ gestartet ist und dann nach Planung in ihrer Lebenszeit bis mindestens 150$ oder sogar darunter gesunken wäre, d.h. war so gebaut, daß man auch dann noch was verdient hätte. Die Marktsituation, die dauerhaft höhere Preise erlaubt hat, war ja ein reiner Glücksfall.

Eine Ersatzkarte darf also ähnliche Spezifikationen haben (d.h. mit im Verhältnis zu z.B. einer 5770 teurerem 256bit-Interface, etwas aufwändigerem Kühler usw.), ohne daß sich AMD in Not bringt. Allerdings, wenn man einfach eine 5850 nachbaut, d.h. eine Karte bringt mit ähnlicher Performance, warum sollte die dann auf einmal wesentlich billiger in den Markt kommen?

Kann eigentlich nur so sein, daß die 5830, 5850 und 5870 komplett verschwinden sollen und zwischen 5770 und 5850 dann zwei Barts-Varianten übernehmen und ab 5870 aufwärts zwei Varianten des nächstgrößeren Chips. Die interessantere und wichtigere (da lückenfüllende) Variante von Barts wäre dann die abgespeckte kleinere Version (namens "6750"?) und nicht dessen Vollausbau (welcher gerade in der Übergangsphase ggü. der 5850 unattraktiv sein könnte). Die kleinere Version könnte man dann dank teildeaktivierter Chips und relativ langsamem RAM sehr kostengünstig gestalten, trotz 256bit-Interface.
 
Zuletzt bearbeitet:
Über $200 für Barts halte ich auch für etwas übertrieben.
Meine Vermutung:
- ca. 150$ für Barts-Pro
- ca. 200$ für Barts-XT

Damit wäre die Barts-Pro deutlich billiger als die GTX460 und doch besser und zudem könnte AMD die aktuellen Junipers weiter im Markt lassen: die kosten heute schon kaum über ca.$100 (HD5750) bzw. ca. $120 (HD5770), sodass damit nicht mal große Preisanpassungen für Juniper nötig wären, deren neue Preise könnten dann evtl. die $100 und $120 werden.
 
Zuletzt bearbeitet:
Ich frage mich nur, was mit den kleineren Karten passiert. Es gibt ja im Grunde keinen Bedarf bzw. böte es auch imho keinen Vorteil, die 5770 und alles darunter abzulösen mit Produkten mit jeweils gleicher Performance, gleichen Features und gleicher TDP, im gleichen Fertigungsprozeß. Ich hoffe ja, daß man die Dinger nicht einfach umbenennt, aber marketingtechnisch wäre das wohl sinnvoll. Wirklich neue Chips machen imho nur Sinn, wenn man mit 28nm-Fertigung auch tatsächlich Kosten einsparen kann, die Chips könnte man dann auch gleich als Testvehikel nehmen; aber bis 28nm dauert es ja noch.
 
Zuletzt bearbeitet:
Zurück
Oben Unten