Neue Informationen zu ATIs RV610 und RV630

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Nachdem in den letzten Tagen immer mehr Informationen zum R600 bekannt geworden sind, gibt es es jetzt auch welche zu den kommenden Direct3D10-fähigen Low-Cost- und Mainstream-GPUs.

Beide Chips sollen im 65nm-Verfahren bei TSMC gefertigt. Der RV610, der den Low-Cost-Bereich abdecken wird, soll in zwei Versionen, dem RV610LE und dem RV610Prom, erscheinen. Der erstgenannte soll mit vierlagige Platinen, DDR2-Speicher und 25W auskommen, während die Pro-Version sechslagige Platinen, DDR3-Speicher und 35W benötigt. Beide verfügen über eine 64 Bit breite Speicheranbindung.

Den für den Mainstream-Bereich gedachten RV630 wird es in drei Varianten geben, die alle ein 128 Bit Speicherinterface besitzen. Gestaffelt sind die Versionen nach Leistungsaufnahme und Speichertyp: Es gibt 128W / DDR4-Speicher, 93W / DDR3-Speicher und 75W / DDR2-Speicher.

Erste Samples werden im März und die Produkteinführung im April erwartet.

<b>Quelle:</b> <a href="http://www.vr-zone.com/index.php?t=999&e=1" target="b">ATi 65nm RV610/RV630 Cards Info</a>
 
Hi,

64 Bit und 128 Bit Speicheranbindung, kann das stimmen!?

Mir klingeln immer noch die Speicheranbindungen von Nvidia G8 Serie im Ohr: 384 Bit nun ja eben auch Highend.

Was wären eigentlich die Gegenspieler auf Seiten von Nividia?

Die Leistungsaufnahmen sind dagegen im Vergleich zu den genannten im Highendbereich wieder sehr OK.

Greetz
neax;)
 
Zuletzt bearbeitet:
Ich denke auch das die Mainstreamkarten eher einer 256bit Speicheranbindung haben werden. :)
 
Schmalere Speicheranbindung heißt einfachere Platinen heißt günstigere Produktionspreise.

Im Low-Cost-Bereich sind 64 Bit doch vollkommen üblich und ausreichend. Und 128 Bit mit 2GHz/1GHz-DDR4 (ab da macht DDR4 erst Sinn) sind für den Mainstreambereich auch OK. Wenn man sich anguckt was eine 7600GT mit "nur" 128 Bit reißen kann, dann wird das in Kombination mit DDR4 schon recht flott sein.
 
lustig ... wenn die daten stimmen sollten, dann werden ALLE zukünftigen ati mittelklasse/mainstream-karten bei pci-express 1 systemen über den 6pin pci-e anschluss mit strom versorgt werden müssen. wirklich ne ganz traurige entwicklung.

mal abwarten, was nvidia da aus dem hut zaubert, aber sollten sich die eckdaten der nächsten ati-generation so bewahrheiten, kommt ati mir momentan nicht mehr in den rechner.
 
Sehe ich auch so.
Mainstream fängt bei 75 Watt erst an:o . Ich will mal hoffen das das nicht so eintreten wird.
Ansonsten kann sich Amd ans Haus Zimmern,
Klimaveränderungsunterstützer oder ähnliches.
Ist schon Lustig.
Da wurde die Gf4 Ti4600 mit ihren 34 Watt als Stromfresser Tituliert, und Ati ist dann bald beim 8-fachen. Dann mal auf die Dual GPU Karten warten.
 
Vielleicht wurde aber auch die TDP- Angabe von AMD übernommen. Ansonsten wird es wirklich heftig :]
 
wartet doch auch erstmal ab was die Karten dann für ne Leistung bringen werden
wenn die Mainstream karten so schnell sein werden wie die X1900 XT dan wäre die leistungsaufnahme absolut berechtigt
 
Die sollen immerhin in 65nm gefertigt werden, also sollte sie schon entweder schneller sein bei gleichem Verbrauch oder weniger verbrauchen bei gleicher Leistung...
 
wartet doch auch erstmal ab was die Karten dann für ne Leistung bringen werden
wenn die Mainstream karten so schnell sein werden wie die X1900 XT dan wäre die leistungsaufnahme absolut berechtigt


finde ich nicht weil der R600 eine neue Generation ist. Meiner Meinung sollte die Verlustleistung beibehalten werden und die Leistung gesteigert werden aber ATI bringt die Leistungsteigerung auf kosten des Energieverbrauchs was ich nicht verstehen kann weil sicherlich nicht gerade wenig Karten abrauchen werden aufgrund schlechter Kühlung.

Naja ich werd mir so ein Monster nicht kaufen, dann werde ich wohl auf NVidia umsteigen MÜSSEN.

ATI das ist eine Sauerei! (Wenn es so kommt)

Mfg
 
finde ich nicht weil der R600 eine neue Generation ist. Meiner Meinung sollte die Verlustleistung beibehalten werden und die Leistung gesteigert werden aber ATI bringt die Leistungsteigerung auf kosten des Energieverbrauchs was ich nicht verstehen kann weil sicherlich nicht gerade wenig Karten abrauchen werden aufgrund schlechter Kühlung.

Naja ich werd mir so ein Monster nicht kaufen, dann werde ich wohl auf NVidia umsteigen MÜSSEN.

ATI das ist eine Sauerei! (Wenn es so kommt)

Mfg

Als wenn es so einfach wäre. Wenn es so wäre, dann hätte nvidia das ja vielleicht auch schon längst getan, haben sie aber nicht. Und das deren mainstream produkte *monate* nach den high-end karten, womöglich sogar mit einem prozess shrink daher kommen, kann nicht nur eine marketing strategie sein (im gegenteil). Vielleicht mal die fakten abwarten, bevor man in die übliche P3Dnow-grafikkarten-hysterie verfällt.
 
finde ich nicht weil der R600 eine neue Generation ist. Meiner Meinung sollte die Verlustleistung beibehalten werden und die Leistung gesteigert werden aber ATI bringt die Leistungsteigerung auf kosten des Energieverbrauchs was ich nicht verstehen kann weil sicherlich nicht gerade wenig Karten abrauchen werden aufgrund schlechter Kühlung.

Naja ich werd mir so ein Monster nicht kaufen, dann werde ich wohl auf NVidia umsteigen MÜSSEN.

ATI das ist eine Sauerei! (Wenn es so kommt)

Mfg

:] NV ist kein Stück besser vorallen Idle eher schlechter ;)
 
Wie darf man sich die Low-Watt-Grafikkarten leistungsmäßig im Vergleich zur jetzigen Generation vorstellen? Hab da momentan gar keinen Überblick ;)
 
Wie darf man sich die Low-Watt-Grafikkarten leistungsmäßig im Vergleich zur jetzigen Generation vorstellen? Hab da momentan gar keinen Überblick ;)
Ab wann bis wann ist für dich denn Low Watt?
Ca. 34 Watt für eine Gf4 TI4600 oder Radeon 9700 waren Damals "High Watt", heute ist das wohl eher Low Watt.
 
Nun ja, mal abwarten. Wenn der RV630 leistungsmäßig irgendwo bei der X1900XT liegt, dann ist das doch gar keine so extreme Steigerung. Zu bemängeln bleibt natürlich, daß die hohen Wattagen damit dann auch zunehmend in den Massenmarkt kommen, weil man weniger Geld ausgeben muß, um viel verbrauchen zu "können".

Aber es macht auch nichts, wenn man einfach kleinere Grafikkarten kauft bzw. länger mit der Anschaffung wartet. Schließlich werden die Spiele immer verbugter und man muß sowieso immer länger warten, bis man sie zocken kann (oder dann nach Abklingen des Hypes feststellt, daß es eh ein Fehlkauf gewesen wäre).

[P3D] Crazy_Chris;3068272 schrieb:
Ich denke auch das die Mainstreamkarten eher einer 256bit Speicheranbindung haben werden. :)
Am Anfang werden sie die Lücke zwischen den R600-Monster und dem RV630 wohl mit teildeaktivierten R600 abdecken, von denen sie wohl sowieso mehr haben als sie wollen. Aber so riesig wird die Marktlücke nicht, denn es sind ja noch die alten Karten (X1950 pro bis XT) da, die absolut gesehen auch nicht schlecht sind (immerhin ist in nächster Zeit noch kaum ein DX10-Spiel zu erwarten). Einen 256-bittigen Chip als Ersatz dafür wird wohl irgendwann im Herbst oder kurz vor Weihnachten kommen.
 
Sehe ich auch so, abwarten und Benchmarks angucken. 65nm machens bei gleicher Leistung sicherlich nicht stromfressender als die Generation davor, ist ja schließlich nicht von Intel *chatt*
 
Dann will ich mal hoffen, dass die RV610 halbwegs brauchbare Geschwindigkeiten vorweisen können. Meine 6600GT will bestimmt bald mal abgelöst werden.
75 Watt aufwärts wirds bei mir wohl nicht geben, die haben doch nen Knall.
 
Hallo

Also bei diesen Stromfressern werde ich meine HIS X800 Pro Icecube 2 behalten, bis Sie auseinander fällt.
Falls es zu früh passieren sollte, wäre die hier die einzige Alternative für mich, mit Ihren 60 Watt bei Vollast. Zumal sie noch nen Hardwareencoder hätte :D

ATI All-In-Wonder Radeon X1900 (Retail, TV-Out, Video-In, DVI) 169€ + Versand
http://www.alternate.de/html/product/details.html?artno=JAXAA2&showTechData=true
Und der Preis ist ja geradezu ein Schnäppchen *grad bemerkt* :o

Gruß Pegasus
 
Zuletzt bearbeitet:
Warum fangen die nicht an Karten mit Mobile Chips zu verkaufen? X1600 mobility als ganz normale PCIe Version mit 20 Watt unter Volllast oder so, würd ich sofort kaufen. Auch wenn die Dinger n bisschen mehr kosten würden, dafür ist Passivkühlung kinderleicht und die Teile brauchen wenig Strom.
 
Und so eine Karte doppelt, das sind dann über 500 Watt für die Grafikeinheit... Respekt!

Mal sehen, wie lange der normale 220V-Strom noch von den Rechnern aktzepiert wird...

So viel Stromaufnahme muss auch irgendwie gekühlt werden.

Wer ist so bescheuert, und baut sich so eine krachmachende Höllenmaschine zusammen? Und dann muss man dafür auch noch viel Geld bezahlen...
 
Vermutlich in Europa, hier liegt an normalen Steckdosen eine Spannung von 220-230 Volt an ;)
 
Ja, da haben wir es doch!
230V ist schon lange angesagt und es heißt Spannung.
Wollte das nur mal richtig stellen, ich kleiner Klugschei...;D
 
und spannung hat ja auch sooooviel mit der leistungsaufnahme (watt) zu tun :]

(amiland hat 110V und da laufen auch die dicken >1000Watt staubsauger dran...)

nvidia wird da schon den nächsten leistungsnascher aus dem hütchen zaubern. ist halt wie bei den autos: neue technologien werden in mehr leistung statt weniger verbrauch verwandelt.

andersrum kaufts halt keiner, stell dir eine karte vor, die 5W verbraucht, aber nur so langsam wie ne 9500er oder so ist, kauft niemand.
 
Dymas schrieb:
andersrum kaufts halt keiner, stell dir eine karte vor, die 5W verbraucht, aber nur so langsam wie ne 9500er oder so ist, kauft niemand.

Ich will einen Chip der vier 9500er Cores in 65 nm vereint. Darf 20 Watt schlucken. 40 wenn er noch ein paar Mhz drauflegt.
 
Zurück
Oben Unten