AMD goes Africa - R600 in den Startlöchern.....

Hi,

hui der Wind frischt auf und trägt so allerhand Gerüchte rund um den R600.

Zuerst auf den grünen Planeten: So wird laut einigen Vermutungen am 14. Mail ganze 9 neue Grafikkartenprodukte auf Basis des R600 ganz offiziell das Licht der Öffentlichkeit erblicken.

Halte ich für nicht unrealistisch. Es wurde ja immer auch argumentiert, dass man die ganze Familie gleichzeitig vorstellen wolle. Das dann auch jedes Produkt kaufbar ist, steht freilich auf einem anderem Blatt.

Auf einem anderen Blatt wird auch argwöhnisch ff..Meinung kundgetan. High-End R600-Grafikkarte nicht für den Retail-Markt? Also nur für Partner und nicht für die Endkunden. Ungewöhnlich ein Produkt dann nur in Komplettsysteme zu stecken und nicht einzeln zu verkaufen, wo gerade dieser Bereich (.s.o.) Geld, Image usw. bringt.

Sieht man allerdings die anscheinend großen Schwierigkeiten mit der HD2900XTX an, was Kühlung, Leistung, Stromverbrauch, Speicher und wahrscheinlich auch GPU Auslese der für diese Taktraten geeigneten R600 samt der Größe der Platine, packt man die HD2900XTX lieber in genau abgestimmte Systeme und in den Bereich, der relative wenige HD2900XTX in absoluten Zahlen nachfragt (Workstations ).

Für mich eine klare Kapitulation seitens ATI vor den Schwierigkeiten den R600 in der jetzigen Form auch ausreichend im Highendbereich zu platzieren. Vielleicht schafft es AMD wirklich relativ schnell den R650 zu bringen, wie vermutet wird. Der dann aufgrund der 65nm Produktion einige Probleme weniger haben könnte als der R600 zum Beispiel mit dem Stromverbrauch...

Derweil trägt der Wind auch das Gerücht in die Onlinewelt, dass der HD2900PRO (R670RV) im dritten Quartal kommen soll.

Ziehen wir das ganze zusammen und machen einen Strich: glorreich war die Informationspolitik nicht von AMD in Sachen R600. Das ist aufgrund der vielfach zitierten und unterstellten Problemen nicht verwunderlich. Letztlich denke ich, dass AMD mit dem R600 im Lowend und Midrangebereich ganz gut aufgestellt ist und allein der Highendbereich immer noch sehr große Probleme bereitet. Vielleicht ist es der Kunde, der sich trotzdem freuen kann, da AMD ev. die GPUs günstig anbietet, umso verlorenes Terrain wieder gewinnen zu können.

Greetz
neax;)
 
laut dem was bisher berichtet worden ist soll die 2900XT doch in der Preisklasse der 8800GTS liegen, schneller als jene sein aber auch mehr Strom verbraten.....dann betrachte man nochmal die Tabelle und man stellt fest das die 2900er XT/XL noch in 80nm und die 2600er/2400er bereits in 65nm gefertigt werden.
In bezug auf den Stromverbrauch macht es also sinn möglichst bald bei den 2900er den shrink auf 65nm zu vollziehen....man stelle sich allein nur vor was eine XTX angesichts der bisherigen Daten wohl mit +800MHz Chiptakt in 80nm gefressen hätte... :-X

Meine Vermutung ist an der Stelle das es noch Probleme beim der 65nm Fertigung eines solch komplexen Chips wie dem R600 gibt ind die Ausbeute dementsprechend ausfallen dürfte.


PS: in den Startlöchern für ne 2900XT hock. :D
 
naja, der strom ist am ende doch egal, ob die dann 10 oder 15 watt mehr braucht als eine 88GTS. klar muss die nicht sinnlos den strom verbraten aber am ende merkt man das auf der stromrechnung eh nicht
 
Wenn die Graka nicht rund um die Uhr am achern ist, dann ist es im bezug auf den Stromverbrauch ohnehin wichtiger wie hoch der Idle verbrauch ist...und genau dazu hab ich noch keinerlei Daten gelesen. Auch ist die DX10 Grafikleistung noch so ziemlich unklar....sowohl von ATI als auch von nVidia und erst recht das Verhältnis zueinander.
 
Hi,

die ersten Reviews mit der HD 2900 XT sind draußen! ;D :D

Dennoch Vorsicht ist geboten, da die Treiber noch nicht sehr ausgereift sind und sich daher doch etwas ändern kann und wird. Der letzte Treiber ist am letzten Freitag erschienen (fast) alle Reviews arbeiten also mit einem veraltetem Treiber.:] ;)

Dennoch: Erste Fazit: Durchwachsen! Mehr oder weniger eine kleine Enttäuschung

Ich denke während im Highendbereich der wirkliche Konter von AMD bisher ausblieb, werden die anderen HD 2600 und HD 2400 durchweg sehr gute Konkurrenten für Nvidia sein.

Greetz
neax;)

EDIT: http://img369.imageshack.us/img369/8287/attachment153445bbx8.jpg hihi

LISTE mit Reviews etc.:

http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html (sehr alter Treiber...)
http://www.mediafire.com/?1zvucssmixm Pre-NDA-Presse-Präsentation
http://forum.beyond3d.com/showpost.php?p=985906&postcount=5437 S.T.A.L.K.E.R. v1.3, All setting maximun, AF in game . 8.37 Drivers
http://vr-zone.com/?i=4946&s=13
 
Zuletzt bearbeitet:
naja... die treiber scheinen wirklich noch um einiges zu hinken. in Fear verändert sich die durchschnittliche Framezahl (bei ocworkbench) zum Beispiel zwisdchen normal und mittleren Qualitätseinstellungen garnicht. dabei ist die Framerate bei mittleren einstellungen sogar höher als bei der 8800gtx. müsste ale (rein theoretisch) bedeuten, dass die 2900xt zumindest in Fear schneller als die 8800gtx werden kann.

Ich würde jedenfalls mich noch nicht zu einer Aussage hinreißen lassen, ob die 2900xt nicht vileicht doch schneller wird als die 8800gtx.
 
Hi,

es ist an der Zeit ein erstes Fazit zu ziehen? *noahnung*
Fassen wir zusammen, AMD hat mit der Radeon HD 2900 XT die neue Generation von R600-GPUs vorgestellt. Größer schneller als alles andere von ATI bzw. AMD im GPU-Bereich bisher zu bieten hatte. Die Radeon HD 2900 XT zielt auf unterene HighEnd-Segment und ist kein Gegenpart im Highend-Bereich (GeForce 8800 GTX und Ultra). Was Preis und Leistung einwandfrei bestätigen. Das Preis-Leistungsverhältnis ist OK, aber nicht überragend.

Die R600 scheint den G80 in keiner Weise, wie im Vorfeld oft vermutet, in die Schranken weisen zu können. Mit dieser GPU Generation scheint AMD bisher lediglich "nachgezogen" zu haben.

Auch gibt es noch einige Baustellen im Fall der HD 2900 XT. Zum einen ist da sicherlich eine Modifikation der Kühlung (Steuerung+Lautstärke) dringend erforderlich. Zum anderen sind die Treiber derzeit desolat. Finde ich wirklich nicht gut nach den vielen Verzögerungen die Karte mit solchen Treiber vorzustellen. Sicherlich steckt in den Treibern noch die eine oder andere Leistungsreserve - das verhindert derzeit ein wirklich abschließende Beurteilung der Leistungsfähigkeit Radeon HD 2900 XT. Die Baustelle Stromverbrauch wird absehbar eine bleiben - da muss man wohl auf den R650 warten.

Bei der Release Geschwindigkeit mit zum Teil doch deutlichen Leistungsveränderungen der Treiber, ist wirklich Vorsicht geboten bei der Bewertung der einzelnen Reviews.

Greetz
neax;)
 
Zuletzt bearbeitet:
Habe mir seid langen mal wieder ein GPU Review durchgelesen (bei mir werkelt immer noch eine ATI Radeon 9500). Tja was sagt man dazu: heute werden also Tests in 1600x1200 mit 8x AA und was weiß ich AF gefahren. Wenn ich dann sehe, dass die Karten immer noch deutlich mehr Frames als die Wahrnehmbarkeitsgrenze des Auges darstellen können, dann finde ic das schon beeindruckend.

Gleichzeitig finde ich es schon erstaunlich, dass ich keine Angaben zu minimalen Frameraten gefunden habe, denn das ist doch letztendlich das, was zählt. K. A. in wieweit sich dann die Verhältnisse ändern, aber mich würde das dennoch mehr interessieren, als ob nun die durchschnittliche Frameanzahl bei 200 oder 100 liegt.

Naja, das so als allgemeinen Kommentar. Zur neuen ATI GPU: für mich kommt irgendwie einfach das hinten raus, was die technischen Details versprechen. Die ATI und nVidia Chips haben IMO eben andere Profilierungen, ich sehe da die G80 eher als Füllratenmonster, während der R600 eher moderne Features beinhaltet. Und bei gleicher Transistoranzahl gibts dann natürlich Unterschiede in den unterschiedlichen Disziplinen.

Für mich ist daher der G80 eher der klare Chip für diejenigen, die heute die Krone der Leistung haben wollen. Der R600 erscheint mir mehr der Allround Chip zu sein, mit super Bildqualität, HD-Decoder, ...
Also für mich wäre eher das was zählt. Ein Dorn im Auge ist mir vor allem die Verlustleistung. Muss ich wohl noch warten, bis so ein Chip noch ein Viertel der Leistung verbrät.
 
ergo, entweder nvidia oder die 26xx serie von ati
 
ergo, entweder nvidia oder die 26xx serie von ati

na die 2600er Serie von AMD/ATI soll ja laut Gerüchten nur um die 45W brauchen. Also wenn das wirklich so kommen sollte, dann RESPEKT.
Mich würde da nur mal die Leistung interessieren. Wird die so in der Lage der X1950Pro sein oder etwas mehr??
Wobei man sowas eigentlich garnicht richtig vergleichen kann. Klar ist DX9 Leistung zur Zeit am wichtigsten. Aber DX10 kommt...
Und das wird auch der Haken an der 8800er Serie von NV sein. Das sind DX9 Karten, die auch DX10 können aber laut Benchmarks da versagen. Die 2900XT liegt im DX9 nur etwas hinter der 88er Reihe von NV zurück aber in DX10 ist sie 5mal so schnell.

Dann kann man für AMD nur hoffen, dass bald einige DX10 Spiele kommen und somit ihre Karte ordentlich Geld verdienen kann. AMD hats ja leider nötig... und Konkurrenz sollte erhalten bleiben.

MfG 8)
 
Och so schwarz sehe ich das im Highend segment für die 2900XT noch nichtmal, denn:

1. der max. Stromverbrauch wurde auf nunmehr 215W gesenkt, wo vorher noch etwas von 300W und mehr die Rede war, im 2D Betrieb liegt er hingegen unterhalb der GTX

2. bei den Tests ohne AA und AF die Karte im schnitt fast schon bei der GTX aufschließen und sie teilweise sogar überholen kann...AA war ja schließlich die Performancebremse schlechthin bei den Betatreibern

3. der AF scheinbar nicht ganz so gut ist wie bei der 8800er, der neue AA Modus hingegen hochwertiger

4. sie gerade im Bereich von HDTV und co einfach mehr zu bieten hat

5. das preissegment zwischen der 8800 GTS und der GTX liegt....wo sie schließlich auch Marktsegmente räubern gehen wird.

Wieviel die Karte also zu leisten vermag wird sich im laufe der Treiberupdates recht schnell rauskristallisieren allerdings hoffe ich das BEINDE Hersteller nicht wieder allso tief in die Treibertrickkiste greifen und dem User auch die Möglichkeit bieten solche "Otimierungen" abzuschalten.
 
auch bei der 6000der reihe von Nvidia sah es erst so aus, als wäre sie schlechter, bis die treiberupdates kamen. Natürlich hat sich ATI hier auf jeden fall doch etwas verspätet.
 
). Was Preis und Leistung einwandfrei bestätigen. Das Preis-Leistungsverhältnis ist OK, aber nicht überragend.

für die doch späte einführung dieser Karte, finde ich es schon schwach.
5Mal shneller bei DX10 , JA JA wers glaubt. siehe Testergebnisse liegt die 2900XT nur etwas über einer 8800GTS.
Der Preisstimmt absolut nicht. Siehe AMD Pressebericht vom 14.Mai:

"Das Modell ATI Radeon HD 2900 XT ist ab sofort lieferbar und wird zusammen mit dem Spiele-Bundle Team Fortress 2, Portal, and Half-Life 2: Episode Two von Valve zum Preis von 295 Euro angeboten. Aufgrund dieses attraktiven Preises können mehr Endverbraucher denn je die Vorteile erstklassiger diskreter Grafikprodukte nutzen"

Bitte 295euro?? sehe da ab 384euro und nicht weniger.
 
für die doch späte einführung dieser Karte, finde ich es schon schwach.
5Mal shneller bei DX10 , JA JA wers glaubt. siehe Testergebnisse liegt die 2900XT nur etwas über einer 8800GTS.
Der Preisstimmt absolut nicht. Siehe AMD Pressebericht vom 14.Mai:

"Das Modell ATI Radeon HD 2900 XT ist ab sofort lieferbar und wird zusammen mit dem Spiele-Bundle Team Fortress 2, Portal, and Half-Life 2: Episode Two von Valve zum Preis von 295 Euro angeboten. Aufgrund dieses attraktiven Preises können mehr Endverbraucher denn je die Vorteile erstklassiger diskreter Grafikprodukte nutzen"

Bitte 295euro?? sehe da ab 384euro und nicht weniger.

du willst testergenbisse?? hier bitte schön: http://www.hardtecs4u.de/?id=1178992218,83196,ht4u.php

sicherlich mag es unterschiede zu unterschiedlichen tests geben aber ich glaube schon, dass die 2900XT die bessere DX10 Karte ist. braucht zwar noch niemand aber naja^^
und was die treiber angeht, dann denkt bitte mal daran, wieviele monate es die 8800er schon gab und NV wusste, dass sie Vista Treiber brauchen und eh dann mal ein gescheiter vorhanden war. da hat AMD/ATI wohl etwas schneller lauffähige Treiber für Vista gebracht ;) und getestet werden beide karten immer nur unter Vista, um ebend auch DX10 testen zu können.

MfG 8)
 
Eigentlich hatte man nie Probleme mit Vista und 8800GTS. meine einfache xpertvision 8800GTS320 lief von anfang an unter Vista.
Was fehlt z.b. immernoch sind gescheite SLI einstellungen. Dawäre noch ne Verbesserung nötig.
Aber auch bei denn Spielle entwicklern. hier ganz groß mal EA genannt.
 
für die doch späte einführung dieser Karte, finde ich es schon schwach.
5Mal shneller bei DX10 , JA JA wers glaubt. siehe Testergebnisse liegt die 2900XT nur etwas über einer 8800GTS.

Die GF3 sollte damals auch bis zu 9x schneller sein als die Vorgängergeneration und war letztenendes langsamer als ne GF2 Ultra....alles eine Frage der Teildisziplinen und WAS man testet...

"Das Modell ATI Radeon HD 2900 XT ist ab sofort lieferbar und wird zusammen mit dem Spiele-Bundle Team Fortress 2, Portal, and Half-Life 2: Episode Two von Valve zum Preis von 295 Euro angeboten. Aufgrund dieses attraktiven Preises können mehr Endverbraucher denn je die Vorteile erstklassiger diskreter Grafikprodukte nutzen"

Bitte 295euro?? sehe da ab 384euro und nicht weniger.
Was nen preisvergleich ist ist dir aber schon bekannt, oder? *klick*
Das die Einführungspreise meist höher sind ist leider auch nix neues.
 
Hi,

die HD 2900 XT ist im unteren Highend-Segement platziert. Treiberupdates werden sicherlich noch das eine oder andere Prozent Leistung bringen, aber sie wird kaum näher an die 8800 GTX herankommen.

Der Preis, um ein wirkliches Angebot zu sein, sollte noch mal etwas Fallen und sich den 300 Euro nähern. Derzeit lieferbare Karte ab ~370 Euro. Eine 8800GTS 640MB gibt es ab 309 Euro.

Mein Tipp der R600 GPUs ist der RV670 - die dann auf HD 2900PRO im 3. Q. erscheinen soll und zwar in 65nm großen Strukturen.

Greetz
neax;)
 
Zuletzt bearbeitet:
solange will ich nicht warten.
da kaufe ich lieber erstmal eine 8800GTS 320mb für 260euro und fertig. wenn dann in 1Jahr bessere KArten draussen sind wird groß gekauft :D.
Für die Frau und Sims2, Rollercoaster wird die locker reichen :D nur eben nicht 2x6600 und nem 3000+ 754.
Da muss mal was neues rein. aber nur eine 8600GTS? weiß nicht!

mich würde die 8950GX2 freuen, meine jetzigen schon älteren 7950gx2s sind schon nicht schlecht gewesen.
 
Hi,

die Köche brutzeln wieder einige Gerüchte. Chefkoch fudzilla kredenzt uns das Gerücht AMD wird den 2008*suspect* anstehende:] R700-GPU in 55nm bauen. OK Zusätzlich soll es sich dabei um einen Multicore-Chip, eine GPU mit mehreren Cores man spricht auch von "Multi Core Unified Architecture" geben.

"Ein Gerücht ist die Verbreitung einer unverbürgten Nachricht, die sich dabei auf eine charakteristische Art und Weise verändert."(wiki) Als warten wir mal;)

Greetz
neax;)
 
Vielleicht bin ich ja einfach nur doof aber mir entzieht sich der Sinn hinter einer "Multicore"-GPU - es ist doch das grundlegende Prinzip eines Grafikchips so viele Pixel wie möglich parallel berechnen zu können, warum muss ich dafür x Kerne zusammenschalten anstatt einfach die Anzahl der ALUs zu vervielfachen ?

mfG

denton
 
Ganz einfach....wieviel mühe ist nötig um einen grossen Kern herzustellen und wieviel bei einem kleineren und wie verhält sich dabei die Ausbeute des Wafers?
Schalten man mehrere davon zusammen, dann bekommt man logischer weise auch mehr aus dem wafer raus, da weniger defekte auf eine einzige Core einwirken bzw. sie sich leichter "reparieren" lassen.
In dem Zusammenhang wäre zumindest anfänglich eine Lösung vorstellbar wie die derzeit Intel bei den quadcore Prozessoren hat.
 
Hi,

das mit den GPU verhält sich ähnlich wie bei den CPU - hier setzt man auch auf "Multi"Core;)

Es ist offensichtlich einfacher zwei oder mehrere "simplere" Kerne zusammenzuschalten, als einen Chip immer komplexer herzustellen.

Greetz
neax;)
 
Müssten sich nicht auch Vorteile beim Anti-Alasing ergeben? Der Vergleich hinkt zwar, aber damals beim Voodoo 5 gab es ja diese Super-Kantenglättungsmodi in Hardware, durch die zwei Chips konnte zweifache Kantenglättung fast ohne Verlust (aus Gedächtnis!!!) gemacht werden. Allerdings wurde AA beim V5 ja in Hardware ausgeführt, k.A. wie das heute ist.

Abgesehen davon, kann mir eigentlich mal jemand erklären wie es möglich ist, dass ATI nach Monaten der Verspätung ohne ausgereiften Treiber dasteht? Da müssen die Probleme doch viel größer gewesen sein als vorher bekannt war. Ich glaube ja, dass der R600 in seiner ursprünglichen Konzeption einfach nicht an die nvidia-Konkurrenz rankam und daher musste man den Takt hochschrauben wodurch sich Hitze-Probs ergaben, oder sie mussten noch weitere Shader-Einheiten verbauen (für Geschwindigkeit oder aus Marketinggründen) und daher kommen die Treiberprobs.

Ich für meinen Teil bin halbwegs enttäuscht. Einzige Hoffnung ist, dass die Mittelklasse-Karten die von nvidia deutlich schlagen.
 
Ok, das Argument der Redundanz kann ich noch ein Stück weit nachvollziehen aber man könnte ja ebenso einfach defekte Einheiten deaktivieren, wie man es bei CPU mit dem Cache macht ... naja, die werden schon wissen was sie tun ;)

genervt, die Voodoo5 war keinesfalls so unerschütterlich, dass sie AA einfach so ohne Leistungseinbußen weggesteckt hätte ;)
Tatsächlich wurde der Chip duch den langsamen Speicher sogar massiv limitiert, hier hätte ein DDR-Interface wohl wahre Wunder wirken können.
AA wird eigentlich seit dieser Zeit in Hardware realisiert, nicht auszudenken, die CPU müsste sich dieser Aufgabe annehmen *buck*

mfG

denton
 
Ok, das Argument der Redundanz kann ich noch ein Stück weit nachvollziehen aber man könnte ja ebenso einfach defekte Einheiten deaktivieren, wie man es bei CPU mit dem Cache macht ... naja, die werden schon wissen was sie tun ;)
Wird doch eh schon gemacht, denk einfach an die Pixel Shader ...
Deswegen versteh ich den "Multi GPU" Ansatz nicht, so ein Grafikchip is eh schon ein massiv paralleles Stückchen Silizium. Die Leistung der Ati Karten bei Folding @ Home kommt ja nicht von ungefähr.
Wenn jetzt wie bei den Intel QuadCores 2 Plättchen Si zu einem MCM zusammengebastelt werden is das auch nichts überragend neues. Gut MCM wäre neu, aber Dual Setups gibts bekanntlich seit Voodoo Zeiten.
Aber naja vielleicht kann man sich damit ja "irgendwie" das RAM Spiegeln sparen ... das wär ein Vorteil. Probleme sehe ich nur bei der Kühlung ^^

ciao

Alex
 
Zurück
Oben Unten