Radeon HD 2900 XT Benchmarks

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Da die offiziell am Montag erscheinende aktuelle c't bereits in den Händen der Abonennten ist, haben die Kollegen von Hard Tecs 4U neue Radeon HD 2900 XT Benchmarks präsentieren können.

Verglichen werden GeForce 8800 GTX, Radeon HD 2900 XT, GeForce 8800 GTS und Radeon X1950 XTX auf einem Core-2-Duo-System unter Windows Vista.

Die etwas uneinheitlichen Ergebnisse der Radeon HD 2900 XT im Vergleich zur GeForce 8800 GTS könnten in Treiberproblemen begründet sein, dies merkt die c't auch an. Für den Test wurde der 8.37.4.070419a benutzt. Auf Grund der redaktionellen Vorlaufzeit eines Printmagazins konnte ein bereits verfügbarer 8.38, der angeblich wesentlich performater sein soll, nicht getestet werden.

<center>Benchmark - Oblivion<br><img src="/news_images/hd2900_oblivion.gif" alt=""></center>


<center>Benchmark - Prey<br><img src="/news_images/hd2900_prey.gif" alt=""></center>


<center>Benchmark - Direct3D 10 SDK<br><img src="/news_images/hd2900_10SDK.gif" alt=""></center>

<b>Quelle:</b> <a href="http://www.hardtecs4u.de/?id=1178992218,83196,ht4u.php" target="b">Radeon X2900 XT verpasst Performance-Krone deutlich</a>
 
Die Grundleistung der Radeon scheint ok zu sein. Trotzdem frage ich mich langsam was denn nun eigentlich die Verzögerung verursacht hat. Wir haben Mai ATI, kommt mal in die Puschen.
Das eigentlich interessante ist ja der Stromverbrauch und die DX10 Leistung. Weiss jemand, ob die SDK-Benches irgendeine Aussagekraft haben?
 
Da die offiziell am Montag erscheinende aktuelle c't bereits in den Händen der Abonennten ist, haben die Kollegen von Hard Tecs 4U neue Radeon X2900 XT Benchmarks präsentieren können.

Das ist völlig falsch. ct hat diese Benchmarks präsentiert, HardTec ist nur Trittbrettfahrer und Durchlauferhitzer.
 
Das ist völlig falsch. ct hat diese Benchmarks präsentiert, HardTec ist nur Trittbrettfahrer und Durchlauferhitzer.

Ja und? Ein Abonennt hat die Werte Hard Tecs gesteckt, oder die besitzen selbst das Heft. Ergo ist der Satz doch inhaltlich richtig, da die Werte von der c't stammen, die die aber natürlich wegen NDA nicht selbst im WWW veröffentlichen duerfen. *noahnung*
 
was is denn das fürn schwachsinn, das sie die performancekrone deutlich verpasst??
haben die ihre benches nicht gesehen?? und ohne af testen mit nem alten treiber...gammelig, peinlich imd wenig aussagekräftig...
das sie bei oblivion so einbricht liegt mit sicherheit nicht an der hardware...
is doch soweit vollkommen okee, ausser das sie zu spät kommt^^
sie liegt zwischen gts und gtx und ist offenbar voll für dx10 ausgelegt.
ob vorerst sinnvoll oder nicht ;)
denke mal bei crysis und anderen kommenden dx10-titeln wird sie dadurch ne ecke besser dastehen, als nvidia.

aber ich finde auch man sollte nicht unter vista testen, wo eh noch nix ausgereift läuft (ja dx10 )...dämlich sowas.
gegen die ultra siehts aber für die xtx sicher auch nicht so rosig aus.
preis/leistung stimmt auf jeden fall denke ich bei der xt.
also die überschrift find ich jedenfalls echt daneben.


mfg
 
Zuletzt bearbeitet:
Vor allem testen sie mit Temporal Antialiasing, was dann ungefähr so aussieht
s223.gif
 
Kleiner Fehler:

Nicht X2900XT, sondern HD 2900XT.

Ist mir auch erst später aufgefallen... ;D
 
Als ich den ersten Bench gesehen habe dachte ich erst, dass sies verhauen haben, aber die anderen Benches sehen ja schon etwas anders aus. Ein Crysis vergleich wäre mal interessant anzusehen, natürlich mit DX10, weil wenn dann die XT auch noch sehr nahe an die GTX kommen würde, wäre sie zumindest DX10 technich sehr zu empfehlen.
 
wird sie dadurch ne ecke besser dastehen, als nvidia.

Ja wow... 6 Monate für ne Ecke. Stimmt das ist natürlich dann vollkommen falsch das man schreibt das ATI die Performance Krone verpasst hat. IRONIE. Und sie ist vollkommen für DX10 ausgelegt und rockt dann alles weg *wieder Ironie*

Bis DX10 Titel kommen hat NVidia schon wieder ne neue Grakageneration rausgehauen.

Also entweder liegt die Verzögerung daran das sie für PS3 und XBox360 noch Chips gemacht haben (was ja auch gut ist da es ihnen guten absatz bringt) ODER wegen der AMD Übernahme, ODER wegen beidem. ODER weil sie doof sind *lol* *buck*
 
Darauf kommts doch schlussendlich an oder etwa nicht? Ist doch gut wenn nVidia nachhilft, mir hilft eine GPU erst, wenn das Spiel draußen ist und ich würde nunmal gerne wissen, was zum Zeitpeinkt des Spiel-Releases eben vorne ist, bzw es zur Zeit wäre.
 
....
Also entweder liegt die Verzögerung daran das sie für PS3 und XBox360 noch Chips gemacht haben (was ja auch gut ist da es ihnen guten absatz bringt) ODER wegen der AMD Übernahme, ODER wegen beidem. ODER weil sie doof sind *lol* *buck*

Höchstens für die Wiiiii immer noch Ironiiiiiie
 
Also entweder liegt die Verzögerung daran das sie für PS3 und XBox360 noch Chips gemacht haben (was ja auch gut ist da es ihnen guten absatz bringt) ODER wegen der AMD Übernahme, ODER wegen beidem. ODER weil sie doof sind *lol* *buck*

ist die GPU der PS3 nicht von Nvidia ? ^^

egal, ich hätte auch bissel mehr erwartet vom R600
 
ist die GPU der PS3 nicht von Nvidia ? ^^

egal, ich hätte auch bissel mehr erwartet vom R600

Jo, ist angeblich ein 7900-Derivat. Die Wii-GPU ist von ATI, aber die sollte die "Kanadier" nicht sonderlich viel Entwicklungszeit gekostet haben. Ist nur eine aufgebohrte Version des GC-Designs.
 
hmm dachte bei ner ps3 würde alles von den cells gemacht ... oder täusch ich mich da komplett...
 
[Wook]Demogorg;3177910 schrieb:
hmm dachte bei ner ps3 würde alles von den cells gemacht ... oder täusch ich mich da komplett...



PS3 - 7800GT (in etwa)
XBox 360 - x800 (GTO?)


Im 3Dcenter gibt es eine schöne Diskussion mit Links zu Computerbase(?) wo alles genau erklärt wird...
 
Zuletzt bearbeitet:
Ja wow... 6 Monate für ne Ecke. Stimmt das ist natürlich dann vollkommen falsch das man schreibt das ATI die Performance Krone verpasst hat. IRONIE. Und sie ist vollkommen für DX10 ausgelegt und rockt dann alles weg *wieder Ironie*

Die ironie kannst du ruhig stecken lassen. War ja schliesslich nvidia die immer wieder darauf hingewiesen haben, die erste D3D10 karte auf dem markt zu haben - wofür denn?
Die XT kommt da zu liegen wo sie sein muss wenn AMD noch ein XTX teil auf den markt bringen will - ultra hin oder her, ganz besonders wenn der preis stimmt.

Deshalb ist der Hard Tecs 4U titel für diesen artikel auch völlig daneben, aber das wundert mich mittlerweile auch nicht mehr wirklich.

Bis DX10 Titel kommen hat NVidia schon wieder ne neue Grakageneration rausgehauen.

Ich glaube, da hast du falsch geraten. G90 wird zu G80 was der G70 zum G60 war - aufgebohrt und keine neue archtitektur - oder glaubst du nvidia schmeisst angebliche 4 jahre entwicklung einfach so in die tonne? Und sollte G80 wirklich im D3D10 vergleich wirklich abstinken, dann kann sich das jeder der teuer geld für "die erste D3D10 karte" ausgegeben hat, an die brosche nageln. Tolle wurst.

Also entweder liegt die Verzögerung daran das sie für PS3 und XBox360 noch Chips gemacht haben (was ja auch gut ist da es ihnen guten absatz bringt) ODER wegen der AMD Übernahme, ODER wegen beidem. ODER weil sie doof sind *lol* *buck*

Weil ATI sich durch die übernahme durch AMD nicht über nacht ändert. So war das ja seit jahren und hoffentlich mistet AMD den stall nun endlich aus.
 
Die ironie kannst du ruhig stecken lassen. War ja schliesslich nvidia die immer wieder darauf hingewiesen haben, die erste D3D10 karte auf dem markt zu haben - wofür denn?
Die XT kommt da zu liegen wo sie sein muss wenn AMD noch ein XTX teil auf den markt bringen will - ultra hin oder her, ganz besonders wenn der preis stimmt.

Deshalb ist der Hard Tecs 4U titel für diesen artikel auch völlig daneben, aber das wundert mich mittlerweile auch nicht mehr wirklich.



Ich glaube, da hast du falsch geraten. G90 wird zu G80 was der G70 zum G60 war - aufgebohrt und keine neue archtitektur - oder glaubst du nvidia schmeisst angebliche 4 jahre entwicklung einfach so in die tonne? Und sollte G80 wirklich im D3D10 vergleich wirklich abstinken, dann kann sich das jeder der teuer geld für "die erste D3D10 karte" ausgegeben hat, an die brosche nageln. Tolle wurst.



Weil ATI sich durch die übernahme durch AMD nicht über nacht ändert. So war das ja seit jahren und hoffentlich mistet AMD den stall nun endlich aus.


Irgendwie geht ihr in meinen Augen beide zu viel von Spekulationen aus.

Kein Mensch weiß genau wie sich die die Karten von nvidia und ATI in einem tatsächlich DX 10 unterstützenden Spiel schlagen. Man muß einfach abwarten.
Möglicherweise sind die nvidia Karten doch nicht so schlecht.

Auch kann man keine Aussage darüber treffen wie hoch der Preis für die noch zu erwartendenden ATI Karten sein wird. Mithin kann man auch nichts über das Preis-Leistungs Verhältnis sagen.

Immer abwarten und Tee trinken.

Das einzige was wir bis jetzt mit Sicherheit sagen können, ist dass die 8800GTX im Schnitt besser als die einzige bisher getestete ATI Karte ist. Nicht mehr, nicht weniger.
Lassen wir uns also überraschen wie sich ATIs zukünftiges Topmodell ggüber dem von nvidia schlägt.

MfG der BarBart
 
w
aber ich finde auch man sollte nicht unter vista testen, wo eh noch nix ausgereift läuft (ja dx10 )...dämlich sowas.
gegen die ultra siehts aber für die xtx sicher auch nicht so rosig aus.
preis/leistung stimmt auf jeden fall denke ich bei der xt.
also die überschrift find ich jedenfalls echt daneben.


mfg

Beschwer dich bei Hardtecs4u ob der Nichtangabe der Benches in der CT wurde auch unter WinXP getestet
 


PS3 - 7800GT (in etwa)
XBox 360 - x800 (GTO?)
Wird zwar jetzt stark OT, aber so stehenlassen kann ich das nicht ;)
Die XBOS 360 hat den Ati Xenos drin, auch bekannt als R500. Ist schon ein Unified-Shader-Chip, also mit dem R600 stärker verwandt als die X1900-Generation.
 
Hi,

die HD 2900 XT ist ein Zwitter im Test schlägt sie die GTX nicht bis auf im DirectX10 Benchmark. Die GTX hat sie weitgehend im Griff.
Alles steht natürlich unter dem Vorbehalt, dass nicht doch noch Treiber ein wenig mehr herauskitzeln. Und das Problem von AMD bereits kundgetan mit Transparanz Anti-Aliasing (damit wurde getestet), was derzeit mit R600 noch nicht funktioniert bzw. deutlich zu viel Performance frisst, durch einen neuen Treiber in den Griff ...noch funktioniert das Feature wie unter allen anderen OpenGL-Anwendungen nicht), wofür aber seitens ATI der Hinweis vorliegt, daß dieses derzeit beim R600-Chip noch nicht sauber funktioniert bzw. deutlich zu viel Performance frisst ...

Dennoch denke ich, der Preis entscheidet in diesem Fall, wessen Gegenspieler sie ist oder ob sie vielleicht gar keinen direkten Gegenspieler auf Nvidias -Seite hat.

Im Vorgriff auf weitere Benchmarks wäre ein Preis zwischen der GTS und unterhalb der GTX eine "gute" Sache.

Interessant ist zudem die Lautstärke und der Verbrauch einer solchen Karte, darüber werden erst die nächsten Tagen Aufschluss geben.


Greetz
neax;)
 
Wird zwar jetzt stark OT, aber so stehenlassen kann ich das nicht ;)
Die XBOS 360 hat den Ati Xenos drin, auch bekannt als R500. Ist schon ein Unified-Shader-Chip, also mit dem R600 stärker verwandt als die X1900-Generation.

Mach ruhig OT. Schnallen tun es die meisten sowie nicht... 8-(
 
Laut c't hat sie einen fast doppelt so hohen Stromverbrauch (Spitzen-Leistungsaufnahme: ca. 215 Watt) wie die 8800 GTS. Das wäre natürlich schon ein ziemliches K.O-Kriterium...
 
Noch ein Test gibts bei cb
"Wenn ich mir ne GK von sonem Kaliber kaufen würde, bekäme aber eher eine der 8800 GTS den Vorzug"
 
Zuletzt bearbeitet:
mal ehrlich, wen interessiert die DX10 Performance im Moment? In den nächsten 1,5-2 Jahren kommen alle neuen Games garantiert noch mit einem separaten DX9 Pfad. Bis dahin wird Nvidia eine neue Architektur ins Rennen werfen.

Für mich ist einmal der Stromhunger wichtig. Mit meinem OCZ 420W Netzteil sollte eine 8800GTX zu betreiben sein, bei ATI müsste ich wohl auch in ein neues NT investieren. Zusätzlich spiele ich fast ausschliesslich noch MMORPG, bei denen die Grafikengines eh hinterherhinken. Da rechne ich frühestens in 2 Jahren mit einem echten DX10 Titel, eher später wegen der ewigen Entwicklungszeiten. Und ob der mich dann überhaupt anspricht steht auch nicht fest. Ich hoffe vielmehr, daß die neue ATI die Preise der NVidias mit nach unten zieht.

Zusätzlich wäre es aus Marketingsicht wichtig gewesen, zumindest vorrübergehend die Performancekrone zu holen. Offensichtlich scheint ja bei den Midrangekarten ATI die Nase vorn zu haben, aber der Ottonormalverbraucher vergleicht nunmal oft anhand der Grafikboliden und holt sich dann lieber die NVidia - "da die ja zur Zeit die Besten sind".

Aus desen Gründen glaube ich, daß es für ATI ganz klar nicht der große Wurf ist, egal wie die DX10 Performance irgendwann ausschaut. ATI muß jetzt das Geld verdienen, um für die Zukunft investieren zu können....
 
Zurück
Oben Unten