Vergleich: X800SE vs. X800XT vs. X1800XL

Redphil

Grand Admiral Special
Mitglied seit
13.02.2004
Beiträge
6.415
Renomée
152
Standort
L, FG
  • QMC Race
  • Spinhenge ESL
Hallo,
ich habe mir im Laufe der Zeit die drei im Threadtitel genannten GraKas zugelegt. Nun hat mich interessiert, wie sich die Leistung meines Systems durch Nutzen der unterschiedlichen Karten ändert, und da ich so die benchmark-Ergebnisse vorliegen habe, lag der Entschluß nahe, daraus einen Thread zu stricken. :) Als Grundsystem kam ein Asrock 939Dual-SATA2 zum Einsatz, so daß auf einem System das Benchen sowohl von AGP- als auch von PCI-E-GraKas möglich war, darauf ein A64 3000+ @265*9, also etwa 2380mhz, 1 GB RAM (lahme Timings).

Zu den Kombattanten ;) :
X800SE (AGP): ein recht beschnittener Vertreter der ATI X800er-Familie, sie hat nur 8 Pixelpipelines und eine geradezu lächerlichen Taktung von 425/400 (GPU/Speicher). Der Originalkühler ist winzig und lärmig, ich habe ihn beizeiten durch einen Zalman vf700 ersetzt.
Die Karte habe ich bei drei Taktungen gebencht, 425/400, 500/500 (direkter Vergleich mit den beiden anderen Karten möglich), 570/530 (damit lasse ich die Karte im Alltagseinsatz laufen).

X800XT (PCI-E): die „Vollversion“ der X800, 16 Pixelpipes, Taktraten von 500/500. Kühler natürlich leistungsfähiger als bei der SE, aber auch nervig laut.

X1800XL (PCI-E): wie die X800XT Takt von 500/500 und 16 Pixelpipes, aber Vertreter einer neuen „Generation“, SM3.0, also mehr „eyecandy“ möglich. Zum Benchen habe ich die Karte per ati-tool auf 625/625 gejagt, der Speicher hat das aber nicht sonderlich gemocht, also läuft sie erstmal wieder auf Standardtakt (zwei bench-Ergebnisse habe ich ausgelassen). Zudem war fürs oc'en ein Erhöhen der Spannung der GPU auf 1,225 V (von 1,075 V) und des Speichers auf 2,116 V (von 1,889 V) nötig, das hat die ohnehin immense Wärmeabgabe der Karte nochmal erhöht, und zwar in Bereiche, die mir Angst einjagten.

Alle Karten haben 256 MB Speicher, alle wurden für um die 200 Eus bei ebay „erlegt“.
Keine der Karten kam mit einer auf Dauer verwendbaren Kühllösung daher, Stichwort Lärmbelästigung. :-X Grund für den letzten Umstieg war das Verlangen, Oblivion mit HDR zu zocken, und die Hoffnung, daß die X1800XL ordentlichen Übertaktungsspielraum bieten würde.

Hier nun meine "Babys", in wortwörtlich aufsteigender Reihenfolge:
grakas.jpg

Die X1800XL nochmal Solo:
x1800xl.jpg


Zu den verwendeten Benchchmarkproggies:
3dmark01, 03 und 05: unkompliziert, halt immer durchlaufen lassen.
Fear: hier kam die Benchmarkfunktion der MP-Demo zum Einsatz, ich habe den Mittelwert in die Diagramme eingetragen und Min/Max wegfallen lassen.
Unreal Tournament 2004: Immernoch das mir liebste Spiel, habe mit u-mark die ons-timedemo gebencht.
X³: habe die Benchmarkfunktion der rolling-demo verwendet.

Graphik-Einstellungen: alles in 1024er Auflösung (als CRT-Nutzer für mich die einzigst relevante), AA und AF sollten deaktiviert gewesen sein, sonstige Settings möglichst hochgeschraubt. Entsprechend können sich die Grakas oft nicht viel voneinander absetzen, aber diese Einstellungen sind die, die ich auch in der Praxis meistens nutze.

Die Ergebnisse:
3dmark01.jpg

Hier limitiert das Restsystem, Unterschiede sind minimal.

3dmark03.jpg

Eine deutliche Staffelung ist erkennbar, die fehlenden pipes der X800SE schlagen doch erkennbar durch, die X1800XL ist nochmal um einiges flotter als die X800XT.

3dmark05.jpg

Das Szenario des 03ers noch ausgeprägter, die X1800XL scheint ordentlich von ihrem fortschrittlicheren Shadermodell zu profitieren, übertaktet legt sie nochmal um einiges zu.

fear.jpg

Die X800SE relativ abgeschlagen, die X800XT macht eine gute Figur. Keine Ahnung, weshalb hier die übertaktete X1800XL schlechter lief als auf Normaltakt.

ut04.jpg

Die GraKas können sich hier überhaupt nicht voneinander absetzen, offensichtlich CPU-limitiert.

x3.jpg

Sehr konstanter frameratenzuwachs, aber auf relativ geringem Niveau.


Fazit: In synthetischen Benchmarks gibt es deutliche Unterschiede, in der praktischen Anwendung (sprich: beim zocken) fallen diese meist geringer aus. Für meine Ansprüche würden eigentlich alle drei Karten ausreichen. *suspect* Selbst die X800SE hat sich trotz halber Pixelpipezahl meist wacker geschlagen.

Den Hauptzweck der Neuanschaffung, Oblivion inkl. eye-candy (sprich vor allem mit hdr) genießen zu können, erfüllt die X1800XL überzeugend. Deswegen zum Abschluß noch der Vergleich Oblivion X800XT (Quali automatisch einstellen lassen, kein HDR) vs. X1800XL (ebenfalls automatische Quali-Einstellung, HDR).

X800XT:
800%201.jpg

X1800XL:
1800%201.jpg

X800XT:
800%202.jpg

X1800XL:
1800%202.jpg
 
Zuletzt bearbeitet:
Hallo,

ich bin zur Zeit etwas am umsehen nach ner neuen GraKa und für mich steht schon fest, dass es ne X800 wird, nur das genaue Modell ist noch unklar. Da finde ich solche Threads sehr sinnvoll. Danke dafür!

Eine Frage:
Was denkst du, wie die Ergebnisse ausgesehen hätten, wären alle Karten auf dem gleichen Interface gelaufen, also z.B. alles AGP Karten?

Ciao
Phil
 
Eine Frage:
Was denkst du, wie die Ergebnisse ausgesehen hätten, wären alle Karten auf dem gleichen Interface gelaufen, also z.B. alles AGP Karten?

Ich kann mir nicht vorstellen, daß das einen Unterschied gemacht hätte, AGP ist afaik auch bei neuen GraKas nicht ausgereizt.
 
Hallo,

ich bin zur Zeit etwas am umsehen nach ner neuen GraKa und für mich steht schon fest, dass es ne X800 wird, nur das genaue Modell ist noch unklar. Da finde ich solche Threads sehr sinnvoll. Danke dafür!

Eine Frage:
Was denkst du, wie die Ergebnisse ausgesehen hätten, wären alle Karten auf dem gleichen Interface gelaufen, also z.B. alles AGP Karten?

Ciao
Phil

Die X800er ist auf jeden Fall eine gute Wahl. Frage nur: warum willste dir eine holen? Ich würde zu einer GeForce 6800 (GT / GS) greifen. Ist zwar jedem selbst überlassen, aber auf ShaderModel 3 möchte ich nicht mehr verzichten.
 
Hi,

sorry für OT. Nur ne kurze Antwort auf die Frage:
Die X800er ist auf jeden Fall eine gute Wahl. Frage nur: warum willste dir eine holen? Ich würde zu einer GeForce 6800 (GT / GS) greifen. Ist zwar jedem selbst überlassen, aber auf ShaderModel 3 möchte ich nicht mehr verzichten.
Bitte jetzt hier keine große Nvidia vs. ATI Diskussion anfangen (wenn dann in nem neuen Thread), nur: Mein Grund für die x800er Reihe ist, dass sie von ATI ist und ich keine Nvidia Grafikkarten mehr kaufe, seitdem sie mal gesagt haben, dass sie "führender Hersteller in der TCPA Technologie" sein wollen. Ich weiß, ATI sitzt da auch mit im Boot, aber das ist noch weitaus weniger schlimm als diese Aussage von Nvidia. Und wer jetzt wirklich darüber diskutieren will, der nehme Rücksicht auf den Threadersteller und poste es nicht hier sondern in einem neuen Thread.

Ciao
Phil
 
Nee, darum ging es mir selbst auch nicht. Ich hole mir auch immer die karte, die mir in meinen Augen die beste Performance liefert. Der Chiphersteller ist mir da sowas von egal.

Bin auch für neue Grafiklösungen von Matrox offen, wenn die aus ihren Parhelia Debakel gelernt haben.

Du hast die Intention meines Postings total falsch verstanden. Ob ATi oder nVidia...ist genauso wie BMW oder Benz, Kaffee von Tschibo oder Eduscho. Glaubensfrage!!!

War eben nur so ein Gedankengang von mir. Denn Oblivion mit SM3 oder Schlacht um Mittelwerde mit SM3 sieht schon echt geil aus.

Ich möchte es nicht mehr missen.
 
Fazit: In synthetischen Benchmarks gibt es deutliche Unterschiede, in der praktischen Anwendung (sprich: beim zocken) fallen diese meist geringer aus. Für meine Ansprüche würden eigentlich alle drei Karten ausreichen. *suspect* Selbst die X800SE hat sich trotz halber Pixelpipezahl meist wacker geschlagen.
Bei 1024x768 ohne AA/AF wundert mich das auch nicht... Also wenn das deine meistgenutzten Alltagseinstellungen sind, dann ist die 1800XL Overkill (Oblivion mal ausgenommen). Versuchs mal mit AA/AF ;)
 
Bei 1024x768 ohne AA/AF wundert mich das auch nicht... Also wenn das deine meistgenutzten Alltagseinstellungen sind, dann ist die 1800XL Overkill (Oblivion mal ausgenommen). Versuchs mal mit AA/AF ;)
Schon klar. ;) Mir sind halt immer noch die fps wichtiger als glatte Kanten und Filterung, deswg. lasse ich das idR weg. Auch klar, das das bei modernen GraKas eigentlich kaum mehr relevant ist, eher ein mentales Problem meinerseits. *suspect*
 
Sehr interessant,

jedoch finde ich die HDR Gamescreens nicht wirklich besser,
eher im Gegenteil, erscheint mir zu grell und unnatürlich.

Im Prinzip reicht also immer noch ne x800xl/xt für alles.
 
also ich habe auch ne x800 xl gehabt und jetzt ne 1800 xl und muss sagen,dass der Unterschied nicht so groß ist und an der Quali fast garnicht zu merken,aber da ist ja noch die Leistung und bei Quake und anderen sehr aufwendigen Spielen,lief die 800er nicht mehr flüssig und das hat doch sehr gestört.Die 1800er läuft einwandfrei.

Deshalb kann man sagen,dass die 800er ein auslaufmodel ist und bei den neueren Speilen bald nicht mehr mithalten kann.Aber die 850 xt-pe ist da natürlich noch ausreichend.

Ach ja,das die Bilder jetzt wegen SM 3.0 etwas heller sind,ist nicht immer ein Nachteil,bei Doom 3 z.b. ist es von vorteil,da dort ja auch schon so alles sehr dunkel ist.Und ich finde die dass die Farben bei 1800er sehr viel intensiver sind,bei NFS MW einfach super.
 
Sehr interessant,

jedoch finde ich die HDR Gamescreens nicht wirklich besser,
eher im Gegenteil, erscheint mir zu grell und unnatürlich.

Im Prinzip reicht also immer noch ne x800xl/xt für alles.

IMHO hat HDR auch nicht unbedingt was mit dem SM3 zu tun. Stimme dir aber zu. Klar reicht die X800 aus.
 
Also ich kann Siddy beim besten Willen nicht zustimmen.;D

HDR sieht 100mal besser aus. Viel natürlicher. Außerdem spiele ich gerne mit Sonnenbrille! (Insider)8)

In diesem Sinne

Womble
 
*DemWombelmeineSchweißerbrilleborg*

Kein Problem ;D

Viel natürlicher?

Meine Holzbalken/Marmorstatuen daheim leuchten/blinken/blitzen nicht so.
Davon abgesehen schaut die Dame aus als hätte sie nnen 100 Watt Strahler verschluckt.

Aber jeder so wie er mag ;)

Außerdem ist deine Mittagspause seit 3 Minuten vorbei *baeh*
 
Naju, wenn die gute Frau gut schlucken kann ist alles möglich.

Naja, ist leider schlecht zu beurteilen ohne die Bilder mal in Bewegung gesehen zu haben.

Hoffe, dass ich bald so eine Karte auch zu den Meinigen zählen kann und ein genaueres Urteil dann im stande bin abzugeben:D
 
HDR sieht schon viel besser aus, auch wenn das auf den Screens nicht so rüber kommt. Diesen "Blendeffekt" kann man imho auch weniger grell einstellen.
Die meisten verzichten zugunsten von HDR sogar (gezwungenermaßen) auf FSAA.
 
Zurück
Oben Unten