Neuer Artikel: Sapphire Radeon Hybrid X1800 XT 512MB

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<center><a href="http://www.planet3dnow.de/artikel/hardware/sapphire_x1800xt/"><img src="http://www.planet3dnow.de/artikel/hardware/sapphire_x1800xt/img/titel.png" border="1"></a></center>Auf der momentan in Hannover "tobenden" CeBIT überbieten sich NVIDIA und ATI momentan wieder mit neuen Grafik-Chips. X1800 GTO, X1900 XTX, GeForce 7900 und so weiter. Dem Anwender kann's nur recht sein, denn damit rutschen jene Grafikkarten, die bisher als Topmodell entsprechend teuer gehandelt wurden, plötzlich in erschwingliche Regionen. Einer dieser Kandidaten ist die Sapphire Radeon Hybrid X1800 XT, die sich Autor AMD-Hammer im heutigen Artikel genauer angesehen hat:<ul><li><a href="http://www.planet3dnow.de/artikel/hardware/sapphire_x1800xt/"><b>Sapphire Radeon Hybrid X1800 XT 512MB</b></a></li></ul>Viel Vergnügen beim Lesen...
 
könnt ihr die karte bitte auch mal unter linux testen?
weil ich würde schon gern wissen wie weit der ati treiber nun ist ...
 
Aus dem Fazit:

Das hat uns gefallen :-)

* sehr gute Grafikleistung
* gute Übertaktbarkeit
* offizielles Overclocking BIOS
* sehr hohe Grafikqualität
* sehr hohe AA und AF Qualität
* Treiberprobleme bei einigen Spielen :]

Haben euch die Treiberprobleme wirklich gefallen ??? ;)


PS: Interessanter Artikel, hat mich neugierig gemacht....
 
Zuletzt bearbeitet:
Ich finde den Artikel auch sehr lesenswert :) auch wenn ich noch kein PCIe habe, aber man muss ja auf dem Laufenden bleiben *g*

DANKE :)
 
Interessanter Test, schön auch mal wieder hier GraKa-Tests lesen zu können. :)

Ansonsten:
Gibts eine Erklärung für die doch immermal unterschiedlichen Werte xp pro / xp home und dafür, daß die geocte x1800 xt z.B. im 3dmurks01 schlechter als die reguläre Variante abschnitt? Bei letzterem wäre imho noch interessant, ob dies anders wäre, wenn man die reguläre Karte einfach ohne das Bios auf die entsprechenden Werte ocen würde.

Auf der Schlußseite des Artikels fehlt mir der Link zum Kommmentarforum.
 
ATITool z.B. kann da Abhilfe schaffen. Das mit dem Lüfter haste aber schon vor dem Kauf gewusst, oder etwa nicht.. :P

Edit: Hmm, wo ist denn der Post vor mir hin..
 
Zuletzt bearbeitet:
Ich sitz hier auf heissen Kohlen, da selbiges Modell aus der Produktion von Connect 3D eigentlich jede Minute angeliefert werden sollte...

Leider hat meine 68GT AGP ja den Geist aufgegeben, dummerweise auch noch, bevor sich die erwarteten Preissenkungen voll auswirken, ich habe noch 359€ bezahlt, bzw werde es gleich müssen. Postbote MACH HIN! ;D
 
ich habe mir vor 2 tagen eine Connect3D X1800XT gegönnt. es entspricht vom design her der sapphire.
die performance ist sehr gut, texturqualität ebenso...aber...

ich empfinde es als überaus deutlichen mangel wenn grakas dieses marktsegmentes, mit so schlechten kühlerlösungen auf den konsumenten losgelassen werden.

eine kühlerlösung sollte nicht nur seinen zweck, sprich kühlen erfüllen sondern auch entsprechend dem stand der technik seinen besitzter nicht durch übermäßigen lärm
schädigen.

dabei spreche ich ATI und nvidia genauso an.wenn man mit dieser situation nicht klar kommt
bleibt einen letzlich nur auf diese karten zu verzichten, oder auf eigenes risiko mit besseren leiseren kühlern mit garantieverlust umzurüsten oder ein verbessertes exemplar zb. von maddmaoxx zu ordern.

ich denke das mal ein umdenken der grakahersteller in diesem kundensinne von nöten währe.

es gibt ja ansätzte zb. von gigabyte ( 7800GT mit zalmann) oder aufwendige heatpipelösungen von Asus...für sehr viel aufpreis oder einer verfügbarkeit die auf Yetiniveau liegt.

in diesem sinne werde ich die nächsten tage ( werde die karte ordentlich stressen )
wohl auf eigenes risiko mit einem Zalmann VF700 umrüsten..... leider 8-(
 
Zum Artikel muß ich leider ein paar kritischen Anmerkungen machen. Nehmen wir nur mal die Seite mit den BF2-Tests:

- welche Auflösung wurde gebencht?

- was soll die Angabe Win XP Home oder Pro? Sollte ja an sich keinen Unterschied machen, aber wenn doch einer da ist, liegt es an unterschiedlichen Systemen (in Hard- oder Software). Damit fiele die Vergleichbarkeit natürlich weg, besonders, da die Unterschiede der Karten eh nciht sehr groß sind.

- Man kann Ati-Karten zwar mit 6xAA testen, aber bei Geforce geht das nicht, also habt Ihr entweder mit 4x getestet (wäre ein Vorteil für Nvidia) oder mit 8xS, also 4x mit 2x Supersamplinganteil (wäre ein Nachteil für Nvidia). Korrekterweise kann man eigentlich nur beide Karte auf 4x stellen, weil das der einzige vergleichbare Modus ist.

- Was sollen die Screenshots aussagen? Erstens sind die viel zu klein, um darauf mehr zu erkennen als daß es wohl aus BF2 stammt, und zweitens steht überhaupt nicht dran, was welche Karte ist. Übrigens ist das sowieso dasselbe JPG ;)

- Wie sind die sonstigen Einstellungen im Spiel (nur "maximal" ist etwas wenig)? Wurde TransparentAA bzw- AdaptiveAA aktiviert, wenn ja in welcher Stufe? Wurde bei Ati Area-AF (also das neue mit weniger Winkelabhängigkeit) benutzt?

Also sorry, aber wirklich erstklassig ist der Artikel nicht, auch wenn vielleicht ein paar interessante Sachen drin stehen.
 
Im Artikel werden 512 MB Grafikspeicher angegeben, auf der im Artikel abgebildeten Verpackung steht 256 MB wenn ich das richtig erkannt habe.???
 
Das hat mir gefallen :-)

- Auswahl der Benchplattform

- Benchmarks Home vs. Pro

Das hat mir nicht gefallen :-(

- in der Tabelle der technischen Daten wurden die Werte für die Pixelfüllrate und die Bandbreite für die XP-PE 1:1 von der XT übernommen und nicht auf die neuen Taktraten angepasst

- die verwendeten Treiber sind zu alt: während auf ATI Seite der 5.11er ja noch halbswegs durchgeht, ist die Verwendung des 66.93 für die NVidia Karte doch hoffentlich nur ein schlechter Scherz

- zu viele theoretische Benchmarks

- welche Treibereinstellungen habt ihr vorgenommen? Quality oder High Quality, mit oder ohne Optimierungen bei NV? Area-AF oder default bei ATI? Falls ATI default vs. NVidia default gebencht wurde ist die Bildqualität und somit auch die fps nicht vergleichbar

- warum macht ihr euch einerseits die Mühe Home und Pro zu benchen, verliert dann aber keinen Satz mehr über die Ergebnisse?

/edit: als Partner Website vom 3DCenter ist euch hoffentlich auch dieser Artikel bekannt?!
 
Zuletzt bearbeitet:
Wieder ein Test ohne Karten der Vorgängergeneration. Für Leute die überlegen aufzurüsten und gerne einen Leistungszuwachs vergleichen würden unbrauchbar. :(
 
Pro:

- Vergleich mit "nicht optimierten" Benchmarks.

- Aktuelle Spiele gebencht.

Contra:

- Keine Angaben über die eingestellte Auflösung bei den Spielen.

- Nur 2 aktuelle Spiele im Test.

- Kein Vergleich mit Karten der Vorgängergeneration, dadurch hilft einem der Test nicht weiter, wenn man aufrüsten will.
 
Statt 3Dmark2001 fände ich den 3Dmark2006 wünschenswert, dann können zukünftige Tests bei P3D darauf aufbauen. Eine Standardeinstellung, die auch bei anderen Seiten wie Toms Hardware oder Computerbase verwendet wird, wäre auch sinnvoll, ich schlage vor, 1280x1024 bei 4AA 8AF oder 16AF. Müsste man mal schauen, was das Schlaueste wäre.
 
Zuletzt bearbeitet:
mich würden 2 Dinge interessieren:

1) welche Maße hat diese Grafikkarte? Ich möchte mal messen, ob sie in meinen Tower passen würde, aber ich finde nirgends die Maße.

2) jemand hat weiter oben etwas über den zu erwartenden Preisverfall geschrieben. Wie weit unter die 350 EUR Marke wird man denn hoffen dürfen in den nächsten 3-4 Wochen?

Gruß
SubZero
 
mich würden 2 Dinge interessieren:

1) welche Maße hat diese Grafikkarte? Ich möchte mal messen, ob sie in meinen Tower passen würde, aber ich finde nirgends die Maße.

2) jemand hat weiter oben etwas über den zu erwartenden Preisverfall geschrieben. Wie weit unter die 350 EUR Marke wird man denn hoffen dürfen in den nächsten 3-4 Wochen?

Gruß
SubZero

ad 1: Die Karte ist ultralang. Stößt an den Festplatten an, besonders wenn du einen AC Silencer drauf bauen würdest. Steht aber im Artikel, glaub ich.

ad 2: Da tut sich nicht viel, bei dem Leistungspotential, jedenfalls nicht in 3-4 Wochen. Für 390,- ist die eh' kaum zu bekommen, eher für über 400
 
Der verantwortliche Schreiberling verweilt aktuell noch auf der CeBIT, wundert euch daher bitte nicht, wenn es mit der Beantwortung der Fragen noch etwas dauern kann :).
 
So da ich gerade noch ne freie Minute habe, bevor ich mich wieder ins CeBIT Getümmel stürze versuche ich nun alle eure Fragen zu beantworten.

könnt ihr die karte bitte auch mal unter linux testen?
weil ich würde schon gern wissen wie weit der ati treiber nun ist
Wir werden versuchen dies in die nächsten Grafiktest mit einzubinden! Hast du denn irgendwelche bestimmten Vorstellungen was du gebenched haben willst?

welche Auflösung wurde gebencht?
Alle Benchmarks und Spiele wurde in der Auflösung 1024x768 durchgeführt, da dies meiner Meinung nach, noch die meist benutzte Auflösung bei Spielen ist.

was soll die Angabe Win XP Home oder Pro? Sollte ja an sich keinen Unterschied machen, aber wenn doch einer da ist, liegt es an unterschiedlichen Systemen (in Hard- oder Software). Damit fiele die Vergleichbarkeit natürlich weg, besonders, da die Unterschiede der Karten eh nciht sehr groß sind
Die Unterschiede, die teilweise bei den Benchmarks auftreten sind eindeutig keine Hard- oder Software Probleme, denn die Test wurden auf dem 100% identischen System durchgeführt. In einem späteren Artikel werden wir uns sicherlich noch einmal mit diesem Phänomen befassen und schauen wo der "Hund" begraben liegt. Stay Tuned ;)

Man kann Ati-Karten zwar mit 6xAA testen, aber bei Geforce geht das nicht, also habt Ihr entweder mit 4x getestet (wäre ein Vorteil für Nvidia) oder mit 8xS, also 4x mit 2x Supersamplinganteil (wäre ein Nachteil für Nvidia). Korrekterweise kann man eigentlich nur beide Karte auf 4x stellen, weil das der einzige vergleichbare Modus ist
Das müsste ich noch mal in meinen Unterlagen (die jetzt leider nicht in Hannover sind) nachschlagen, aber eigentlich haben wir alles mit 6xAA und 16xAF getestet ???

Wie sind die sonstigen Einstellungen im Spiel (nur "maximal" ist etwas wenig)? Wurde TransparentAA bzw- AdaptiveAA aktiviert, wenn ja in welcher Stufe? Wurde bei Ati Area-AF (also das neue mit weniger Winkelabhängigkeit) benutzt?
In den Spielen wurde alles bis zum maximum hoch gedreht! Das ist alles was wir gemacht haben!

Im Artikel werden 512 MB Grafikspeicher angegeben, auf der im Artikel abgebildeten Verpackung steht 256 MB wenn ich das richtig erkannt habe
Die Grafikkarte hat einen Grafikspeicher von 512 MB, das ist korrekt! Unglücklicherweise ist das Foto, was ich von der Verpackung gemacht habe verschollen gegangen (Ich weis echt nicht mehr wo ich es gespeichert habe)! Deswegen habe ich das Foto von der SAPPHIRE Homepage genommen. Hab aber ehrlich gesagt nicht darauf geachtet, dass da 256 MB drauf steht... da haste mich wohl erwischt ;)

in der Tabelle der technischen Daten wurden die Werte für die Pixelfüllrate und die Bandbreite für die XP-PE 1:1 von der XT übernommen und nicht auf die neuen Taktraten angepasst
Die Pixelfüllrate und die Bandbreite stammt aus einem Datenblatt der Grafikkarte. Die Werte habe ich leider nicht noch einmal getestet, bzw. gemessen. Sorry... :(

zu viele theoretische Benchmarks
Warum zu viele? ???

welche Treibereinstellungen habt ihr vorgenommen? Quality oder High Quality, mit oder ohne Optimierungen bei NV? Area-AF oder default bei ATI? Falls ATI default vs. NVidia default gebencht wurde ist die Bildqualität und somit auch die fps nicht vergleichbar
Wir haben keine Optimierungen an den Karten oder deren Einstellungen vorgenommen, da dies meiner Meinung nach die Karten nicht mehr vergleichbar macht. Zudem sind das die ersten "neuen" Grafikkartentest auf P3D und wir bauen uns nun eine neue Werte-Datenbank auf.

warum macht ihr euch einerseits die Mühe Home und Pro zu benchen, verliert dann aber keinen Satz mehr über die Ergebnisse?
Dazu wird mit ziemlicher Sicherheit noch ein "Sonderartikel" erscheinen, der sich mit diesem Thema befasst *siehe oben*

Wieder ein Test ohne Karten der Vorgängergeneration. Für Leute die überlegen aufzurüsten und gerne einen Leistungszuwachs vergleichen würden unbrauchbar.
Dein Frust ist gut nachzuvollziehen, aber da wir in diesem Test auf ein neues GraKa-Testsystem gewechselt sind, sind alle bisher dagewesenen Werte sowieso unbrauchbar. In Kürze werden weitere Grafikkartenartikel erscheinen, die dann eine Vergleichbarkeit der Karte erleichtern... Stay Tuned ;)

Nur 2 aktuelle Spiele im Test
Ich werde versuchen in den kommenden Tests mehr Spiele einzubeziehen...

Kein Vergleich mit Karten der Vorgängergeneration, dadurch hilft einem der Test nicht weiter, wenn man aufrüsten will.
Wie schon oben angemerkt, haben wir in diesem Test ein neues Benchmarksystem verwendet, wodurch die letzten Tests samt Ergebnisse leider nicht mehr vergleichbar wurden... In kürze werden neue Artikel erscheinen!

Statt 3Dmark2001 fände ich den 3Dmark2006 wünschenswert, dann können zukünftige Tests bei P3D darauf aufbauen. Eine Standardeinstellung, die auch bei anderen Seiten wie Toms Hardware oder Computerbase verwendet wird, wäre auch sinnvoll, ich schlage vor, 1280x1024 bei 4AA 8AF oder 16AF. Müsste man mal schauen, was das Schlaueste wäre.
Ich werde in den folgenden Tests 3DMark 2006 mit aufnehmen und werde auch noch die X1800XT sowie die XT OC/PE nachbenchen. Trotzdem wird der 3D Mark 01 erhalten bleiben.
<hr>

So ich hoffe ich habe jetzt niemanden in der Eile übersehen und vergessen!! Zudem hoffe ich, dass ich die Fragen zur Zufriedenheit aller beantworten konnte.
 
Die Unterschiede, die teilweise bei den Benchmarks auftreten sind eindeutig keine Hard- oder Software Probleme, denn die Test wurden auf dem 100% identischen System durchgeführt. In einem späteren Artikel werden wir uns sicherlich noch einmal mit diesem Phänomen befassen und schauen wo der "Hund" begraben liegt. Stay Tuned ;)

Sehr interessant, ich denke mal, dass kann nur an unterschiedlich vielen aktivierten Diensten liegen, denn das ist doch wohl der einzige Unterschied der beiden Versionen.?!

Das müsste ich noch mal in meinen Unterlagen (die jetzt leider nicht in Hannover sind) nachschlagen, aber eigentlich haben wir alles mit 6xAA und 16xAF getestet ???

Leider sind die AA-Modi von nVIDIA und ATI oft nicht hundertprozentig vergleichbar, auch wenn dies den Bezeichnungen nach so scheint..!


Weil theoretische Benchmarks eben kaum einen echten Rückschluss auf die diversen Spiele zulassen, auch wenn die Wahl an PVR-Benchmarks sehr interessant ist!
Fände es daher besser, wenn man ein paar weitere Spiel hinzunimmt, vor allem paar weniger erfolgreiche auf die die Hersteller natürlich ihre Treiber optimieren.

Wir haben keine Optimierungen an den Karten oder deren Einstellungen vorgenommen, da dies meiner Meinung nach die Karten nicht mehr vergleichbar macht. Zudem sind das die ersten "neuen" Grafikkartentest auf P3D und wir bauen uns nun eine neue Werte-Datenbank auf.

Das ist wohl falsch, denn gerade bei nVIDIA muss man im Treiber wohl schon HIQH-Quality aktivieren um auf die Standard-Bildqualität der ATI-Karten zu kommen. Bei selbigen hat man dann leider kaum eine Wahl mit dem AI, da durch dessen Deaktivierung auch echte Optimierungen deaktiviert werden und die Karten so mitunter deutlich Leistung einbußen (schwieriges Thema, ich weiss...)



Ich werde versuchen in den kommenden Tests mehr Spiele einzubeziehen...

Welche? Vorschlag: Mach eine kleine Umfrage, in der paar Spiele angeboten werden, so daß sich die Community neben den "Standard-Spielen" noch ein paar kleinere als Benchmarks wählen kann...




Ich werde in den folgenden Tests 3DMark 2006 mit aufnehmen und werde auch noch die X1800XT sowie die XT OC/PE nachbenchen. Trotzdem wird der 3D Mark 01 erhalten bleiben.

Find ich gut, meiner Meinung nach sollten selbst so aktuelle Karten auch mit älteren Sachen gestestet werden, also neben den diversen 3DMarks auch beispielsweise UT2004 etc....
 
So ich hoffe ich habe jetzt niemanden in der Eile übersehen und vergessen!! Zudem hoffe ich, dass ich die Fragen zur Zufriedenheit aller beantworten konnte.

auf meine 2 Fragen hast du noch nicht geantwortet (wobei ich nicht weiss, ob du zu der 2. Frage überhaupt etwas sagen kannst, da das ja nicht von dir kam) ;-)

hier also nochmal:

1) welche Maße hat diese Grafikkarte (in cm)? Ich möchte mal messen, ob sie in meinen Tower passen würde, aber ich finde nirgends die Maße. Und wenn du das schon so im Test hervorhebst, gibts da bei mir evtl. Probleme.

2) jemand hat weiter oben etwas über den zu erwartenden Preisverfall geschrieben. Wie weit unter die 350 EUR Marke wird man denn hoffen dürfen in den nächsten 3-4 Wochen?

Gruß
SubZero
 
2) jemand hat weiter oben etwas über den zu erwartenden Preisverfall geschrieben. Wie weit unter die 350 EUR Marke wird man denn hoffen dürfen in den nächsten 3-4 Wochen?

Das kann niemand mit Gewissheit sagen, das wäre ein Fischen im Trüben, ein Schuss ins Blaue, wie Legen von Tarrot-Karten oder das Befragen eines Orakel ;D.
 
Öhm, das ist jetzt vielleicht ein wenig eigensinnig, aber könntet Ihr, so es denn machbar ist, den Test erweitern und die Avivo Features (besonders XCode) auch unter die Lupe nehmen, am besten wäre natürlich ein Vergleich mit anderen X1K Karten.

Wenn ich mal davon absehe, dass ich gerade deswegen am überlegen bin eine 1300er als reine XCode Karte in einem Rechner zu verbauen und nicht weiss ob sie langsamer ist als eine X16/8/900er, denke ich, dass das Thema auch viele andere interessiert. Also doch gar nicht so eigensinnig. ;)
 
Interessiert also doch keinen, oder wie? ???
 
Öhm, das ist jetzt vielleicht ein wenig eigensinnig, aber könntet Ihr, so es denn machbar ist, den Test erweitern und die Avivo Features (besonders XCode) auch unter die Lupe nehmen, am besten wäre natürlich ein Vergleich mit anderen X1K Karten.

Wenn ich mal davon absehe, dass ich gerade deswegen am überlegen bin eine 1300er als reine XCode Karte in einem Rechner zu verbauen und nicht weiss ob sie langsamer ist als eine X16/8/900er, denke ich, dass das Thema auch viele andere interessiert. Also doch gar nicht so eigensinnig. ;)

Sorry... ich war nen paar Tage außer Gefecht :(

Ich werde schaun, ob sich da noch was machen lässt zum Thema AVIVO. Kann aber noch nichts festes versprechen... sorry.

sub0 schrieb:
1) welche Maße hat diese Grafikkarte (in cm)? Ich möchte mal messen, ob sie in meinen Tower passen würde, aber ich finde nirgends die Maße. Und wenn du das schon so im Test hervorhebst, gibts da bei mir evtl. Probleme.
Die genauen Ausmaße habe ich mir leider nicht notiert, werde das allerdings nochmal hinterfragen!

sub0 schrieb:
2) jemand hat weiter oben etwas über den zu erwartenden Preisverfall geschrieben. Wie weit unter die 350 EUR Marke wird man denn hoffen dürfen in den nächsten 3-4 Wochen?
Mit ziemlicher Sicherheit werden die Preise der X1800 Karten in den nächsten Monaten fallen!! Das haben uns mehrere Hersteller auf der CeBIT nochmals versichert. Dies ist zum einen eine Reaktion auf die scharfen Preise der neuen GeForce Karten, aber zum anderen auch da die Grafikkarte nicht mehr das Top-Modell darstellt.
Leider kann, wie Campari das schon so passend sagte, weder ich noch ein Oracle noch sonst irgendetwas oder irgendwer sagen wie weit die Preise wann fallen werden!!


EDIT
Vielleicht hilft dir das angehängte Bild ein wenig weiter. Mit Hilfe dieses Bildes und dem Nachmessen an unserem Testboard kann ich dir sagen, dass die Karte zwischen 23-24 cm lang ist
 
Zuletzt bearbeitet:
Sorry... ich war nen paar Tage außer Gefecht :(

Ich werde schaun, ob sich da noch was machen lässt zum Thema AVIVO. Kann aber noch nichts festes versprechen... sorry.

Kein Problem. Dieses Avivo hat zumindestens bis jetzt das Zeug dazu, mehr als eine Marketingsache zu sein. Ich hoffe! :)
 
Zurück
Oben Unten