Neuer Artikel: ASUS Extreme N6600GT PCIe Review

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<center><a href="http://www.planet3dnow.de/artikel/hardware/asus_6600gt/"><img src="http://www.planet3dnow.de/artikel/hardware/asus_6600gt/img/titel.jpg" border="1" height="375" width="500" alt="ASUS Extreme N6600GT PCIe Review"></a></center>
Einige werden diese Karte noch aus dem letzten ausführlichen SLI-Artikel kennen. Dort haben wir zwei dieser Exemplare im Vergleich mit dem Flagschiff von NVIDIA, der 6800 Ultra, gesehen. Im heutigen Artikel wollen wir uns die ASUS 6600GT einmal als solche genauer ansehen.

Auf mehrfachen Wunsch unserer Leser haben wir auch noch eine alte GeForce 4 Ti 4200 als Vergleich mitlaufen lassen, denn die Leser wollen wissen, ob ein Upgrade von einer Ti 4200 Sinn macht oder nicht:<ul><li><a href="http://www.planet3dnow.de/artikel/hardware/asus_6600gt/"><b>Neuer Artikel: ASUS Extreme N6600GT PCIe Review</b></a></li></ul>Viel Vergnügen beim Lesen...
 
Habe die EN6000GT auch. =)

Was die Ti4200 angeht: Im Test war es die letzte Generation, mit AGP 8x. Die ersten Ti4200 hatten noch eine andere Platine und normalen TSOP-Speicher. Dann kam die Asus Ti4200 Deluxe (hatte ich damals gekauft), bei der die GPU auf einer 4600er Platine saß und 3.3ns BGA-RAM nutzte. Die letzte AGP 8x Generation hatte das dann auch. Meine Frage ist, welche Generation denn repräsentativ für eine "echte" Ti4200 ist?
 
Original geschrieben von Keelhaul
Was die Ti4200 angeht: Im Test war es die letzte Generation, mit AGP 8x.
Nein, die im Test war eine AGP 4x Karte.

Allerdings ist die ASUS Variante tatsächlich ein wenig anders getaktet, als eine Standard-Ti-4200. Die ASUS-Karte war ja im Grunde eine heruntergelabelte Ti 4600 und arbeitete mit 250 MHz Core- und 550 MHz Speichertakt. Eine Standard-Ti-4200 arbeitete nur mit 250/500, manche sogar nur mit 250/444. Ferner darf man nicht vergessen, dass es die Ti4200 auch als 64 MB Variante gab, während unsere getestete Version 128 MB hatte. Man kann also sagen, dass unsere getestete Ti4200 der Idealfall einer Ti4200 war, das maximal Mögliche sozusagen, sofern nicht übertaktet wurde. Besitzer von normalen Ti4200 werden in der Regel also schlechtere Werte erhalten.
 
Es amüsiert mich immer wieder wenn 1024x768 als niedrige Auflösung bezeichnet wird. ;D

Interessant wäre auch mal ein Vergleich zu einer 6600 Karte ohne GT.
 
Sicherlich ist es wünschenswert, ein Referenzsystem möglichst identisch zu halten.

Allerdings ist gerade bei einer Sache wie Grafikkarten es sehr bedenklich, nicht die aktuellsten Treiber zu verwenden. Wenn man nForce4 Mainboards mit nForce3 Mainboards vergleicht, wird man schließlich auch für den nForce4 nicht die Treiber verwenden, die es zum Release des nForce3 gab ...

Langfristig kann das also ins Auge gehen, da neue Karten immer erst neue Treiber benötigen, um ihre volle Leistung zu entfalten. Mit dem 67er Treiber mag das in diesem Review noch gehen, aber die aktuellen 75er Treiber bringen z.B. im SLI doch erhebliche Zuwächse. Insbesondere mit neuen Grafikchips (G70, NV47/48 etc.) wird die Sache noch heikler.

Man sollte das Referenzsystem also dahingehend aufweichen, daß zumindest die Grafikkartentreiber aktuell gehalten werden.
 
Bei dem DOOM 3 Benchmark, wurde da unter 1024 die Timedemo genommen?

Bin ein wenig über den Wert erstaunt, da meine in der Timedemo ca. 20 bis 22 Frames rauswirft und ich im Spiel locker auf Ultra spielen kann, allerdings ohne DX 9 :(
 
Finds etwas affig das nur spiele genommen wurden wie Doom3 und HL2... Fehlte nurnoch FarCry... Das sind genau die 3 Games die ich mit meiner 4200 net OPTIMAL spielen kann...

Alle anderen Games von Herr der Ringe schlacht um Mittelerde etc laufen einwandfrei...

1024 und niedrig??? Klar...

Naja ich bin mir 100% sich das meine 4200 in den oben genannten games abkackt aber diese Games (vor allem scheiß doom) werden mich sicher net dazu bringen 200€ rauszuhauen.. und auf HL2 kann ich auchnoch warten.

Test war ein guter ansatz aber ein paar mehr Karten und Games zu Vergleich wären ganz nett...
 
Original geschrieben von xxmartin
Sicherlich ist es wünschenswert, ein Referenzsystem möglichst identisch zu halten.

Allerdings ist gerade bei einer Sache wie Grafikkarten es sehr bedenklich, nicht die aktuellsten Treiber zu verwenden. Wenn man nForce4 Mainboards mit nForce3 Mainboards vergleicht, wird man schließlich auch für den nForce4 nicht die Treiber verwenden, die es zum Release des nForce3 gab ...

Langfristig kann das also ins Auge gehen, da neue Karten immer erst neue Treiber benötigen, um ihre volle Leistung zu entfalten. Mit dem 67er Treiber mag das in diesem Review noch gehen, aber die aktuellen 75er Treiber bringen z.B. im SLI doch erhebliche Zuwächse. Insbesondere mit neuen Grafikchips (G70, NV47/48 etc.) wird die Sache noch heikler.

Man sollte das Referenzsystem also dahingehend aufweichen, daß zumindest die Grafikkartentreiber aktuell gehalten werden.
Naja, man darf nicht vergessen, dass der offizielle NVIDIA-Treiber noch immer auf den Versionsnamen 66.93 hört ;) Insofern sollten wir mit 67.02 noch auf der sicheren Seiten sein 8)
 
Hmm seit 75.90 (heute installiert) ist der Bug beim Abspielen von FMV-Zwischensequenzen sowie ScummVM mit Vollbild endlich weg (ein vertikaler Streifen nah am linken Rand zeigte den Inhalt des äußeren rechten Streifens (EN6600GT, FW 71.xx, 17" TFT)). Hatte jemand das Problem auch?

@Nero24:
Stimmt, die verwendete Ti4200 war eine mit AGP 4x, die gleiche hatte ich auch. Diese waren Hybridkarten (4200er Chip auf 4600er Platine und BGA-RAM (unter dem Ti4200 Aufkleber stand sogar Ti4600). AFAIK hatten "normale" Ti4200 mit 64MB 500MHz Speichertakt, die mit 128MB nur 444MHz.
 
Was mich allerdings erstaunt warum man die Asus Karte kaufen soll, wo die XFX ebenfalls 1.6 ns Speicher, auf 600 Mhz getaktet, verwendet und zudem 2 DVI Anschlüße serienmäßig besitzt und zudem über 20 Euro günstiger ist. ;)
 
Original geschrieben von das_schaf
Es amüsiert mich immer wieder wenn 1024x768 als niedrige Auflösung bezeichnet wird. ;D
In einem Grafikkarten-Review ist 1024x768 eine niedrige Auflösung, in einem Mainboard-Review eine hohe Auflösung. Alles ist relativ ;)

Original geschrieben von Desertdelphin
Finds etwas affig das nur spiele genommen wurden wie Doom3 und HL2... Fehlte nurnoch FarCry... Das sind genau die 3 Games die ich mit meiner 4200 net OPTIMAL spielen kann...
Es wurde auch UT2004 genommen sowie der SpecViewPerf, oder nicht? *noahnung* Nicht zu vergessen die beiden 3DMarks zum virtuellen Sch****vergleich ;) Ich denke das ist ausgewogen genug.
Warum ausgerechnet Doom 3 und HL2? Nun, diese beiden Grafikengines werden in naher Zukunft wohl die Basis für einen Vielzahl von neuen Spielen bilden und stellen momentan das Non-plus-Ultra in der Grafikwelt dar. Also prädestiniert für einen Grafikkarten-Test. Wir werden jetzt sicherlich nicht hergehen und noch ein paar alte Games mit reinnehmen, nur um die Ti 4200 besser aussehen zu lassen, als sie ist. Ich habe diese Karte ebenfalls geliebt und bestimmt 50 Mal verbaut. Aber so weit geht die Liebe dann doch nicht :]
Original geschrieben von Roughneck_Rico
Was mich allerdings erstaunt warum man die Asus Karte kaufen soll, wo die XFX ebenfalls 1.6 ns Speicher, auf 600 Mhz getaktet, verwendet und zudem 2 DVI Anschlüße serienmäßig besitzt und zudem über 20 Euro günstiger ist. ;)
Dann soll XFX eine solche Karte zum Test schicken und wir können sie bewerten...
 
schön das mal ne alte und damals oberfette karte als vergleich genommen wurde. ich kann nun endlich mal sehen was meine alte gainward gf4200 mit agp8x im vergleich zu den jetzigen leitet. ich fände es schön wenn das in zukunft auch weiterhin so gemacht werden würde. bevor ich es vergesse, meine 4200er war auch ne 4600er hab ich aber erst ein paar wochen nachdem ich das falsche bios auf die karte gespielt habe bemerkt :-[
lüfter ab und :o und dann ;D und ich hatte nur 150€ gezahlt
 
Also entweder bin ich farbenblind oder mein Monitor ist so schei***. Ich kann die Asus 6600GT und die ATI x800 nicht voneinander in den Balkendiagrammen unterscheiden. Ist beides orange oder rot. Vielleicht könnte man da die Legende etwas anders anordnen und die Farben ändern.

Besten Dank

captn-future
 
Endlich ein Test gegen/mit die/der GF4-Ti, nun noch die 6600 mitlaufen lassen, das wärs ;) Oder anders: Wieviel langsamer ist die "kleine" 6600 gegenüber der GT?
 
Bin ja immer noch ein Anhänger von der GF 4 Ti :) Meine hat allerdings eine Ram Takt von 250/512, daß war ja eigentlich der große Vorteil gegenüber der 128 MB Ram Variante.


Dessertdelphin was hast du den für eine CPU? Bei mir laufen alle aktuellen Spiele mit guten Frames?
 
DOOM3 rennt auch auf net GF3 noch wenn der rst gut ist
du bracuchst nen barton mit ca 2 ghz und 400er DDR
dann geht solst ne uralte karte noch gut ab

war selbst erstaunt wie viel der neue unterbau gebracht hat
 
Auf irgendeiner Voodoo Fanboyseite haben sie Doom3 auf einer Voodoo 3 (oder so) zum laufen bekommen. Sah lustig aus, alle Lichtfaktoren fehlen, die Räume sind alle gleich hell, wie bei Wolf3D.
 
sehe ich das richtig das die 6600gt also so ca. 3-4x so schnell ist wie ne gf4?
 
1. 6600GT Extrem im vergleich zur 6800 Ultra ? Aber sonst gehts noch ?
2. keine Vergleichswerte zur 6600GT non Extrem ?
3. keine 6800 im Test (der eigentliche Konkurrent)

Dieser Test spottet ja jeder Beschreibung!
Überflüssig trifft es.

Es hätte ein guter Test werden können, wenn man sich vorher ein paar Gedanken gemacht hätte.

Wer ist denn z.B. die Zielgruppe der 6600GT Extrem ?
Ich denke mal Käufer, die sich entscheiden wollen/müssen eine 6800 oder doch event. eine 6600GT Extrem zu kaufen.
Eine 6800 GT als Referenzwert nach oben wäre ok.

Und geradezu sträflich ist es, keinen 6600GT Werte mit zu posten - ich weiß jetzt nicht ob der höhere Takt etwas bringt oder wieviel und ob es zum Mehrpreis in relation steht.

Ganz toll!
 
Zuletzt bearbeitet:
Original geschrieben von PopoClub
1. 6600GT Extrem im vergleich zur 6800 Ultra ? Aber sonst gehts noch ?
[..]
Dieser Test spottet ja jeder Beschreibung!
Überflüssig trifft es.
[..]
Und geradezu sträflich ist es
[..]
Ganz toll!
Also, zuerst einmal solltest Du ein paar Umdrehungen zurücknehmen und Dir ernsthafte Gedanken über Deine Ausdrucksweise machen :] Wir sind hier weder auf dem Fußballfeld, noch am Stammtisch, noch in der Telekom-Hotline...

Zu Deinen "Anregungen", wenn man das so nennen darf.

1. Der Test der ASUS Extreme 6600GT ist der erste Einzeltest einer PCI-Express Karte auf Planet 3DNow! Ist doch logisch, dass hier - im Gegensatz zu den zig Vergleichswerten aus unserem alten Benchmark-Parcours - diese noch fehlen. Man sieht ja an den nachfolgenden Test der 6800LE und der 6200TC/X300SE, dass es mit jedem Test mehr werden.

2. Wie im Artikel ausführlich beschrieben, ist die ASUS Extreme 6600GT zwar mit Speicher bestückt, der eine niedrigere Zugriffszeit erreicht, allerdings macht ASUS keinen Gebrauch davon. Die Extreme 6600GT ist genau so getaktet, wie jede andere 6600GT PCIe. Ergo liefert die ASUS EN6600GT die gleichen Benchmark-Ergebnisse, wie eine normale 6600GT. Nur besser übertaktbar ist sie aufgrund des besseren Speichers. Steht so auch im Artikel.

3. Eine 6800 GT für einen ausführlichen Test (Hersteller kann ich noch nicht sagen) erwarten wir für die Woche nach der CeBIT.

4. Die 6600GT wird nicht gegen eine 6800 Ultra getestet. Auch das steht im Text. Vielleicht nicht immer nur die bunten Bildchen angucken, sondern auch mal lesen was drumherum steht. Dieser Artikel ist ein Einzeltest der ASUS-Karte, ihrer Features und ihrer Leistung. Die anderen Werte, die der 6800 Ultra deutlich darüber, die der X800 Pro ein wenig darüber und der Ti 4200 als Info für die Upgrader sind zur Information mit drin. Auch in unserem neuen Artikel 6200 TC gegen X300 SE sind die Werte der 6800 Ultra mit im Diagramm. Aber das bedeutet doch nicht, dass wir die 6200TC mit der 6800 Ultra vergleichen *buck* Die Werte dienen als Standort-Bestimmung um zu zeigen, wo die Ergebnisse einzuordnen sind.
 
Wäre es nicht sinnvoller die X300 statt der SE zu testen? Die hat doch ein deutlich besseres Preis/Leistungsverhältnis. Und die Mehrleistung wird ohne zusätzliche Abwäre erreicht: Die X300SE würde ich mir nie holen, die X300 vielleicht schon.
 
Zurück
Oben Unten