ATI stellt neue Radeon X1K Serie vor

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
ATI hat heute wie <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1127643961">erwartet</A> seinen neuen Grafikchip mit dem Codenamen R520 pr&#228;sentiert. Der offizielle Name des Chips lautet X1000 oder X1K, wobei das Modell gleich aus einer ganzen Familie besteht: der X1800, X1600 und X1300.

Die X1800 ist als neues High-End Produkt positioniert und soll die X800-Serie abl&#246;sen. Sie unterst&#252;tzt nun auch endlich das Shadermodell 3.0 sowie die Videofunktion <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1124731840">Avivo</a>. Folgende Features bestimmen die Eckpfeiler des Cores:<ul><i>Features

* 321 million transistors on 90nm fabrication process
* Ultra-threaded architecture with fast dynamic branching
* Sixteen pixel shader processors
* Eight vertex shader processors
* 256-bit 8-channel GDDR3/GDDR4 memory interface
* Native PCI Express x16 bus interface
* Dynamic Voltage Control

Ring Bus Memory Controller

* 512-bit internal ring bus for memory reads
* Programmable intelligent arbitration logic
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil cache optimized for real-time shadow rendering
* Optimized for performance at high display resolutions, including widescreen HDTV resolutions</i></ul>Den neuen Midrange-Bereich definiert die Radeon X1600. Ihre Daten lesen sich wie folgt:<ul><i>Features

* 157 million transistors on 90nm fabrication process
* Dual-link DVI
* Twelve pixel shader processors
* Five vertex shader processors
* 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
* Native PCI Express x16 bus interface
o AGP 8x configurations also supported with AGP-PCI-E external bridge chip
* Dynamic Voltage Control

Ring Bus Memory Controller

* 256-bit internal ring bus for memory reads
* Programmable intelligent arbitration logic
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil cache optimized for real-time shadow rendering</i></ul>Der neue Einsteigerchip f&#252;r Multimedia- und Office-Rechner h&#246;rt auf den Namen X1300. Karten mit diesem Chip sollen f&#252;r ca. 79 Dollar angeboten werden, wobei mittelfristig sicherlich auch noch abgespeckte SE-Varianten f&#252;r deutlich weniger Geld erscheinen werden. Die Daten der X1300 im &#220;berblick:<ul><i>Features

* 105 million transistors on 90nm fabrication process
* Four pixel shader processors
* Two vertex shader processors
* 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
o 32-bit/1-channel, 64-bit/2-channel, and 128-bit/4-channel configurations
* Native PCI Express x16 bus interface
o AGP 8x configurations also supported with external bridge chip
* Dynamic Voltage Control

High Performance Memory Controller

* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil xache optimized for real-time shadow rendering</i></ul>Nat&#252;rlich sind auch schon einige Reviews zu den neuen Karten erschienen, die wir Euch nicht vorenthalten m&#246;chten:<ul><li><a href="http://www.3dcenter.org/artikel/2005/10-05_a.php" TARGET="b">Ein erster Blick auf die R520-Architektur [3DCenter]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/" TARGET="b">ATi Radeon X1800, X1600 und X1300 [ComputerBase]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1" TARGET="b">ATI's Radeon X1000 series GPUs reviewed [Tech Report]</a> <img src="/images/englisch.gif" height="10"></li><li><a href="http://www.beyond3d.com/reviews/ati/r520/" TARGET="b">Radeon X1800 Architecture Preview [Beyond3D]</a> <img src="/images/englisch.gif" height="10"></li><li><a href="http://www.hardware-mag.de/hardware.php?id=364" TARGET="b">ATi schl&#228;gt zur&#252;ck: X1800/1600/1300 [Hardware Mag]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://www.hexus.net/content/item.php?item=3603" TARGET="b">ATI Radeon X1800 XT Preview [Hexus]</a> <img src="/images/englisch.gif" height="10"></li></ul>Viel Vergn&#252;gen beim St&#246;bern...
 
laut dem 3dcenter artikel macht die neue ati generation vor allem in sachen bildqualit&#228;t eine gute figur. das ist doch nach den ganzen "qualit&#228;tsoptimierungen" der letzten jahre ein echter fortschritt, so es denn so bleibt. schade, da&#223; 3dcenter das noch nicht anhand eines testsamples pr&#252;fen konnte.
 
laut dem 3dcenter artikel macht die neue ati generation vor allem in sachen bildqualität eine gute figur. das ist doch nach den ganzen "qualitätsoptimierungen" der letzten jahre ein echter fortschritt, so es denn so bleibt. schade, daß 3dcenter das noch nicht anhand eines testsamples prüfen konnte.

hmmm was die nVidia Fans hier wohl zu dem thread sagen werden ??? ;D

Mir egal, meine nächste Karte wird eine nVidia. Zumindest wenn eine x1800XL über 400€ kostet.
 
Wer keine Lust hat einen ausgiebigen Testbericht zu lesen, kann einen kurzen Blick auf einen Artikel &#252;ber die X1xxx Serie von ATI bei Chip Online samt einer Fotostrecke und erster Benchmarkwerte werfen.
Link: http://www.chip.de/artikel/c1_artikelunterseite_16812962.html?tid1=&tid2=
Interessant finde ich die Mutma&#223;ungen von Chip Online zu der Verf&#252;gbarkeit der ATI Karten, die auf die Verz&#246;gerung der Crossfire Modell in diesem Zusammenhang abstellt.
 
Hi..

Wenn man bedenkt, das die Karte in den ersten Benches in vielen Bereichen so schlecht abgeschnitten hat, gegenüber einer 7800GTX und mitmal nun so stark sein sein soll, ich weiß nicht was man davon halten soll.

Alleine die 92xx Punkte im 05er Mark mit nur einer Karte, gegenüber 7xxx Punkte GTX im schnellesten Modus, würde ja fast behaupten das ATI da eine "Optimierung" vorgenommen hat um das zu erreichen, während in einer älteren nVws von mal 8200 Punkte im default die Rede waren, bei 650Mhz Core Takt.

Jedenfalls scheint sie tendenziel aber weniger Verluste bei AA/AF zu haben, aber da wäre es mal wichtig den Treiber zu zerlegen und schauen welche internen Einstellungen tatsächlich vorgenommen sind.

Und dank fehlender Pips so schnell abziehen kann, wärend andere Seiten belegen das die NV bei der höchsten Auslösung der ATI davon zieht, z.b 1600x1200 gegeüber der kleineren.

Die aktuellsten Treiber sind aber ebenfalls nicht verwendet worden, oder gabs zu dem Zeitpunkt noch nicht.

Daher sehe ich alles erstmal mit einem mistrauen an, mal abwarten ob eine uns bekannte Seite ein vgl. der Karten vornimmt, bei HW-Luxx dürfte das ja bald der Fall sein.

Soll die dies dann bestätigen, könnte ich mir gut vorstellen das NV trotz allen Gerüchen noch eine Ultra Version der GTX nachlegt, ......... die dann z.b 530/700 dann zu dieser angleichen kann.
 
Alleine die 92xx Punkte im 05er Mark mit nur einer Karte, gegen&#252;ber 7xxx Punkte GTX im schnellesten Modus, w&#252;rde ja fast behaupten das ATI da eine "Optimierung" vorgenommen hat um das zu erreichen, w&#228;hrend in einer &#228;lteren nVws von mal 8200 Punkte im default die Rede waren, bei 650Mhz Core Takt.
Die ATI hat 8 Vertex-Shader (NV40, G70 und R420 haben 6) und der 3DMark 05 reagiert gut darauf. In Spielen ist das aber relativ egal, daher w&#252;rde ich auf den 3DMark 05 (und allen anderen synthetischen Benches) nicht so viel Wert legen ;)

&#8364;: Sehe gerade der G70 hat auch 8... der R520 hat aber durch den h&#246;heren Takt einen Vorteil.
 
Durch die Avivo-Funktion unterstützen die Ati-Karten HDCP auf den DVI-Anschlüssen, per Treiber aktivierbar.

Das heisst, wenn die Rechteinhaber von HDTV-Material es wollen, bekommt man ohne HDCP-taugliches Display am anderen Ende ein auf DVD-Niveau runtergerechnetes Bild, statt der vollen HDTV-Auflösung...
 
Durch die Avivo-Funktion unterst&#252;tzen die Ati-Karten HDCP auf den DVI-Anschl&#252;ssen, per Treiber aktivierbar.

Das heisst, wenn die Rechteinhaber von HDTV-Material es wollen, bekommt man ohne HDCP-taugliches Display am anderen Ende ein auf DVD-Niveau runtergerechnetes Bild, statt der vollen HDTV-Aufl&#246;sung...

Du vergisst nur, dass du, wenn die Rechteinhaber es so wollen, ohne eine HDCP-taugliche Grafikkarte &#252;berhaupt kein Bild bekommen w&#252;rdest, wenn du HDCP-gesch&#252;tztes Material anschauen willst. Was ist also schlecht an der Unterst&#252;tzung? *noahnung*
 
foenfrisur schrieb:
trotzdem loost die gtx ab :) das hättest du NIE erwartet...


mfg

1. schreibt man es "loset"
2. und wo bitte? die halten sich ziemlich die waage, zumal die GTX nur nen bissl mehr als die hälfte an strom verbraucht. *lol*
 
zumal die GTX nur nen bissl mehr als die h&#228;lfte an strom verbraucht

meinst du den cb test ? da warte ich lieber auf weitere tests, die das best&#228;tigen.

ansonsten w&#228;re es schon ein armutszeugnis, da ati gegen&#252;ber der c't beim letzten netzteiltest hat durchklingen lassen, da&#223; die n&#228;chsten graka-generationen wieder weniger leistungsaufnahme ben&#246;tigen w&#252;rden. aber laut dem cb test w&#228;re im gegenteil die leistungsaufnahme geradezu explodiert. :]

die karten sind f&#252;r mich eh nicht interessant. interessant werden sie, wenn der &#252;bern&#228;chste nachfolger auf dem markt ist und die karten maximal 200 euro kosten. die leistung brauch ich eh nicht, weder zum spielen noch f&#252;rs extreme benchmarking.

aber ein entscheidendes kriterium w&#228;re f&#252;r mich schon, da&#223; ati zumindest laut cb das bessere verh&#228;ltnis von performance und bildqualit&#228;t bietet.
 
meinst du den cb test ? da warte ich lieber auf weitere tests, die das best&#228;tigen.
Ich glaub er meint eher das: (wobei Skynet da auch mal wieder massiv &#252;bertreiben hat)

aber wenn man das mit den Ergebnissen von Computerbase vergleicht, sollte man da wirklich lieber mal auf die Serienkarten warten. Kann durchaus sein, dass die Test-Samples teilweise "bearbeitet" wurden.
 
Naja so setzt halt jeder seine Schwerpunkte (oder redet das schön, was man lieber mag). Stromverbrauch ist mir persönlich sowas von scheissegal (energie gibts eeh genug aus der Dose*buck* ).
Im grossen und ganzen muss ich sagen, das beide Hersteller gute Produkte haben, ATi für mich aber eher favorit ist.
Aus dem einfachen Grund heraus, das bei hohen Auflösungen mit hoher BQ die ATi besser fährt und anscheinend bessere Darstellungsqualität hat.

Bitte kein geflame, das is meine Ansicht, okay? ;)


bye Hübie

@SKYNET: 1. schreibt man es "loset" <----dieses Wort existiert nicht! (ebensowenig wie foenfrisur´s Wort) lose - lost -lost
 
Jedenfalls abwarten bis HW-Luxx bzw. P3Dnow live diese Karten gegen eine im Markt erhältliche höher getaktete 7800 GTX testen kann.

Alles andere ist numal nicht Aussagekräftig, für eine Karte die man nichtmal kaufen kann *g* da kann jeder irgendwas erzählen, eben Schwanzvergleiche.
 
Warum ist denn die Differenz beim Stromverbrauch zwischen x1800XL und x1800XT so hoch? Außer dem Takt ist da doch kein Unterschied zwischen den Karten, oder?
 
Warum ist denn die Differenz beim Stromverbrauch zwischen x1800XL und x1800XT so hoch? Außer dem Takt ist da doch kein Unterschied zwischen den Karten, oder?
Da das keine Serienkarten sind, kann es durchaus sein, dass die Test-Samples von ATI von Haus aus etwas "getuned" wurden. Sprich da sind die Spannungen evtl. höher als letztendlich in der Serie, damit die Dinger die Test auch auf jeden Fall bei den Taktraten durchhalten.
Zuverlässige Aussagen kann man letztendlich erst machen, wenn die Karten im Handel erhältlich sind.
 
Warum ist denn die Differenz beim Stromverbrauch zwischen x1800XL und x1800XT so hoch? Außer dem Takt ist da doch kein Unterschied zwischen den Karten, oder?
Jo, der Taktunterschied macht niemals so einen riesigen Unterschied aus...

Und wie gesagt - Computerbase hat unter Last 2W mehr als bei einer 7800GTX festgestellt.:]
 
Hallo,
also ich finde die neuen Karten auch echt interessant.
Vor allem die X1800XL finde ich toll. Ati hat viele neue Technologien und Features eingebaut und hat auch einige Vorteile gegenüber Nvidia (z.B. gleichzeizig HDR und AA!!!). Vor allem bei AA und AF sind die neuen Karten besser und das ist für Spieler ja wohl sehr wichtig... . Am Besten finde ich aber die sehr gute Bildqualität und den winkelUNabhängigen AF!!!

ABER: ATI's Karten gibt es noch nicht im Handel, was auch noch einige Zeit dauern wird. Der Preis für die Karten ist doch sehr hoch, mittlerweile bekommt man eine 7800GT für 330 Euro (vergleichbar die X1800XL ca. 450 Euro), da hat die 7800GT eindeutig das bessere Preis-Leistungs-Verhältnis!!! OK die ATI karten werden in 2 Monaten auch billiger sein, aber ich denke nicht soo arg und außerdem muss man ja hoffen das man sie dann bekommt !!!

Daher werde ich mich jetzt für die 7800GT entschieden, denn deren Preis ist gerade noch zu ertragen und sie bietet ebenfalls sehr gute leistung. Außerdem will ich die Karte JETZT bald und nicht in 1 - 2 Monaten.... ;D

So das wars jetzt erst mal von mir
Grüße Joni
 
ATI hat immer noch kein echtes SM3.0 in der neuen generation, schon traurig!


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544775&postcount=63


;D ;D ;D

Wo genau steht das und wo ist der Test dazu der das belegt?
Nur so mal sagen kann das jeder. Ich will Beweise.

Könnte es nicht so sein, dass ATI SM 3.0 nicht hat, weil es 3.1 hat oder einfach einen andern Ansatz und der ist eben nicht 100% SM 3.0, aber er kann alles und auch noch etwas mehr als SM 3.0 nur halt anders?

Von so ein bischen Bla Bla halte ich nichts. Ich will Beweise. Auf ATI HP steht sie soll
HD-Rendering und SM 3.0 können oder zu mindestens was Gleichwertiges was genau so gut ist wie SM 3.0.

Also lasst euch nicht verrückt machen. Die 360 hat ATI und wenn vom PC zur 360 oder von der 360 zum PC portiert wird, dann wird das auch auf ATI Chips gut laufen und das unabhängig davon das PS3 NV haben wird. Es muss, wenn es ein Spiel für PC+ 360 + PS3 wird so wie so an 3 CPU´s und 3 GPU´s angepasst werden und dann ist ein Pfad für ATI dabei und einer für NV und das wird so weit es geht einfach nur neu compiliere auf dem PC und für beide ist es gut.
 
sehe ich auch so...nur weil es evtl. nicht konform ist, heißt es nicht, das es schlechter ist, sondern vielleicht sogar besser, sonst hätten sie es wohl nicht gemacht ;)

insgesamt hat die ati die nase gut vorne...

mfg
 
Zurück
Oben Unten