App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
ATI stellt neue Radeon X1K Serie vor
- Ersteller Nero24
- Erstellt am
ATI hat heute wie <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1127643961">erwartet</A> seinen neuen Grafikchip mit dem Codenamen R520 präsentiert. Der offizielle Name des Chips lautet X1000 oder X1K, wobei das Modell gleich aus einer ganzen Familie besteht: der X1800, X1600 und X1300.
Die X1800 ist als neues High-End Produkt positioniert und soll die X800-Serie ablösen. Sie unterstützt nun auch endlich das Shadermodell 3.0 sowie die Videofunktion <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1124731840">Avivo</a>. Folgende Features bestimmen die Eckpfeiler des Cores:<ul><i>Features
* 321 million transistors on 90nm fabrication process
* Ultra-threaded architecture with fast dynamic branching
* Sixteen pixel shader processors
* Eight vertex shader processors
* 256-bit 8-channel GDDR3/GDDR4 memory interface
* Native PCI Express x16 bus interface
* Dynamic Voltage Control
Ring Bus Memory Controller
* 512-bit internal ring bus for memory reads
* Programmable intelligent arbitration logic
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil cache optimized for real-time shadow rendering
* Optimized for performance at high display resolutions, including widescreen HDTV resolutions</i></ul>Den neuen Midrange-Bereich definiert die Radeon X1600. Ihre Daten lesen sich wie folgt:<ul><i>Features
* 157 million transistors on 90nm fabrication process
* Dual-link DVI
* Twelve pixel shader processors
* Five vertex shader processors
* 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
* Native PCI Express x16 bus interface
o AGP 8x configurations also supported with AGP-PCI-E external bridge chip
* Dynamic Voltage Control
Ring Bus Memory Controller
* 256-bit internal ring bus for memory reads
* Programmable intelligent arbitration logic
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil cache optimized for real-time shadow rendering</i></ul>Der neue Einsteigerchip für Multimedia- und Office-Rechner hört auf den Namen X1300. Karten mit diesem Chip sollen für ca. 79 Dollar angeboten werden, wobei mittelfristig sicherlich auch noch abgespeckte SE-Varianten für deutlich weniger Geld erscheinen werden. Die Daten der X1300 im Überblick:<ul><i>Features
* 105 million transistors on 90nm fabrication process
* Four pixel shader processors
* Two vertex shader processors
* 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
o 32-bit/1-channel, 64-bit/2-channel, and 128-bit/4-channel configurations
* Native PCI Express x16 bus interface
o AGP 8x configurations also supported with external bridge chip
* Dynamic Voltage Control
High Performance Memory Controller
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil xache optimized for real-time shadow rendering</i></ul>Natürlich sind auch schon einige Reviews zu den neuen Karten erschienen, die wir Euch nicht vorenthalten möchten:<ul><li><a href="http://www.3dcenter.org/artikel/2005/10-05_a.php" TARGET="b">Ein erster Blick auf die R520-Architektur [3DCenter]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/" TARGET="b">ATi Radeon X1800, X1600 und X1300 [ComputerBase]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1" TARGET="b">ATI's Radeon X1000 series GPUs reviewed [Tech Report]</a> <img src="/images/englisch.gif" height="10"></li><li><a href="http://www.beyond3d.com/reviews/ati/r520/" TARGET="b">Radeon X1800 Architecture Preview [Beyond3D]</a> <img src="/images/englisch.gif" height="10"></li><li><a href="http://www.hardware-mag.de/hardware.php?id=364" TARGET="b">ATi schlägt zurück: X1800/1600/1300 [Hardware Mag]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://www.hexus.net/content/item.php?item=3603" TARGET="b">ATI Radeon X1800 XT Preview [Hexus]</a> <img src="/images/englisch.gif" height="10"></li></ul>Viel Vergnügen beim Stöbern...
Die X1800 ist als neues High-End Produkt positioniert und soll die X800-Serie ablösen. Sie unterstützt nun auch endlich das Shadermodell 3.0 sowie die Videofunktion <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1124731840">Avivo</a>. Folgende Features bestimmen die Eckpfeiler des Cores:<ul><i>Features
* 321 million transistors on 90nm fabrication process
* Ultra-threaded architecture with fast dynamic branching
* Sixteen pixel shader processors
* Eight vertex shader processors
* 256-bit 8-channel GDDR3/GDDR4 memory interface
* Native PCI Express x16 bus interface
* Dynamic Voltage Control
Ring Bus Memory Controller
* 512-bit internal ring bus for memory reads
* Programmable intelligent arbitration logic
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil cache optimized for real-time shadow rendering
* Optimized for performance at high display resolutions, including widescreen HDTV resolutions</i></ul>Den neuen Midrange-Bereich definiert die Radeon X1600. Ihre Daten lesen sich wie folgt:<ul><i>Features
* 157 million transistors on 90nm fabrication process
* Dual-link DVI
* Twelve pixel shader processors
* Five vertex shader processors
* 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
* Native PCI Express x16 bus interface
o AGP 8x configurations also supported with AGP-PCI-E external bridge chip
* Dynamic Voltage Control
Ring Bus Memory Controller
* 256-bit internal ring bus for memory reads
* Programmable intelligent arbitration logic
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil cache optimized for real-time shadow rendering</i></ul>Der neue Einsteigerchip für Multimedia- und Office-Rechner hört auf den Namen X1300. Karten mit diesem Chip sollen für ca. 79 Dollar angeboten werden, wobei mittelfristig sicherlich auch noch abgespeckte SE-Varianten für deutlich weniger Geld erscheinen werden. Die Daten der X1300 im Überblick:<ul><i>Features
* 105 million transistors on 90nm fabrication process
* Four pixel shader processors
* Two vertex shader processors
* 128-bit 4-channel DDR/DDR2/GDDR3 memory interface
o 32-bit/1-channel, 64-bit/2-channel, and 128-bit/4-channel configurations
* Native PCI Express x16 bus interface
o AGP 8x configurations also supported with external bridge chip
* Dynamic Voltage Control
High Performance Memory Controller
* Fully associative texture, color, and Z/stencil cache designs
* Hierarchical Z-buffer with Early Z test
* Lossless Z Compression (up to 48:1)
* Fast Z-Buffer Clear
* Z/stencil xache optimized for real-time shadow rendering</i></ul>Natürlich sind auch schon einige Reviews zu den neuen Karten erschienen, die wir Euch nicht vorenthalten möchten:<ul><li><a href="http://www.3dcenter.org/artikel/2005/10-05_a.php" TARGET="b">Ein erster Blick auf die R520-Architektur [3DCenter]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/" TARGET="b">ATi Radeon X1800, X1600 und X1300 [ComputerBase]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1" TARGET="b">ATI's Radeon X1000 series GPUs reviewed [Tech Report]</a> <img src="/images/englisch.gif" height="10"></li><li><a href="http://www.beyond3d.com/reviews/ati/r520/" TARGET="b">Radeon X1800 Architecture Preview [Beyond3D]</a> <img src="/images/englisch.gif" height="10"></li><li><a href="http://www.hardware-mag.de/hardware.php?id=364" TARGET="b">ATi schlägt zurück: X1800/1600/1300 [Hardware Mag]</a> <img src="/images/deutsch.gif" height="10"></li><li><a href="http://www.hexus.net/content/item.php?item=3603" TARGET="b">ATI Radeon X1800 XT Preview [Hexus]</a> <img src="/images/englisch.gif" height="10"></li></ul>Viel Vergnügen beim Stöbern...
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
ATI hat immer noch kein echtes SM3.0 in der neuen generation, schon traurig!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544775&postcount=63
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544775&postcount=63
SnakePlisken
Vice Admiral Special
ATI hat immer noch kein echtes SM3.0 in der neuen generation, schon traurig!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544775&postcount=63
Ooooch Skynet ...
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
ATI hat immer noch kein echtes SM3.0 in der neuen generation, schon traurig!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544775&postcount=63
trotzdem loost die gtx ab das hättest du NIE erwartet...
mfg
laut dem 3dcenter artikel macht die neue ati generation vor allem in sachen bildqualität eine gute figur. das ist doch nach den ganzen "qualitätsoptimierungen" der letzten jahre ein echter fortschritt, so es denn so bleibt. schade, daß 3dcenter das noch nicht anhand eines testsamples prüfen konnte.
laut dem 3dcenter artikel macht die neue ati generation vor allem in sachen bildqualität eine gute figur. das ist doch nach den ganzen "qualitätsoptimierungen" der letzten jahre ein echter fortschritt, so es denn so bleibt. schade, daß 3dcenter das noch nicht anhand eines testsamples prüfen konnte.
hmmm was die nVidia Fans hier wohl zu dem thread sagen werden
Mir egal, meine nächste Karte wird eine nVidia. Zumindest wenn eine x1800XL über 400€ kostet.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Wer keine Lust hat einen ausgiebigen Testbericht zu lesen, kann einen kurzen Blick auf einen Artikel über die X1xxx Serie von ATI bei Chip Online samt einer Fotostrecke und erster Benchmarkwerte werfen.
Link: http://www.chip.de/artikel/c1_artikelunterseite_16812962.html?tid1=&tid2=
Interessant finde ich die Mutmaßungen von Chip Online zu der Verfügbarkeit der ATI Karten, die auf die Verzögerung der Crossfire Modell in diesem Zusammenhang abstellt.
Link: http://www.chip.de/artikel/c1_artikelunterseite_16812962.html?tid1=&tid2=
Interessant finde ich die Mutmaßungen von Chip Online zu der Verfügbarkeit der ATI Karten, die auf die Verzögerung der Crossfire Modell in diesem Zusammenhang abstellt.
G
Gast29012019_2
Guest
Hi..
Wenn man bedenkt, das die Karte in den ersten Benches in vielen Bereichen so schlecht abgeschnitten hat, gegenüber einer 7800GTX und mitmal nun so stark sein sein soll, ich weiß nicht was man davon halten soll.
Alleine die 92xx Punkte im 05er Mark mit nur einer Karte, gegenüber 7xxx Punkte GTX im schnellesten Modus, würde ja fast behaupten das ATI da eine "Optimierung" vorgenommen hat um das zu erreichen, während in einer älteren nVws von mal 8200 Punkte im default die Rede waren, bei 650Mhz Core Takt.
Jedenfalls scheint sie tendenziel aber weniger Verluste bei AA/AF zu haben, aber da wäre es mal wichtig den Treiber zu zerlegen und schauen welche internen Einstellungen tatsächlich vorgenommen sind.
Und dank fehlender Pips so schnell abziehen kann, wärend andere Seiten belegen das die NV bei der höchsten Auslösung der ATI davon zieht, z.b 1600x1200 gegeüber der kleineren.
Die aktuellsten Treiber sind aber ebenfalls nicht verwendet worden, oder gabs zu dem Zeitpunkt noch nicht.
Daher sehe ich alles erstmal mit einem mistrauen an, mal abwarten ob eine uns bekannte Seite ein vgl. der Karten vornimmt, bei HW-Luxx dürfte das ja bald der Fall sein.
Soll die dies dann bestätigen, könnte ich mir gut vorstellen das NV trotz allen Gerüchen noch eine Ultra Version der GTX nachlegt, ......... die dann z.b 530/700 dann zu dieser angleichen kann.
Wenn man bedenkt, das die Karte in den ersten Benches in vielen Bereichen so schlecht abgeschnitten hat, gegenüber einer 7800GTX und mitmal nun so stark sein sein soll, ich weiß nicht was man davon halten soll.
Alleine die 92xx Punkte im 05er Mark mit nur einer Karte, gegenüber 7xxx Punkte GTX im schnellesten Modus, würde ja fast behaupten das ATI da eine "Optimierung" vorgenommen hat um das zu erreichen, während in einer älteren nVws von mal 8200 Punkte im default die Rede waren, bei 650Mhz Core Takt.
Jedenfalls scheint sie tendenziel aber weniger Verluste bei AA/AF zu haben, aber da wäre es mal wichtig den Treiber zu zerlegen und schauen welche internen Einstellungen tatsächlich vorgenommen sind.
Und dank fehlender Pips so schnell abziehen kann, wärend andere Seiten belegen das die NV bei der höchsten Auslösung der ATI davon zieht, z.b 1600x1200 gegeüber der kleineren.
Die aktuellsten Treiber sind aber ebenfalls nicht verwendet worden, oder gabs zu dem Zeitpunkt noch nicht.
Daher sehe ich alles erstmal mit einem mistrauen an, mal abwarten ob eine uns bekannte Seite ein vgl. der Karten vornimmt, bei HW-Luxx dürfte das ja bald der Fall sein.
Soll die dies dann bestätigen, könnte ich mir gut vorstellen das NV trotz allen Gerüchen noch eine Ultra Version der GTX nachlegt, ......... die dann z.b 530/700 dann zu dieser angleichen kann.
Low Rider
Grand Admiral Special
- Mitglied seit
- 20.08.2003
- Beiträge
- 4.251
- Renomée
- 44
- Standort
- Stuttgart/Berlin
- Prozessor
- Phenom II X6 1090T
- Mainboard
- Asus Crosshair IV
- Kühlung
- Alpenföhn Matterhorn
- Speicher
- 2x 2GB Geil DDR3-1600
- Grafikprozessor
- Zotac GTX 480 AMP
- Display
- Dell 27"
- HDD
- Crucial RealSSD 128 GB + WD Green 1000 GB
- Optisches Laufwerk
- Samsung SH-B083L Bluray/DVD
- Soundkarte
- on Board
- Gehäuse
- Silverstone Fortress 2
- Netzteil
- Enermax Modu 82+ 625W
- Betriebssystem
- Windows 7 Ultimate 64bit
Die ATI hat 8 Vertex-Shader (NV40, G70 und R420 haben 6) und der 3DMark 05 reagiert gut darauf. In Spielen ist das aber relativ egal, daher würde ich auf den 3DMark 05 (und allen anderen synthetischen Benches) nicht so viel Wert legenAlleine die 92xx Punkte im 05er Mark mit nur einer Karte, gegenüber 7xxx Punkte GTX im schnellesten Modus, würde ja fast behaupten das ATI da eine "Optimierung" vorgenommen hat um das zu erreichen, während in einer älteren nVws von mal 8200 Punkte im default die Rede waren, bei 650Mhz Core Takt.
€: Sehe gerade der G70 hat auch 8... der R520 hat aber durch den höheren Takt einen Vorteil.
GKiller
Lieutnant
- Mitglied seit
- 24.06.2002
- Beiträge
- 93
- Renomée
- 2
- Standort
- Switzerland
- Prozessor
- AMD Athlon XP 2500+
- Mainboard
- Asus A7N8X-E Deluxe
- Kühlung
- Zalman CNPS7000A-AlCu
- Speicher
- 2x512 MB Infineon DDR400
- Grafikprozessor
- HIS Excalibur Radeon 9800Pro IceQ
- Display
- 19" Philips Brilliance 109P4
- HDD
- 250 GB Hitachi 7K250 SATA, 2x 80 GB Seagate Barracuda IV PATA
- Optisches Laufwerk
- Toshiba SD-M1612 16x/48x DVD-ROM, Plextor PX-712A DVD+/-RW
- Soundkarte
- Onboard nVidia Soundstorm
- Gehäuse
- Lian-Li PC-68
- Netzteil
- Sirtech 360W
- Betriebssystem
- Windows XP Pro SP2
- Verschiedenes
- 4x 80mm Caselüfter
Durch die Avivo-Funktion unterstützen die Ati-Karten HDCP auf den DVI-Anschlüssen, per Treiber aktivierbar.
Das heisst, wenn die Rechteinhaber von HDTV-Material es wollen, bekommt man ohne HDCP-taugliches Display am anderen Ende ein auf DVD-Niveau runtergerechnetes Bild, statt der vollen HDTV-Auflösung...
Das heisst, wenn die Rechteinhaber von HDTV-Material es wollen, bekommt man ohne HDCP-taugliches Display am anderen Ende ein auf DVD-Niveau runtergerechnetes Bild, statt der vollen HDTV-Auflösung...
Kommando
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 3.138
- Renomée
- 28
- Mein Laptop
- Laptop: Clevo P751ZM (15,6")
- Prozessor
- Intel® Core™ i5 4690K @ 4 GHz @ 1 V
- Speicher
- 2x8 GB Hyper X Impact @ 2200-10-11-11-1T
- Grafikprozessor
- nVidia GeForce GTX 970M 6 GB @ 1238/3130 MHz
- Display
- Dell 2709W (27", 1920x1200)
- SSD
- Samsung SSD 830 (512 GB)
- Netzteil
- 230W
- Betriebssystem
- Windows 10 Professional (64 bit)
- Webbrowser
- Opera
- Verschiedenes
- Razer Orochi
Durch die Avivo-Funktion unterstützen die Ati-Karten HDCP auf den DVI-Anschlüssen, per Treiber aktivierbar.
Das heisst, wenn die Rechteinhaber von HDTV-Material es wollen, bekommt man ohne HDCP-taugliches Display am anderen Ende ein auf DVD-Niveau runtergerechnetes Bild, statt der vollen HDTV-Auflösung...
Du vergisst nur, dass du, wenn die Rechteinhaber es so wollen, ohne eine HDCP-taugliche Grafikkarte überhaupt kein Bild bekommen würdest, wenn du HDCP-geschütztes Material anschauen willst. Was ist also schlecht an der Unterstützung?
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
foenfrisur schrieb:trotzdem loost die gtx ab das hättest du NIE erwartet...
mfg
1. schreibt man es "loset"
2. und wo bitte? die halten sich ziemlich die waage, zumal die GTX nur nen bissl mehr als die hälfte an strom verbraucht.
zumal die GTX nur nen bissl mehr als die hälfte an strom verbraucht
meinst du den cb test ? da warte ich lieber auf weitere tests, die das bestätigen.
ansonsten wäre es schon ein armutszeugnis, da ati gegenüber der c't beim letzten netzteiltest hat durchklingen lassen, daß die nächsten graka-generationen wieder weniger leistungsaufnahme benötigen würden. aber laut dem cb test wäre im gegenteil die leistungsaufnahme geradezu explodiert.
die karten sind für mich eh nicht interessant. interessant werden sie, wenn der übernächste nachfolger auf dem markt ist und die karten maximal 200 euro kosten. die leistung brauch ich eh nicht, weder zum spielen noch fürs extreme benchmarking.
aber ein entscheidendes kriterium wäre für mich schon, daß ati zumindest laut cb das bessere verhältnis von performance und bildqualität bietet.
Reisi
Grand Admiral Special
- Mitglied seit
- 29.03.2002
- Beiträge
- 2.853
- Renomée
- 38
Ich glaub er meint eher das: (wobei Skynet da auch mal wieder massiv übertreiben hat)meinst du den cb test ? da warte ich lieber auf weitere tests, die das bestätigen.
aber wenn man das mit den Ergebnissen von Computerbase vergleicht, sollte man da wirklich lieber mal auf die Serienkarten warten. Kann durchaus sein, dass die Test-Samples teilweise "bearbeitet" wurden.
Hübie
Grand Admiral Special
- Mitglied seit
- 25.06.2002
- Beiträge
- 3.037
- Renomée
- 83
- Mein Laptop
- Honor MagicBook Pro AMD Mystic Silver
- Prozessor
- AMD Ryzen 7 5800X3D @Wakü
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Mora3 @9*eLoops
- Speicher
- G.Skill Trident Z RGB 32GB DDR4-3600
- Grafikprozessor
- AMD Radeon RX 6800 XT @Wakü
- Display
- LC-M34-UWQHD-144-C (UWQHD)
- SSD
- Corsair 600p 1TB (System), Crucial MX500 2TB (Spiele), Crucial 2TB (Daten)
- Soundkarte
- Logitech G735
- Gehäuse
- be quiet! Dark Base Pro 900
- Netzteil
- be quiet! Dark Power 13 850W ATX 3.0
- Tastatur
- Logitech G915 TKL weiß
- Maus
- Logitech G Pro X weiß
- Betriebssystem
- Windows 11 x64 Professional + Updates
- Webbrowser
- Vivaldi
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼70 MBit/s ▲50 MBit/s
Naja so setzt halt jeder seine Schwerpunkte (oder redet das schön, was man lieber mag). Stromverbrauch ist mir persönlich sowas von scheissegal (energie gibts eeh genug aus der Dose ).
Im grossen und ganzen muss ich sagen, das beide Hersteller gute Produkte haben, ATi für mich aber eher favorit ist.
Aus dem einfachen Grund heraus, das bei hohen Auflösungen mit hoher BQ die ATi besser fährt und anscheinend bessere Darstellungsqualität hat.
Bitte kein geflame, das is meine Ansicht, okay?
bye Hübie
@SKYNET: 1. schreibt man es "loset" <----dieses Wort existiert nicht! (ebensowenig wie foenfrisur´s Wort) lose - lost -lost
Im grossen und ganzen muss ich sagen, das beide Hersteller gute Produkte haben, ATi für mich aber eher favorit ist.
Aus dem einfachen Grund heraus, das bei hohen Auflösungen mit hoher BQ die ATi besser fährt und anscheinend bessere Darstellungsqualität hat.
Bitte kein geflame, das is meine Ansicht, okay?
bye Hübie
@SKYNET: 1. schreibt man es "loset" <----dieses Wort existiert nicht! (ebensowenig wie foenfrisur´s Wort) lose - lost -lost
G
Gast29012019_2
Guest
Jedenfalls abwarten bis HW-Luxx bzw. P3Dnow live diese Karten gegen eine im Markt erhältliche höher getaktete 7800 GTX testen kann.
Alles andere ist numal nicht Aussagekräftig, für eine Karte die man nichtmal kaufen kann *g* da kann jeder irgendwas erzählen, eben Schwanzvergleiche.
Alles andere ist numal nicht Aussagekräftig, für eine Karte die man nichtmal kaufen kann *g* da kann jeder irgendwas erzählen, eben Schwanzvergleiche.
1. schreibt man es "loset"
Man sollte eigentlich gar nicht daran denken so etwas überhaupt zu schreiben
Reisi
Grand Admiral Special
- Mitglied seit
- 29.03.2002
- Beiträge
- 2.853
- Renomée
- 38
Da das keine Serienkarten sind, kann es durchaus sein, dass die Test-Samples von ATI von Haus aus etwas "getuned" wurden. Sprich da sind die Spannungen evtl. höher als letztendlich in der Serie, damit die Dinger die Test auch auf jeden Fall bei den Taktraten durchhalten.Warum ist denn die Differenz beim Stromverbrauch zwischen x1800XL und x1800XT so hoch? Außer dem Takt ist da doch kein Unterschied zwischen den Karten, oder?
Zuverlässige Aussagen kann man letztendlich erst machen, wenn die Karten im Handel erhältlich sind.
Low Rider
Grand Admiral Special
- Mitglied seit
- 20.08.2003
- Beiträge
- 4.251
- Renomée
- 44
- Standort
- Stuttgart/Berlin
- Prozessor
- Phenom II X6 1090T
- Mainboard
- Asus Crosshair IV
- Kühlung
- Alpenföhn Matterhorn
- Speicher
- 2x 2GB Geil DDR3-1600
- Grafikprozessor
- Zotac GTX 480 AMP
- Display
- Dell 27"
- HDD
- Crucial RealSSD 128 GB + WD Green 1000 GB
- Optisches Laufwerk
- Samsung SH-B083L Bluray/DVD
- Soundkarte
- on Board
- Gehäuse
- Silverstone Fortress 2
- Netzteil
- Enermax Modu 82+ 625W
- Betriebssystem
- Windows 7 Ultimate 64bit
Jo, der Taktunterschied macht niemals so einen riesigen Unterschied aus...Warum ist denn die Differenz beim Stromverbrauch zwischen x1800XL und x1800XT so hoch? Außer dem Takt ist da doch kein Unterschied zwischen den Karten, oder?
Und wie gesagt - Computerbase hat unter Last 2W mehr als bei einer 7800GTX festgestellt.
Jonock
Fleet Captain Special
- Mitglied seit
- 13.08.2005
- Beiträge
- 344
- Renomée
- 2
Hallo,
also ich finde die neuen Karten auch echt interessant.
Vor allem die X1800XL finde ich toll. Ati hat viele neue Technologien und Features eingebaut und hat auch einige Vorteile gegenüber Nvidia (z.B. gleichzeizig HDR und AA!!!). Vor allem bei AA und AF sind die neuen Karten besser und das ist für Spieler ja wohl sehr wichtig... . Am Besten finde ich aber die sehr gute Bildqualität und den winkelUNabhängigen AF!!!
ABER: ATI's Karten gibt es noch nicht im Handel, was auch noch einige Zeit dauern wird. Der Preis für die Karten ist doch sehr hoch, mittlerweile bekommt man eine 7800GT für 330 Euro (vergleichbar die X1800XL ca. 450 Euro), da hat die 7800GT eindeutig das bessere Preis-Leistungs-Verhältnis!!! OK die ATI karten werden in 2 Monaten auch billiger sein, aber ich denke nicht soo arg und außerdem muss man ja hoffen das man sie dann bekommt !!!
Daher werde ich mich jetzt für die 7800GT entschieden, denn deren Preis ist gerade noch zu ertragen und sie bietet ebenfalls sehr gute leistung. Außerdem will ich die Karte JETZT bald und nicht in 1 - 2 Monaten....
So das wars jetzt erst mal von mir
Grüße Joni
also ich finde die neuen Karten auch echt interessant.
Vor allem die X1800XL finde ich toll. Ati hat viele neue Technologien und Features eingebaut und hat auch einige Vorteile gegenüber Nvidia (z.B. gleichzeizig HDR und AA!!!). Vor allem bei AA und AF sind die neuen Karten besser und das ist für Spieler ja wohl sehr wichtig... . Am Besten finde ich aber die sehr gute Bildqualität und den winkelUNabhängigen AF!!!
ABER: ATI's Karten gibt es noch nicht im Handel, was auch noch einige Zeit dauern wird. Der Preis für die Karten ist doch sehr hoch, mittlerweile bekommt man eine 7800GT für 330 Euro (vergleichbar die X1800XL ca. 450 Euro), da hat die 7800GT eindeutig das bessere Preis-Leistungs-Verhältnis!!! OK die ATI karten werden in 2 Monaten auch billiger sein, aber ich denke nicht soo arg und außerdem muss man ja hoffen das man sie dann bekommt !!!
Daher werde ich mich jetzt für die 7800GT entschieden, denn deren Preis ist gerade noch zu ertragen und sie bietet ebenfalls sehr gute leistung. Außerdem will ich die Karte JETZT bald und nicht in 1 - 2 Monaten....
So das wars jetzt erst mal von mir
Grüße Joni
The_crow
Grand Admiral Special
- Mitglied seit
- 04.06.2005
- Beiträge
- 2.674
- Renomée
- 80
- Prozessor
- RYZEN 9 7900X
- Mainboard
- ASUS TUF Gaming B650-PLUS -WIFI
- Kühlung
- NOCTUA NH-D15 chromax.black einige Lüfer von Cooler Master die beim Tower schon dabei waren.
- Speicher
- 2 x 16 GB Kingston 5600 mit EXPO
- Grafikprozessor
- AMD ASUS TUF Gaming OC RX7900 XTX 24 GB
- Display
- HP 27xq oder einen LG OLED48C1... an der Yamha Anlage die 5.1.2 kann und auch so genutzt wird.
- SSD
- Hab eine SATA 1 TB SSD Sandisk aber nicht als OS Platte im Moment. M.2 für OS Samsung SSD 980 PRO .
- HDD
- Sicher eine von denen die da sind aber welche?
- Optisches Laufwerk
- Optiarc
- Soundkarte
- Onboard Realtec leider nicht ganz so gut wie der alte. Nun per HDMI an den AVR.
- Gehäuse
- Cooler Master BigTower der bald mal weg muss.
- Netzteil
- be quiet! PURE POWER 12 M 1.000 Watt
- Tastatur
- Einfache Cherry USB
- Maus
- Logitech MX Master 3s
- Betriebssystem
- Win 11 + alle Updates
- Webbrowser
- größten Teils FireFox
ATI hat immer noch kein echtes SM3.0 in der neuen generation, schon traurig!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544775&postcount=63
Wo genau steht das und wo ist der Test dazu der das belegt?
Nur so mal sagen kann das jeder. Ich will Beweise.
Könnte es nicht so sein, dass ATI SM 3.0 nicht hat, weil es 3.1 hat oder einfach einen andern Ansatz und der ist eben nicht 100% SM 3.0, aber er kann alles und auch noch etwas mehr als SM 3.0 nur halt anders?
Von so ein bischen Bla Bla halte ich nichts. Ich will Beweise. Auf ATI HP steht sie soll
HD-Rendering und SM 3.0 können oder zu mindestens was Gleichwertiges was genau so gut ist wie SM 3.0.
Also lasst euch nicht verrückt machen. Die 360 hat ATI und wenn vom PC zur 360 oder von der 360 zum PC portiert wird, dann wird das auch auf ATI Chips gut laufen und das unabhängig davon das PS3 NV haben wird. Es muss, wenn es ein Spiel für PC+ 360 + PS3 wird so wie so an 3 CPU´s und 3 GPU´s angepasst werden und dann ist ein Pfad für ATI dabei und einer für NV und das wird so weit es geht einfach nur neu compiliere auf dem PC und für beide ist es gut.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
sehe ich auch so...nur weil es evtl. nicht konform ist, heißt es nicht, das es schlechter ist, sondern vielleicht sogar besser, sonst hätten sie es wohl nicht gemacht
insgesamt hat die ati die nase gut vorne...
mfg
insgesamt hat die ati die nase gut vorne...
mfg
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 489
- Antworten
- 0
- Aufrufe
- 624
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 1K