Reviews der ATI Radeon HD 3870 X2 von AMD im Überblick

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Pünktlich zur heutigen Präsentation der ATI Radeon 3870 X2 von AMD sind bereits eine Vielzahl an Reviews erschienen:

<ul><li><a href="http://www.hartware.de/review_785.html" target="b">Radeon HD 3870 X2 von PowerColor</a> [Hartware] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hardwareluxx.de/cms/artikel.php?action=show&id=582" target="b">AMD Doppelschlag? ATI Radeon HD 3870 X2</a> [HardwareLuxx] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/" target="b">ATi Radeon HD 3870 X2</a> [ComputerBase] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li><li><a href="http://www.ht4u.net/reviews/2008/amd_radeon_hd_3870_x2/" target="b">AMD Radeon HD 3870 X2</a> [Hard Tecs 4U] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li><li><a href="http://www.pcgameshardware.de/?article_id=629881" target="b">Radeon HD3870 X2</a> [PCGH] <img src="http://www.planet3dnow.de/news_images/deutsch.gif" border="1" height="10" width="15"></li></ul><ul><li><a href="http://techreport.com/articles.x/13967" target="b">AMD's Radeon HD 3870 X2</a> [TechReport] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.techpowerup.com/reviews/HIS/HD_3870_X2" target="b">HIS Radeon HD 3870 X2 1 GB</a> [techPowerUp!] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.tweaktown.com/reviews/1281/gecube_radeon_hd_3870_x2_graphics_card/index.html" target="b">GECUBE Radeon HD 3870 X2</a> [TweakTown] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.guru3d.com/article/Videocards/490/" target="b">Radeon HD 3870 X2 review</a> [Guru3D] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.legitreviews.com/article/656/1/" target="b">ATI Radeon HD 3870 X2</a> [LegitReviews] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://64.233.179.104/translate_c?hl=es&langpair=es%7Cen&u=http://www.madboxpc.com/contenido.php%3Fid%3D5590" target="b">AMD/ATI Radeon HD3870 X2</a> [MadBoxPC] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.digit-life.com/articles3/video/rv670-3-part1.html" target="b">HIS, MSI, Powerolor (TUL), GeCube RADEON HD 3870 X2 2x512MB PCIe</a> [Digit-Life] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hexus.net/content/item.php?item=11398" target="b">ATI Radeon HD 3870 X2</a> [HeXus] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.hothardware.com/articles/R680_Has_Landed_ATI_Radeon_HD_3870_X2/" target="b">R680 Has Landed: ATI Radeon HD 3870 X2 Tested</a> [HotHardware] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li> <li><a href="http://www.driverheaven.net/reviews/AMDX2Review/index.php" target="b">ATI Radeon HD 3870 X2</a> [DriverHeaven] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li><li><a href="http://www.anandtech.com/video/showdoc.aspx?i=3209" target="b">ATI Radeon HD 3870 X2: 2 GPUs 1 Card, A Return to the High End</a> [AnandTech] <img src="http://www.planet3dnow.de/news_images/englisch.gif" border="1" height="10" width="15"></li></ul><b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201526320">AMD stellt ATI Radeon HD 3870 X2 vor</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/partner_preistrend/p3dclicks.pl?suchen.php?q=3870+X2&s=0&a=&z=&x=0&y=0%22" TARGET="_blank">ATI Radeon HD 3870 X2 Preisvergleich</a></ul>
 
Dann sollten die sich aber bei mir bedanken. ;)

Wusste nicht dass sowas eingesendet wird, dachte ihr surft und fügt hinzu. Wieder was gelernt!
 
Wow, laut computerbase.de ~40Watt / ~120Watt (Idle/Last) Mehrverbrauch als 'ne einfache HD3870. Und ich dachte, Ati hätte aus dem Debakel um die 2900XT-Bratofen was gelernt?!
*abgelehnt

Ich meine, die HD3850er und HD3870er sind gute Karten...habe ja selber eine 3870. Aber was soll das? Über 220Watt nur die Grafikpower. Das ist doch wieder Irrsinn pur!
 
AnandTech
.
EDIT :
.

Wow, laut computerbase.de ~40Watt / ~120Watt (Idle/Last) Mehrverbrauch als 'ne einfache HD3870. Und ich dachte, Ati hätte aus dem Debakel um die 2900XT-Bratofen was gelernt?!
*abgelehnt

Ich meine, die HD3850er und HD3870er sind gute Karten...habe ja selber eine 3870. Aber was soll das? Über 220Watt nur die Grafikpower. Das ist doch wieder Irrsinn pur!

Du hast eben nicht gemerkt, dass das nur zwei 3870 GPUs auf einem PCB sind und nicht was magisch neues... :]
 
Die verbraucht sogar mehr, als zwei 3870er, trotz neuer Chiprevision (zwar mehr Takt und die Bridge kommt dazu) - hatte ich mir besser vorgestellt.
 
Und mit dem Launch der Geforce 9800GX2 wird AMD/ATI's 3870X2 auch leistungsmäßig wieder im Nachsehen sein...



MfG.
 
Wow, laut computerbase.de ~40Watt / ~120Watt (Idle/Last) Mehrverbrauch als 'ne einfache HD3870. Und ich dachte, Ati hätte aus dem Debakel um die 2900XT-Bratofen was gelernt?!
*abgelehnt

Ich meine, die HD3850er und HD3870er sind gute Karten...habe ja selber eine 3870. Aber was soll das? Über 220Watt nur die Grafikpower. Das ist doch wieder Irrsinn pur!


Für "zwei" 3870'er ist es doch ok! Zaubern können sie ja immerhin nicht, oder wie meinst du das sie den Verbrauch zweier Chips im Verhältnis zu einem noch mehr senken können? Wäre es ein Chip würde ich dir recht geben.
 
Hi,

ich finde es ist ein guter Start für die HD 3870 X2. Wer hätte das gedacht nach dem ersten R600 in Form der 2900XT?
Ein schönes Stück Hardware....mit dem AMD in den oberen Leistungsregionen sich zurückmeldet.


Greetz
neax;)
 
Für "zwei" 3870'er ist es doch ok! Zaubern können sie ja immerhin nicht, oder wie meinst du das sie den Verbrauch zweier Chips im Verhältnis zu einem noch mehr senken können? Wäre es ein Chip würde ich dir recht geben.

Zum einen hätten sie schonmal unter 2D einen Kern und die zugehörige Infrastruktur abschalten/schlafenlegen können, um deren Verbrauch einzusparen. Das hätte schonmal massig Pluspunkte gegeben. Unter 2D kann die Karte nicht mehr als die SingleCore-Variante und verbraucht trotzdem das Doppelte.
Zum Thema 3D: Weit über 220W nur für die Grafik eines PCs ist für mich - Crossfire hin, SLI her oder nur per SingleCore2900XT - ein Dinosaurier-Overkill. Die SingleCore HD38x0s per Treiber oder Hardware-Evolution auf Effizienz hin weiterzuentwickeln ist imo der bessere Weg, als so mit Chipsanzahl+Elektroenergie auf Teufel komm raus NVidia zweifelhafter Performancekrone (8800gtx) hinterherzuhecheln. *noahnung*
 
Zum einen hätten sie schonmal unter 2D einen Kern und die zugehörige Infrastruktur abschalten/schlafenlegen können, um deren Verbrauch einzusparen. Das hätte schonmal massig Pluspunkte gegeben. Unter 2D kann die Karte nicht mehr als die SingleCore-Variante und verbraucht trotzdem das Doppelte.
Zum Thema 3D: Weit über 220W nur für die Grafik eines PCs ist für mich - Crossfire hin, SLI her oder nur per SingleCore2900XT - ein Dinosaurier-Overkill. Die SingleCore HD38x0s per Treiber oder Hardware-Evolution auf Effizienz hin weiterzuentwickeln ist imo der bessere Weg, als so mit Chipsanzahl+Elektroenergie auf Teufel komm raus NVidia zweifelhafter Performancekrone (8800gtx) hinterherzuhecheln. *noahnung*

Ok du hast recht. Den einen Kern hätten sie wirklich im 2D Betrieb abschalten können.
Zum Rest: Bin ich auch deiner Meinung! Würde ich mir persönlich auch nie kaufen, wenn mir meine x1950 Pro nicht mehr reicht, werde ich mir wohl die 3850 kaufen. (Verbrauch / Leistung)
 
Und mit dem Launch der Geforce 9800GX2 wird AMD/ATI's 3870X2 auch leistungsmäßig wieder im Nachsehen sein...

Steckten da nicht G92 Chips drauf?
wenn ja, dann wird die Karte warscheinlich auch neue Maßstäbe beim Stromhunger setzen.....siehe beispielsweise das 8800GTS Doppelpack bei Hartware.net.

Das ist ja das schöne bei solchen Doppelkarten...man kann die eckdaten in etwar abschätzen.

Zum einen hätten sie schonmal unter 2D einen Kern und die zugehörige Infrastruktur abschalten/schlafenlegen können, um deren Verbrauch einzusparen. Das hätte schonmal massig Pluspunkte gegeben. Unter 2D kann die Karte nicht mehr als die SingleCore-Variante und verbraucht trotzdem das Doppelte.
Wird wohl daran liegen das dies einen neuen Grafikchip vorausgesetzt hätte.....bringt die entsprechende Funktion nicht erst das Hybrid Crossfire mit?
 
Zuletzt bearbeitet:
Naja, HybridCF hat ja an sich nichts damit zu tun, dass eine DualGPU-Karte (die 3870 X2) ein intelligentes Leistungsmanagment hat.
Das hätte AMD auch "so" integrieren können, aber ich denke mal einfach, sie haben nicht die Muse dafür gehabt...wäre sicherlich gegangen, nur da es eh HighEndbereich ist, juckt das weniger, da das der Nischenmarkt ist.

Zukünftige MultiGPU-Karten werden garantiert ein Leistungsmanagment haben, welches in 2D alle Cores abzüglich einem abschalten wird.
 
Zukünftige MultiGPU-Karten werden garantiert ein Leistungsmanagment haben, welches in 2D alle Cores abzüglich einem abschalten wird.

Denke ich auch. Da hat man jetzt eben erstmal nicht drauf geachtet, weil es wichtig war sich mit einer deutlich konkurrenzfähigen Karte zurückzumelden (für das Image - verkauft wird eh mehr 3850/3870). Das scheinen sie ja auch geschafft zu haben. ;)
 
Denke ich auch. Da hat man jetzt eben erstmal nicht drauf geachtet, weil es wichtig war sich mit einer deutlich konkurrenzfähigen Karte zurückzumelden (für das Image - verkauft wird eh mehr 3850/3870). Das scheinen sie ja auch geschafft zu haben. ;)
Ich denke eher dass das Problem eher in der Abschaltbarkeit der Grafikchips begründet ist.
Ist dies bei dem RV670 schon gegeben? Wenn nicht, dann würde eine nachträgliche integration dieses Features einem neuen Grafikchip gleichkommen und dann hätte man auch gleich die 2D einheit auf den Bridge Chip auslagern und und die anderen beiden Chips als reine 3D Rechenknechte auslegen und bei Bedarf abschalten können.

Ich für meinen Teil sehe die Karte sehr zwiespältig. Auf der einen seite gelangen quasi 2 Karten auf ein PCB, auf der anderen Seite steht diesem hingegen der Lautstärkenunterschied entgegen. Die letztendliche Leistung ist vor allem in hohen Grafikeinstellungen über so gut wie jede Kritik erhaben und dadurch ist selbst der Energiehunger im Vergleich zur Konkurrenz fast schon angemessen aber will man sich da wirklich die ohren zudröhnen lassen, wenn es mit 2 einzelnen HD 3870 im Crossfire Verbund auch deutlich leiser geht?
 
Ich hätte da mal eine Frage bezüglich dem Stromverbrauch:

Wenn man sich die Tests so ansieht merkt man das die X2 mehr Strom aus dem Netzteil saugt als das normale 70er CF-Gespann. *noahnung*

Kommt diese mehraufnahme nur durch den Bridge-Chip zustande oder wie? Weil: 60 Watt Unterschied bei Last und gute 30 im Idle sind schon ein wenig heftig.

Da frag ich mich dann schon: Wenn ich mir um 380,- ein CF basteln kann das weniger verbraucht und annähernd dieselbe Leistung bietet (Ja ich weiß es eh - nicht ganz :]) - warum soll ich dann die Karte kaufen? Irgendwie fehlt mir da das Kaufargument (soferns bei diesen Karten irgendein vernünftiges Argument gibt ;-))
 
Bridge Chip + 2x 50MHz mehr GPU takt. Die Frage ist auch wie effektiv der Spannungsregler auf der Karte arbeitet.
Wirklich interessant ist die Karte vor allem für die, die nur einenentsprechenden PCIe Slot haben, da Crossfire bei dieser Karte offenbar bei allen Mainboards freigeschaltet wurde.

PS: bei Hartware.net sind es übrigens 46W bei Last und 9W in Idle....somit schlägt die PCIe Bridge zumindest in Idle mit ca. 10W zu Buche
 
Zuletzt bearbeitet:
PS: bei Hartware.net sind es übrigens 46W bei Last und 9W in Idle....somit schlägt die PCIe Bridge zumindest in Idle mit ca. 10W zu Buche

Hmm... Ich hab die Werte von computerbase abgelesen - sind offensichtlich andere. Da hören sich die von Hartware auf jeden Fall realistischer an.

Vielen Dank
 
Wie kommst darauf, daß ich das beim Reviewlesen nicht bemerkt haben soll? *grübel*


Weil künstliches aufregen ob der (in diesem zusammenhang) völlig normalen leistungsaufnahme völlig deplatziert ist.
.
EDIT :
.

Zum Thema 3D: Weit über 220W nur für die Grafik eines PCs ist für mich - Crossfire hin, SLI her oder nur per SingleCore2900XT - ein Dinosaurier-Overkill.

Dann kaufs dir eben nicht aber tön' nicht so rum als ob 2x110W eine unverschämtheit wäre. Das liegt genau im rahmen dessen was man erwarten kann da der bridge chip hinzu kommt und 2x512MB GDDR3 VRAM.

Eigentlich ist alles genau so wie es sein muss. :]

Abgesehen davon, bei AT verbraucht das ganze system 290W. Was mich zu dem schluss bringt, dass die 220W für die grafikkarte vielleicht doch zu hoch angesiedelt sind.
 
Zurück
Oben Unten