Erstes Review einer AMD ATI Radeon HD 3870 X2

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Die chinesische Seite PConline.com.cn hat ein erstes Review einer AMD ATI Radeon HD 3870 X2 online gestellt, in der diese Karte gegen eine NVIDIA GeForce 8800 Ultra getestet wurde.

Sowohl in synthetischen , als auch in Spiele-Benchmarks kann sich die ATI Radeon HD 3870 X2 dabei deutlich von der NVIDIA GeForce 8800 Ultra absetzen. Dabei verbraucht das Testsystem mit dieser Karte auch etwa 10 Prozent mehr.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1535"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1535"></a><br><font size="-3">Bildquelle: PConline.com.cn</font></center>

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1536"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1536"></a><br><font size="-3">Bildquelle: PConline.com.cn</font></center>


<b>Quelle:</b> <a href="http://www.pconline.com.cn/diy/graphics/reviews/0801/1210234.html" target="b">AMD ATI Radeon HD 3870 X2</a>
 
das es selbst bei nem praktischen spiel so gut für die X2 aussieht hab ich garnicht glauben wollen. Das mit dem verbrauch...da würde mich vor allem mal der idle-wert interessieren, da die 3xxxxer sich ja eigentlich recht gut runtertakten können...

Und ein traum wäre ein test in Bioshock gewesen, da das game bisher eigentlich irgendwie so garnicht auf SLI/CF angesprungen ist. Wenn dem jetzt anders sein sollte, dann würde ich den ati´lern meinen respekt für die treiber zollen...
 
;)

1210234_080120_R680_BIOnoaa_thumb.jpg


Auf der Homepage gabs den Test

Edit: Anscheinend bewahrheitet sich die Aussage, dass die Karte mit 825 Mhz Chiptakt daher kommt.
 
Zuletzt bearbeitet:
@whippersnapper:

Dankeschön!

Die Werte sehen trotzdem besser aus als vermutet....1280*1024 scheint wohl wirklich schon CPU-Limitiert zu sein...die höheren Auflösungen hingegen machen doch ganz schon was her...aber es sind auflösungen, die nicht unbedingt ein massenpublikum spielt. Trotz allem performt die X2 echt besser als ichs erwartet hätte. Respekt...netter Lückenflüller bis zu den zwei RV 770 auf einer karte.

Dazu der gute ruf der 38er serie...ATi könnte sich gerade zu AMDs stütze entwickeln, wenn schon die CPUs aktuell nicht viel taugen...(verglichen mit der konkurrenz...an sich sind es ja keine sooo schlechten produkte...)

edit:

aber wie siehts aus, wenn man zwei 8800 GTS im SLI antreten lässt...oder gar 2 Ultras? Das die X2 dann verliert ist klar...das ist auch nicht verwerflich, sollte sie doch als eine Karte betrachtet werden und nicht als zwei (ist ja sogar nen single PCB-Design)...aber wenn man dagegen dann 2 X2 im CF...also Quad-CF...positioniert, dann dürfte der zugewinn der X2er wohl deutlich geringer sein, da CF/SLI mit der zunehmenden Menge an Grakas nach wie vor immer schlechter skalliert.
Oder wurde das bei der X2 auch schon verbessert? Sollte dem so sein, dann hätte sich Ati ja sogar die absolute Performancekrone fast zurückerobert...
 
Zuletzt bearbeitet:
Hiho!

Hier nochmal die Zusammenfassung aller Benches in einer Grafik:

1210234_R680vs8800U_080120.jpg


Wenn sich das bewahrheitet, dann werde ich sie mir doch kaufen!
Ich hätte nicht gedacht, dass eine Dualchipkarte über alle Spiele hinweg so eine relativ konstante Leisung bringen kann.

Wenns stimmt - Respekt ATI!

Greetz
Friday
 
Zuletzt bearbeitet:
Muss man ein Crossfire Board haben um die Graka zu verwenden oder langt eine der eine 16 x PCI-E Slot hat?

Kann mir jemand diesbezüglich eine konkrete Antwort geben bitte?
 
aber wie siehts aus, wenn man zwei 8800 GTS im SLI antreten lässt...oder gar 2 Ultras? Das die X2 dann verliert ist klar...das ist auch nicht verwerflich, sollte sie doch als eine Karte betrachtet werden und nicht als zwei (ist ja sogar nen single PCB-Design)...aber wenn man dagegen dann 2 X2 im CF...also Quad-CF...positioniert, dann dürfte der zugewinn der X2er wohl deutlich geringer sein, da CF/SLI mit der zunehmenden Menge an Grakas nach wie vor immer schlechter skalliert.

Interessant wäre 1x 3870 X2 vs. 2x 3870 CF und 2x 3870 X2 vs. triple-SLI :)
 
Würde mich doch sehr wundern wenn man dafür ein CF Board benötigt, ist ja schliesslich nur eine Karte mit einem Slot. Demzufolge sage ich NEIN.
 
Man brauch kein CrossfireBoard da das Crossfire quasie auf dem PCB mittels PCI Express Bridge passiert. ein 16x Slote reicht aus. Was mich mal interessieren würde ob hier PCI Express 2.0 schon was bringt bei den normalen 3870 bringts ja angeblich nichts. Aber hier werkeln ja dann 2 Chhips die ja dann quasie jeweils nur 8 lanes in einem 16x slot nutzen können. ICh glaub das wird im CCC sogar so angezeigt. Da müsste ja dann die Bandbreiten verdoppelung shcon was bringen oder?
 
theoretisch :)

Die einzigen games, wo sie einbricht im vergleich zur ultra sind Lost Planet und Crysis...allerdings war das noch nie sehr ati-freundlich, hab ich den eindruck :)

Auf jeden fall ne bessere karte als ich dachte
 
Zuletzt bearbeitet:
was bräuchte man für nen netzteil für nen x2 crossfire system? :)
 
Sieht mal nicht schlecht aus.
Nur die Verfügbarkeit der Karte wird nicht gegeben sein. Selbst die 3870 ist noch schlecht verfügbar, da wirds mit der X2 noch viel viel übler aussehen in naher Zukunft.
 
Vielleicht werden dich Chips ja für die X2 zurrück gehalten ;D kleiner Spaß
 
Zuletzt bearbeitet:
Das sieht doch alles sehr vielverprechend aus. Wenn sich jetzt noch der Preis unter 400€ bewahrheitet, gibt es endlich einen neuen Spitzreiter, zu einem guten Preis.

Auch die Leistungsaufnahme sieht besser als erwartet aus.
Da hat AMD ja wieder eine echte High-End Karte im Programm.

Freut mich...
 
Passt vielleicht auch noch hier rein, oder gleich ne neue news:
AMD Reportedly On Track with Next-Generation Graphics Chips.
AMD Plans to Release ATI RV770 Graphics Chips in Mid-2008:


ATI, graphics product group of Advanced Micro Devices, reportedly aims to release its next-generation code-named R700-series graphics processing units (GPUs) in mid-2008. The news comes as a surprise, as earlier it was revealed that the ATI R700-series chips are only due either in late 2008 or early in 2009.

http://www.xbitlabs.com/news/video/...rack_with_Next_Generation_Graphics_Chips.html

Mit mid-2008, meint er H2, Ende Q2/08.

ciao

Alex
 
Zuletzt bearbeitet:
Sicher eine sehr gute Umsetzung einer MultiGPUlösung,
aber meiner Meinung nach wird Nvidia "zu schnell" die 9xxxer Serie einführen und damit verhindern das sie die 3870X2 im Markt durchsetzt.

Denn eine (jetzt mal geratene) 9800GTS/X wird mindestens diese Leistung bringen und deutlich niedrigeren Stromverbrauch haben.

Dennoch halte die die 3xxx Serie für eine sehr gelungene.
Ich, mit meinem schmalen Budget spekuliere auf eine 3850, die ja ein tolles P/L Verhältnis hat.

LN
 
Sicher eine sehr gute Umsetzung einer MultiGPUlösung,
aber meiner Meinung nach wird Nvidia "zu schnell" die 9xxxer Serie einführen und damit verhindern das sie die 3870X2 im Markt durchsetzt.

Denn eine (jetzt mal geratene) 9800GTS/X wird mindestens diese Leistung bringen und deutlich niedrigeren Stromverbrauch haben.

Dennoch halte die die 3xxx Serie für eine sehr gelungene.
Ich, mit meinem schmalen Budget spekuliere auf eine 3850, die ja ein tolles P/L Verhältnis hat.

LN

Leistungsmäßig würd ich Dir recht geben. nV braucht nur zwei G92 auf ein PCB hauen, und sie sind im Mittel vermutlich wieder deutlich vorn. Und es sieht ja spekulationsmäßig so aus, als würde nV entgegen allen ursprünglich letztes Jahr gemachten Spekulationen doch erstmal auf allenfalls leicht modifizierten G92 rumreiten wird. Aber Stromverbrauch von zwei G92 muss höher liegen als bei zwei 3870. Einzeln ist das ja auch so.

Ich persönlich mag ja keine SLI/CF-Lösungen, aber vermutlich wird der Trend dahingehen, wies ausschaut.

Auf der anderen Seite halte ich es immer noch für möglich, dass nv doch noch demnächst eine ganz neue Architektur raushaut. Bevor G80 rauskam war ja die Spekulationsmasse auch eher dürftig und teilweise sogar falsch ("G80 wird keine unified shader haben....."). Ich kann mir irgendwie nicht vorstellen, dass die nach eineinhalb Jahren nicht mehr als ne G92 hinbekommen haben.....
 
nV braucht nur zwei G92 auf ein PCB hauen, und sie sind im Mittel vermutlich wieder deutlich vorn.

http://www.xtremesystems.org/forums/showpost.php?p=2578885&postcount=1

SLI skaliert halt nicht ganz so gut wie Crossfire. Eine einzelne 8800GT G92 ist ja schon ein gutes Stück schneller als die 3870, bei CF vs. SLI sieht es dann schon wieder etwas anders aus.

Mal schaun ob ich mir so eine Karte hole, oder doch 2 mal eine normale 3870er, damit wäre ich etwas flexibler, auch was Wasserkühlung betrifft. :)
 
Denn eine (jetzt mal geratene) 9800GTS/X wird mindestens diese Leistung bringen und deutlich niedrigeren Stromverbrauch haben.

Stromverbrauch wird kaum deutlich drunter liegen. Die 9er serie ist keine neue plattform sondern einfach nur ein aufgemotzter GF8. Und bis auf die GTX sind wohl alle in 65nm geplant - das alleine wird vermutlich schon verhindern, dass der stromverbrauch deutlich sinkt, bei gleichzeitig erhöhten taktraten.
 
Im P/L sieht die ultra dagegen ziemlich alt aus, sollte es bei max. 400 Euro bleiben.
 
Irgendwie kann ich die Freudenausbrüche hier nicht so ganz teilen. Das die ATI gut abschneidet steht außer Frage. Aber im Verhältnis gesehen wie lange die Ultra auf dem Markt ist dämpft das doch erheblich den Gesamteindruck.
Irgendwie war das schon immer bei ATI wenn man gerade nicht weiter weiß dann werden halt einfach zwei GPU's auf eine Karte verbaut um Mithalten zu können bzw besser zu werden.

Mal schauen was beide Hersteller im QII dem Kunden vorsetzen. Wahrscheinlich ist dann dieses Produkt schon wieder Geschichte was im Grunde eh nur eine Übergangslösung war.


mfg
 
Denn eine (jetzt mal geratene) 9800GTS/X wird mindestens diese Leistung bringen und deutlich niedrigeren Stromverbrauch haben.

Dennoch halte die die 3xxx Serie für eine sehr gelungene.
Ich, mit meinem schmalen Budget spekuliere auf eine 3850, die ja ein tolles P/L Verhältnis hat.

LN

Gerade die Leistungsaufnahme ist AMDs grosse Stärke. Die aktuellen Radeon Karten haben eine geringe Leistungsaufnahme unter Last und spitzen Werte im Idle und auch bei geringerer Last. AMD hat Powerplay vom Notebook auf den Desktop gebracht und damit sehr effiziente Hardware geschaffen.
Die nächste "grosse" Grafikkarte von Nvidia wird ja (das Gegenstück) die 9800 GX2 werden. Die mag vielleicht wieder etwas schneller sein, wird aber sicher auch wieder einen bedeutend höheren Strombedarf haben.

Aber jetzt gibt es erstmal die neue Referenz von AMD. Ist doch auch schön.

Mit der Raeon 3850 kann man eigentlich nichts falsch machen. Ich habe selber eine mit 512MB und bin 100% zufrieden. Ich hatte noch nie eine so gute Grafikkarte für 150 €.
 
Immer bei ATi?

Das ist die erste offizielle und auf dem Markt erscheinende High-End-Lösung, die mit zwei GPUs daherkommt. NVidia hat das mit der 7900GX2 vorgemacht, weil sie damals einfach keine Chance gegen die X1950-Serie hatten.

Da verdrehst du also was.
 
Immer bei ATi?

Das ist die erste offizielle und auf dem Markt erscheinende High-End-Lösung, die mit zwei GPUs daherkommt.
Das gab es bei ATi auch früher schon einmal und zwar mit der ATi Rage Fury Maxx auf Rage 128 Pro Basis, die gegen die GeForce 256 ins Feld geführt wurde. Zwar bot diese eine zeitgemäße Geschwindigkeit, gerade unter 32-Bit, aber technologisch konnte sie mangels T&L und einiger anderer Funktionen nicht mithalten. Eine Radeon 9800 Pro Maxx mit zwei R350 war zwar geplant, kam aber nicht auf den Markt, ebenso wie eine Radeon X1950 Pro Maxx mit zwei RV570. Beide Mal wurden lediglich Prototypen von Sapphire der Öffentlichkeit präsentiert. 3dfx war darin ebenfalls groß, wie die Voodoo 5 5500 mit zwei VSA100 beweist. Die Voodoo 5 6000 mit vier VSA100 ist bekanntlich nicht mehr in Serienproduktion gegangen. Was die GeForce 7900 GX und 7950 GX2 von nVidia angeht, so basieren diese auf einem Sandwich Design mit zwei Platinen. Das ist der Wärmeabfuhr nicht gerade zuträglich. Das wird sich wohl auch bei der GeForce 9900 GX2 so verhalten. In dem Punkt sind und waren die Mitbewerber im Vorteil.
 
Zuletzt bearbeitet:
Immer bei ATi?

Das ist die erste offizielle und auf dem Markt erscheinende High-End-Lösung, die mit zwei GPUs daherkommt. NVidia hat das mit der 7900GX2 vorgemacht, weil sie damals einfach keine Chance gegen die X1950-Serie hatten.

Da verdrehst du also was.

Falsch...die erste war die Rage Fury Maxx, in der Zwischenzeit war aber nVidia schon mit der GeForce 7950 GX2 und scheinbar einer GeForce 7900 GX2 mit dabei.

Edit: zu spät...hab zu lange nach Bildern gesucht ^^
 
Zuletzt bearbeitet:
Zurück
Oben Unten