AMD Präsentation zur Radeon HD 3870 X2

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Im Forum der türkischen Hardware-Seite <a href="http://www.donanimhaber.com" target="_blank">Donanim Haber</a> sind ein paar Folien aus einer AMD-Präsentation zur Radeon HD 3870 X2 veröffentlicht worden.

Die Informationen auf den Folien bestätigen, dass es sich bei der Radeon HD 3870 X2 um zwei zusammengeschaltete RV670 handelt, wie es auch schon die in der vergangenen Woche gezeigten Bilder (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197820407">wir berichteten</a>) getan haben.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1282"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1282"></a>
<small>Bildquelle: <a href="http://forum.donanimhaber.com/m_19811407/tm.htm" target="_blank">Donanim Haber</a></small>

<a href="http://www.planet3dnow.de/photoplog/index.php?n=1283"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1283"></a>
<small>Bildquelle: <a href="http://forum.donanimhaber.com/m_19811407/tm.htm" target="_blank">Donanim Haber</a></small>

<a href="http://www.planet3dnow.de/photoplog/index.php?n=1284"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1284"></a>
<small>Bildquelle: <a href="http://forum.donanimhaber.com/m_19811407/tm.htm" target="_blank">Donanim Haber</a></small>

<a href="http://www.planet3dnow.de/photoplog/index.php?n=1285"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1285"></a>
<small>Bildquelle: <a href="http://forum.donanimhaber.com/m_19811407/tm.htm" target="_blank">Donanim Haber</a></small></center>
Die Radeon HD 3870 X2 wird für den kommenden Monat erwartet und stellt dann die High-End-Lösung für Grafikkarten aus dem Hause AMD dar. Mit einem AMD 790FX-Mainboard wird mit CrossFireX die Möglichkeit geschaffen, bis zu vier Grafikchips in einem System zu koppeln.

<b>Quelle:</b> <a href="http://forum.donanimhaber.com/m_19811407/tm.htm" target="_blank">ATi R680 (HD 3870 X2) Yeni ve Resmi Detaylar</a>
 
Mich würde ja mal der Verbrach der Karte interessieren. Sind das dann zwei Mal 106Watt = 212W max oder wird es weniger sein?
 
Solange es immernoch so viele Probleme mit Crossfire gibt bleibt diese Karte uninteressant. :-/ (Nicht das es bei Nvidia viel besser wäre..)
 
sieht lecker aus ... ich such' nämlich noch was passendes
wie clever das Power Management wohl sein wird?
gespannt bin ich auch auf den Treiber, nachdem bisher (gemessen am Aufwand)
weder Crossfire noch SLI so berauschende Ergebnisse hervorbringen
 
Bin ja gespannt wie die Karte gegenüber einer 8800GTX abschneidet.
Brauche nämlich nächstes Jahr ne neue Karte. Meine X1950XTX kommt langsam in die Jahre. Da würde die genau richtig kommen wenn der Preis stimmt. Das heißt unter 400 Euros.
 
Solange es noch nicht mal 3870 Karten in vernünftigen Mengen gibt, finde ich es ziemlich uninteressant. Ich würde mir gerne eine holen weil ich die Darstellungsqualität bei AMD (Ati) besser als bei Nvidia.
 
Mich würde ja mal der Verbrach der Karte interessieren. Sind das dann zwei Mal 106Watt = 212W max oder wird es weniger sein?

Ich verstehe das nicht das immer über verbrauch geredet wird mir ist das so was von egal und wenn die karte 500 wat braucht Haubsache die Leistung stimmt, bei CPU genau dasselbe Leistung ich will Leistung Strom preis hin oder her scheiß egal.;D;D;D
 
Bin ja gespannt wie die Karte gegenüber einer 8800GTX abschneidet.
Brauche nämlich nächstes Jahr ne neue Karte. Meine X1950XTX kommt langsam in die Jahre. Da würde die genau richtig kommen wenn der Preis stimmt. Das heißt unter 400 Euros.


absolut gesehen kann man mit Multi-GPU sicher ganz schön weit kommen,
vor allem, wenn die Treiber stimmig sind;
das Interessante ist aber doch die Aufwand-Leistung-Beziehung;
hat nicht nvidia die 8800gt für SLI gesperrt (?), dann um die High-End Single GPU
nicht obsolet werden zu lassen
.
EDIT :
.

Ich verstehe das nicht das immer über verbrauch geredet wird mir ist das so was von egal und wenn die karte 500 wat braucht Haubsache die Leistung stimmt, bei CPU genau dasselbe Leistung ich will Leistung Strom preis hin oder her scheiß egal.;D;D;D


das kommt daher, dass die Mittel begrenzt sind;
sowas nennt man anders auch "wirtschaften";
aber nicht verwechseln mit Strom saufen;D;D;D
 
Ich verstehe das nicht das immer über verbrauch geredet wird mir ist das so was von egal und wenn die karte 500 wat braucht Haubsache die Leistung stimmt, bei CPU genau dasselbe Leistung ich will Leistung Strom preis hin oder her scheiß egal.;D;D;D
Jau, dieses Gerede finde ich immer super toll. Je mehr Saft sie frisst, desto heisser wird sie. Die Umgebung wird aufgheizt und muß zusätzlich gekühlt werden.
Davon abgesehen wird Jeder, der den Strom selber zahlen muß, zweimal hinschauen ob ihn der Verbrauch tatsächlich periphär tangiert.

Mein Rechner: 447 Wh @ worst case -> 24h -> 30 Tage -> 321,84 KW(!!!) = 67,59 Euro. Und das nur für eine lächerliche Daddelkiste.
Wenn nun tatsächlich Jemand so ein KW Monster haben sollte, gute Nacht. Bei mir sind @ home 3 Rechner, da staffelt sich das dann mit dem Strom. *joy*
 
Jau, dieses Gerede finde ich immer super toll. Je mehr Saft sie frisst, desto heisser wird sie. Die Umgebung wird aufgheizt und muß zusätzlich gekühlt werden.

Die Lautstärke darf man auch nicht vergessen. Manche Leute denken einfach kein Stückchen weiter... :]
 
Ist das nur bei mir so, dass der Link aller 4 Grafiken zur gleichen Grafik (Part 2) führt ?

Oder wollte das bisher keiner lesen ? ^^

ciao

Alex
 
Ich verstehe das nicht das immer über verbrauch geredet wird mir ist das so was von egal und wenn die karte 500 wat braucht Haubsache die Leistung stimmt, bei CPU genau dasselbe Leistung ich will Leistung Strom preis hin oder her scheiß egal.;D;D;D

Zahlst du ihn denn? Und mal ganz von dieser Frage abgesehen... Erstens ist es eine Frage der Umweltbelastung die damit einhergeht und zweitens zeigt es auch welche technische Entwicklung hinter einem Produkt steckt.

Die Kunst ist es mit möglichst geringen Mitteln möglichst viel zu erreichen.
 
Meine Alte X1950XTX säuft j auch ganz schön unter Vollast beim zocken. Iss noch Luftgekühlt, Luatstärke iss erträglich.
Die Dual GPUs finde ich interessanter als die zwei Einzelnen Grakas vor allem Platzmäßig.
Will keine zwei Grakas im Gehäuse haben, eine muß genügen halt mit den zwei Herzen.
Aber vor Ende Januar oder Februar wirds eh nichts werden denke ich mal.
 
Ist das nur bei mir so, dass der Link aller 4 Grafiken zur gleichen Grafik (Part 2) führt ?

Oder wollte das bisher keiner lesen ? ^^

ciao

Alex
Das ist natürlich nur bei dir so... ;D




Ne, im Ernst, hab ich gerade geändert...:-[
 
gibts denn irgendwo schon daten über den speicher?
also wird sie hoffentl. 1024mb haben? sie wird zumindest oft die 8800ultra schlagen.
auch wenn das mit einer dual-chip karte ja keine wirklich kunst darstellt

mfg
 
Ich verstehe das nicht das immer über verbrauch geredet wird mir ist das so was von egal und wenn die karte 500 wat braucht Haubsache die Leistung stimmt, bei CPU genau dasselbe Leistung ich will Leistung Strom preis hin oder her scheiß egal.;D;D;D

Es sind, wie schon Mal erwähnt, nicht nur Kosten des Stroms. Sondern vorallem was man zum Kühlen benötigt und welche Lautstärke dabei rauskommt!
Ich Zocke nicht nur mit meinem Rechner, sondern muss damit auch Schreiben können und dabei will ich den garnicht hören...

Aber, auch der Verbrauch ist wichtig. Nicht umsonst kommt X-crossfire und Powerplaytechnik in die Karten
 
[P3D] Crazy_Chris;3446222 schrieb:
Solange es immernoch so viele Probleme mit Crossfire gibt bleibt diese Karte uninteressant. :-/ (Nicht das es bei Nvidia viel besser wäre..)
Durch die HD 3870 X2 wird der Anreiz ziehmlich groß, einen gscheiten Crossfire anzubieten.
Und im 7.12er wurde IMO nicht viel verbessert. Da dürfte jetzt kräftig an CrossfireX gearbeitet werden.

Mit dieser Maßnahme schlagt man mit einem Schlag zwei Fliegen.
Nicht nur, dass AMD kurzfristig wieder eine Top-Einzel-Grafikkarte anbieten kann, sondern kann per Crossfrie erstmal an SLI "anschließen".
 
warum machen die da nich mal nen Dualcore drauf anstatt 2 GPUs zu verwenden?
ok - kostenersparnis ist wohl die Antwort auf meine Frage ;)
 
warum machen die da nich mal nen Dualcore drauf anstatt 2 GPUs zu verwenden?
...weil eine solche GPU mindestens das zwangzigfache kosten würde. Eine GPU ist sehr simpel aufgebaut, aber tierisch parallelisiert. Ein Beispiel: Eine einzige aktuelle GPU hat etwas soviele Transistoren wie Intels Quad CPU Q6600...; würdest Du 'ne DualCore GPU bauen wollen, würde sich die DIE-Fläche mehr als verdoppeln, was soll man da noch an FUNKTIONSFÄHIGER Ausbeute aus den Wafern bekommen? Nur noch einen Bruchteil dessen, was man jetzt hat.
 
Hi,

zum Thema Stromverbrauch. Ich denke, die HD 3870 X2 wird unter Last ein Stückchen weniger verbrauchen als eine 2900 XT . Im Idle Bereich ist der Stromverbrauch kein Problem dank der ausgefeilten Stromspartechniken (s. dazu auch hier).

Von der Leistung vermute ich kein absoluten Highend sondern am Ende ein Plus von 40% gegenüber einer "einfachen" HD 3870. Mit SLI wird Nvidia die Krone weiter für sich beanspruchen.

Vorteil der HD 3870 X2 keine Crossfirefähiges Board notwendig (oder*noahnung*) und es wird nur ein Slot benötigt. Zur Größe der Karte siehe hier.

Greetz
neax;)
 
Hi,
Von der Leistung vermute ich kein absoluten Highend sondern am Ende ein Plus von 40% gegenüber einer "einfachen" HD 3870. Mit SLI wird Nvidia die Krone weiter für sich beanspruchen.

40% ? Bei was? CF rennt nicht mit Crysis, und noch bei so einigen anderen Dingen zickt es.
Solange die zwei Grafikkarten auf eine Platine löten ist das alles Schwachsinn.
 
40% ? Bei was? CF rennt nicht mit Crysis, und noch bei so einigen anderen Dingen zickt es.
Solange die zwei Grafikkarten auf eine Platine löten ist das alles Schwachsinn.

... abwarten und tee trinken... vileicht hat man sich da was tolles einfallen lassen... denn spätestens bis zum R700 muss das alles gehen. sonst lohnt es sich nicht diesen als multichip auszulegen.

Und da das Tapeout vom R700 abgeschlossen ist sollte AMD also eine Schaltung parat haben, die die Probleme von normalem Crossfire umgehen kann. Die Frage ist nur: Gibt es das auch schon bei der HD 3870 X2?
 
Jau, dieses Gerede finde ich immer super toll. Je mehr Saft sie frisst, desto heisser wird sie. Die Umgebung wird aufgheizt und muß zusätzlich gekühlt werden.
Davon abgesehen wird Jeder, der den Strom selber zahlen muß, zweimal hinschauen ob ihn der Verbrauch tatsächlich periphär tangiert.

Mein Rechner: 447 Wh @ worst case -> 24h -> 30 Tage -> 321,84 KW(!!!) = 67,59 Euro. Und das nur für eine lächerliche Daddelkiste.
Wenn nun tatsächlich Jemand so ein KW Monster haben sollte, gute Nacht. Bei mir sind @ home 3 Rechner, da staffelt sich das dann mit dem Strom. *joy*


Sag mal was machst du denn mit deinem Rechenknecht??

Meiner läuft max 3 Stunden am Tag und darum ist mir das ganze Gerede mit dem Stromverbrauch sowieso ein Buch mit sieben Siegeln.


Mein Rechner ist zum zocken da und darum will ich Leistung. Wenn ich einen Server einrichten muss werde ich bestimmt keine Hardcoregrafikkarte einsetzen sondern eine billigere Version.
Ich frage mich was denn die Leute so mit ihrem PC so machen das er 24 Std durchläuft?

Gruß
Klatty
p.s. Ich bezahle nicht nur meine Stromrechnung!!
 
Zuletzt bearbeitet:
Zurück
Oben Unten