Crossfire-on-a-Card: Radeon HD 2600XT Gemini

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Nachdem sich Anfang des Monats herausgestellt hatte, dass AMD für die Lücke zwischen der 2900XT und der 2600XT eine reguläre Dual-GPU-Grafikkarte vorsieht (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1183474650" target="b">wir berichteten"</a>), haben sich die Kollegen von InsideHW eine solche in einem kurzen Preview angeschaut.

Auf dieser kommen zwei RV630 GPUs zum Einsatz, die mit 800MHz getaktet sind und über zwei 128Bit-Speicherinterfaces auf zweimal 512MB GDDR3-Speicher zugreifen können, der seinerseits mit 800/1600MHz getaktet ist. Da es sich bei der Grafikkarte noch um ein Engineering-Sample handelt, sind die enormen Abmessungen von 13cm x 27,5cm nicht auf die späteren Verkaufsversionen übertragbar.

<b>Quelle</b> <a href="http://www.insidehw.com/content/view/209/9/" target="b">AMD Gemini 2600XT Preview </a>
 
Naja, viel kleiner wird die Endfassung auch nicht werden können, zwei Chips mit RAM und sonstigem Drumherum nehmen eben mehr Platz weg.

Benchmarks davon werden sicher interessant, aber ob das ganze brauchbar ist, hängt dann wohl vom Preis ab. Werden es über 200€, wäre das doch wahrscheinlich zuviel, als daß man das Teil empfehlen könnte.

Wenn dann mal der RV670 fertig ist und er dann genau doppelt so groß werden sollte wie der RV630, dann hat er immer noch den Vorteil, nicht auf CF zurückgreifen zu müssen, was ja von der Effizienz her immer schlechter als ein einzelner Chip ist.

Naja wenigstens bleibt die Kühlung noch halbwegs im Rahmen.
 
Wenn dann mal der RV670 fertig ist und er dann genau doppelt so groß werden sollte wie der RV630, dann hat er immer noch den Vorteil, nicht auf CF zurückgreifen zu müssen, was ja von der Effizienz her immer schlechter als ein einzelner Chip ist.

Das klingt ja fast als ob RV670 schon ein faktum wäre. Ist es nicht so, dass das aber alles weiterhin nur eine gerüchtesuppe ist? Kann sich ja am ende wirklich als ente von AMD herausstellen, die nur dem zweck der leckfindung diente.

Ob die effizienz einer multi-chip lösung sehr viel höher ist müsste sich auch erst zeigen, für die software sieht beides wohl gleich aus, der vorteil besteht in einer einfacheren, weil direkteren, kopplung der kerne. CF an sich, mit R6xx karten, ist aber ohnehin schon recht effizient - zumindest im vergleich mit den vorgängern und SLI.
 
Hi,

ist das eine gute Lösung? Zwei RV630 GPU auf einem Board mit 2 X 512 MB und das für ~150 bis 200 $ wie InsideHW sagt. Kann man damit etwas verdienen?

Blenden wir diesen Aspekt aus, ist es sicherlich ein interessanten Experiment und damit kann AMD ev. so einige Erkenntnisse für die R7XX gewinnen, die ja schließlich eine Multi-GPU Lösung sein soll.

Greetz
neax;)
 
Zuletzt bearbeitet:
CF an sich, mit R6xx karten, ist aber ohnehin schon recht effizient - zumindest im vergleich mit den vorgängern und SLI.
Hehe, ja... was passiert denn bei der Karte im 2D-Modus?
Runtertakten ist ja Standard, oldschool, Pflicht!
Abschalten eines Kernes (idealerweise des Hinteren) und sämtlicher Kopplungs-Mechanismen wäre höchst interessant :-)
 
Mich würde ja mal interessieren ob die 4 DVI Ausgänge Show sind oder ob man die alle nutzen kann:]
 
Das klingt ja fast als ob RV670 schon ein faktum wäre. Ist es nicht so, dass das aber alles weiterhin nur eine gerüchtesuppe ist? Kann sich ja am ende wirklich als ente von AMD herausstellen, die nur dem zweck der leckfindung diente.
Mag sein, daß der Codename ne Ente ist und auch, daß die Daten nicht 100%ig stimmen. Aber es macht markttechnisch schon Sinn, einen Chip zwischen R600 und RV630 zu bauen, das ist nämlich billiger als zwei RV630 auf solchen Doppelkarten zu verballern, und solche Geminikarten kann man damit ja auch wieder bauen. Also irgendwas in der Art wird ziemlich sicher kommen.
 
@NOFX
ich fide es toll, wenn ihr so coole News postet. AAAber: Ich will mich nicht jedes Mal registrieren müssen um die näheren Details lesen zu können ;D Entweder ihr gebt ne Zusammenfassung, wenns erlaubt ist, oder einen Hinweis, dass die Info nur zugänglich ist, wenn man sich vorher registriert!

Das ist nicht böse gemeint, doch Regel Nr. 5 im Internet ist: Gib so wenig Daten als möglich preis, oder du wirst es auf ewig bereuen *lol*
 
bin mal auf benches der karte gespannt, und auf den preis für den sie dann wirklich zu haben ist.

oder gibts da mitlerweile schon genaueres?
 
@ichbindercrack
stimmt, nur scheint es mir so, dass du dich hier auch nur angemeldet hast, um hier ein Kommentar zu schreiben. Irgendwie gegensätzig ;-)
 
@NOFX
ich fide es toll, wenn ihr so coole News postet. AAAber: Ich will mich nicht jedes Mal registrieren müssen um die näheren Details lesen zu können ;D Entweder ihr gebt ne Zusammenfassung, wenns erlaubt ist, oder einen Hinweis, dass die Info nur zugänglich ist, wenn man sich vorher registriert!

Das ist nicht böse gemeint, doch Regel Nr. 5 im Internet ist: Gib so wenig Daten als möglich preis, oder du wirst es auf ewig bereuen *lol*
Das ist definitiv neu, das diese Seite kommt, wahrscheinlich ist es einfach von denen entfernt worden, weil sich irgendjemand damit etwas weit aus dem Fenster gelehnt hat.

Eine Quelle, bei der man sich registrieren muss, würde ich nie nutzen, da das erheblich umständlicher für die Leser ist. Also wie geschrieben, vorhin hats funktioniert, und das Review ist auch nicht mehr bei denen in der Übersicht zu finden. *noahnung*
 
vlt wars n inoffizielles review, und sollte eig noch geheim bleiben *suspect*
 
Hi,

ist das eine gute Lösung? Zwei RV630 GPU auf einem Board mit 2 X 512 MB und das für ~150 bis 200 $ wie InsideHW sagt. Kann man damit etwas verdienen?

Ich denke schon. RV630 ist bei der Größe billig, gibt ja auch noch die 2600 Pro. Und den Speicher kann man da schon noch draufschütten. ;)
 
Ui, da bin ich aber mal wirklich gespannt auf den Idleverbrauch - wenn da ein Kern einfach abgeschaltet wuerde, wie hier ja schon gemunkelt wird, dann waere das ja eine echt interessante Office und Zockgraka
 
Ui, da bin ich aber mal wirklich gespannt auf den Idleverbrauch - wenn da ein Kern einfach abgeschaltet wuerde, wie hier ja schon gemunkelt wird, dann waere das ja eine echt interessante Office und Zockgraka
Moment, ich meinte nur, dass das höchst interessant (und natürlich logisch) wäre- Informationen hab ich dazu keine, weißt du genaueres? Ist das geplant? :)

Also wie geschrieben, vorhin hats funktioniert, und das Review ist auch nicht mehr bei denen in der Übersicht zu finden. *noahnung*
Ich hatte das Review noch gelesen, mal abgesehen von keinerlei Benchmarks oder Zahlen zum Stromverbrauch findet man den Bericht noch hier (googlecache)
Getreu dem auf insidehw gepostetem Spruch (siehe Ende des Artikels)
"Did you enjoy this article? Please share it!" ;D
 
Zuletzt bearbeitet:
Wie auch:

Unfortunately, this engineer sample refused to boot the operating system, although we had the necessary drivers!

Echt ein klasse "Test". :]
 
Eh nachdem ich den Test gepostet hab, kannst du schon auch davon ausgehen, dass ich ihn gelesen hab.....:]
 
@NOFX
sry, wahrscheinlich ist es so, und der test wurde allgemein unzugänglich gemacht. Passiert oft im I-net:-( da kannst du nix dafür! sollte keine schelte sein, es war nur sonderbar! da steckt man nich drin:-)

@Shootist
die aussage ist nicht reflektiert. wenn ich eine quelle angebe muss sie ohne registrierung einsichtig sein! sonst brauch ich keine quelle!
 
naja für alle die sich da auch nicht anmelden wollen und noch nicht auf google cache gekommen sind hier ein schöner link zu dem preview http://64.233.183.104/search?q=cach.../9/&hl=de&ct=clnk&cd=1&gl=de&client=firefox-a

was mich interessieren würde ist ob es net eifnacher wäre die akrte doppelseitig zu machen also oben und unten core + ram bei den meistens pcs wäre ja genug platz und der grafik slot ist fast imemr der oberste sollte von daher also eigebndlich auch ne möglichkeit sein.
 
naja für alle die sich da auch nicht anmelden wollen und noch nicht auf google cache gekommen sind hier ein schöner link zu dem preview http://64.233.183.104/search?q=cach.../9/&hl=de&ct=clnk&cd=1&gl=de&client=firefox-a
->
;)

Hab ich irgendwo das Gegenteil behauptet? *noahnung*
Oh das tut mir leid, das war ein Missverständnis meinerseits- ich bezog dein "Wie auch" als Kommentar auf mein 'ohne Zahlen/Benches'. Deshalb die etwas zu bissige (und in dem Fall ungerechtfertigte) Antwort.
 
@NOFX
sry, wahrscheinlich ist es so, und der test wurde allgemein unzugänglich gemacht. Passiert oft im I-net:-( da kannst du nix dafür! sollte keine schelte sein, es war nur sonderbar! da steckt man nich drin:-)
So haben wir dich aber als Forumsmitglied gewonnen, also schön dabei bleiben! ;)

@Shootist
die aussage ist nicht reflektiert. wenn ich eine quelle angebe muss sie ohne registrierung einsichtig sein! sonst brauch ich keine quelle!
Sehe ich genauso, die Quellen, die wir benutzen (wir geben sie ja auch immer an) sind (sonst) auch immer öffentlich zugänglich, und wenn notwendig (z.B. chinesisch) auch direkt mit Übersetzung.
 
Sehe ich genauso, die Quellen, die wir benutzen (wir geben sie ja auch immer an) sind (sonst) auch immer öffentlich zugänglich, und wenn notwendig (z.B. chinesisch) auch direkt mit Übersetzung.
Und du glaubst kaum, wie dankbar man dafür sein kann... genau das macht den feinen Unterschied zwischen meinen Stammseiten (sind lediglich drei ;) ) und den RSS-Opfern aus.
wenn ich eine quelle angebe muss sie ohne registrierung einsichtig sein! sonst brauch ich keine quelle!
Und möglichst ohne Mühe!

Das darf man als kleinen Seitenhieb gegen HWLuxx auffassen *buck* (Ich wär ja gespannt, wie sich eine P3DPrinted! verkaufen würde *chatt*) Falls dessen Mods dieses hier lesen und erzürnten, so sei ihnen gesagt: dann macht doch :P
 
jetzt muss ich auch mal meinen senf zu der karte abgeben ;D Dank google-Cache - daran hab ich wirklich nicht gedacht;D merci für den hinweis!

1.: Sollte das das Endlayout sein, werden sie sich nur die wenigsten Leute kaufen, da sie schwerlich in einenPC passt! in mein chiftec geht sie nicht rein *lol*

2: Außerdem glaub ich dass es gar nix bringt die beiden gpus zu kombinieren, da sie zu sehr kastriert sind - gegenüber der hd2900xt. wer will den heute noch ein 128bit breites speicherinterface? mir scheint die karte so wie ein sli-6600gt. ich weiß nicht was das ding kostet, doch da sollte man leiber in eine relativ günstige x1950pro ect. investieren.
 
SLI & Crossfire sind schon immer sinnfrei bei kleineren Karten gewesen. Mit 2 Chips (Karten) auf einer Platine wirds nicht anders.

Ich frage mich wirklich, warum die sowas immer und immer wieder bauen? Um zu zeigen das sie es können? Kann ich mir nicht vorstellen, wäre sinnfrei.
 
Zurück
Oben Unten