Dual-Chip Radeon HD 2600 XT

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Bislang waren die unter dem Namen "Gemini" bekannten Dual-Chip Radeon HD 2600 XT nur als Sonderentwicklungen der Grafikkartenhersteller gedeutet worden, doch anscheinend will AMD nun auch offiziell mit diesen die Lücke im aktuellen Produktangebot schließen.

<center><img src="/news_images/r630.gif"></center>

Nach Berichten von X-bit labs werden einige AMD(ATI)-Partner - unter anderem GeCube und Sapphire - mit diesen Modellen in Kürze aufwarten können.

<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20070702125023.html" target="b">Dual-Chip ATI Radeon HD 2600 XT Graphics Cards Incoming.</a>
 
naja mal auf benches warten ... bin gespannt ob die karte die lückw wirklich schließt
 
Da bin ich zuversichtlich, so elendig weit ist die 2600XT ja ohnehin nicht von der 8600GTS entfernt. Es wird sich allerdings zeigen müssen, ob das ganze in Leisung/Watt an die Effizienz der GTS heran kommt. 2 Chip-Lösungen sind ja eher selten energiesparender als Ein-Chip-Karten...
 
Und was soll das jetzt? Erst den Middrangechip soweit kastrieren und mit 'nem übelsten Speicherbandbreitenflaschenhals versehen, daß das Teil lahmst und unattraktivst daherkommt und jetzt pappt man als Notflickwerk wieder zwei zusammen. Toll!!!
Hätten sie gleich einen Chip mit 32 Shader-Einheiten / 8 ROPs und einem 256bittigen Speicherinterface rausgebracht, anstatt diesen oberlahmen DX10-Müll, der bestenfalls zu Vista3D-Speilzeugdesktopbeschleunigung taugt, dann müßten AMD/ATI jetzt nicht so einem Mist zusammenfrickeln. Denn als was anderes kann man diese 2-Chip-"Lösung" nicht bezeichnen. Bei NVidia ist es genau der gleiche Unfug ... man kann es auch mit der Marksegmentabschottung soweit übertreiben, daß die ganze Schose gewaltig nach hinten losgeht. 8-(
 
So eine sch*** kauf ich nicht die Leistung pro Watt ist miserabel. CF und SLI sie dank, ich habe und will keine Dual GPU Lösung und ich denke das viele so etwas nicht wollen, sonst wäre CF & Co. erfolgreich.

In meinen Augen sind SLI und CF ein Megaflop! Wenn zwei 2600xt schneller wäre wie eine 2900xt, wäre es interessant :P
Zu V2 Zeiten das das noch Sinn gemacht und war erfolgreich aber scheinbar haben die das Erfolgsprinzip nicht verstanden *noahnung* *buck*

Von mir gibt es nur ein dickes fettes *fui* AMD!!!
 
So eine sch*** kauf ich nicht die Leistung pro Watt ist miserabel. CF und SLI sie dank, ich habe und will keine Dual GPU Lösung und ich denke das viele so etwas nicht wollen, sonst wäre CF & Co. erfolgreich.

In meinen Augen sind SLI und CF ein Megaflop! Wenn zwei 2600xt schneller wäre wie eine 2900xt, wäre es interessant :P
Zu V2 Zeiten das das noch Sinn gemacht und war erfolgreich aber scheinbar haben die das Erfolgsprinzip nicht verstanden *noahnung* *buck*

Von mir gibt es nur ein dickes fettes *fui* AMD!!!


find ich auch...
zumal die dual-chip-grakas nur in cf-kompatiblen spielen laufen dürften oder?

mfg
 
find ich auch...
zumal die dual-chip-grakas nur in cf-kompatiblen spielen laufen dürften oder?

mfg

Bingo ;) Das heist max 90% mehr Speed im Schnitt evtl. 30%... wie Effektiv :]

[Sarkasmus]AMD wie war das noch mal mit Strom sparen, hattet Ihr nicht mal einen Stromzähler der den Ersparnis durch AMD anzeigt :] [/Sarkasmus]
 
weis nichts was gegen einen dual lösung sprechen sollte . man entwickelt einen chip der darauf ausgelegt ist parallel zu laufen und spart sich so bei der herstellung ein weiteres modell. allerdings steht und fällt alles mit der komunikation beider untereinander. theoretisch könnete man die leistung schon annähernd verdoppeln. also anstatt rumzu heulen sollten alle mal benches abwarten.
zumal der hd 2600 im HDTV bereich die top lösung aktuell ist. Was die cpu last angeht gibts keine alternative zu dieser. und high end gamer lassen diese eh aussen vor.
 
du hast da was nicht verstanden.
dualchip-grakas arbeiten wie ein cf-systeme. sie laufen also bei "nicht cf-kompatiblen spielen" nur mit "einem" chip.
also kann man sehr wohl meckern ;)

mfg
 
weis nichts was gegen einen dual lösung sprechen sollte . man entwickelt einen chip der darauf ausgelegt ist parallel zu laufen und spart sich so bei der herstellung ein weiteres modell. allerdings steht und fällt alles mit der komunikation beider untereinander. theoretisch könnete man die leistung schon annähernd verdoppeln. also anstatt rumzu heulen sollten alle mal benches abwarten.
zumal der hd 2600 im HDTV bereich die top lösung aktuell ist. Was die cpu last angeht gibts keine alternative zu dieser. und high end gamer lassen diese eh aussen vor.


Benches sind bereits das sind da! Schau dir einfach die CF- Benches an ;)
 
Zuletzt bearbeitet:
daran will ich halt nicht recht glauben ;).
zumal in zukunft ja alles in richtung parallelisierung eines desings hinausläuft. vielleicht wird dies ein erster non-crossfire ansatz. sonst würde man ja nvidia chipsätze komplett außen vor lassen was sicher nicht so sein kann wenn man sie als konkurent zur 8600gts sieht.
 
das wäre sicherlich toll, wenn sie das machen würden, aber eben leider eher unwahrscheinlich...

mfg
 
(Ich hab den Post nochmal komplett überarbeitet und dabei irrtümlich den originalen überschrieben weil ich dachte den noch gar nicht gesendet zu haben - sorry)

foenfrisur schrieb:
du hast da was nicht verstanden.
dualchip-grakas arbeiten wie ein cf-systeme. sie laufen also bei "nicht cf-kompatiblen spielen" nur mit "einem" chip.

War es nicht so dass bei CF (im Gegensatz zu SLI) jedes Spiel profitieren sollte?
 
Zuletzt bearbeitet:
Dafür hätte ich gerne einen Beleg. Du irrst meiner Meinung nach.

Hier ein Artikel zur SAPPHIRE 1950 Pro Dual, welche zwei RV570 verbaut hat.

Dort ist es so, dass du nach der Treiberinstallation erstmal CrossFire zwischen beiden Chips aktivieren musst, weil sie sonst als SingleChip-Grafikkarte läuft und der zweite Chip nicht mehr macht als Strom zu verbrauchen.

Soweit ich das gelesen habe, wird das bei der 2600 XT Gemini genauso sein, womit foenfrisur recht hat.


EDIT:

Dazu noch ein Zitat aus der oben verlinkten Meldung von Xbitlabs (wichtiges hervorgehoben):

X-bit labs schrieb:
ATI Radeon HD 2600 XT currently does not have a clear lead against Nvidia’s GeForce 8600 GTS when it comes to 3D games and benchmarks, therefore, to fight Nvidia’s performance-mainstream product a number of AMD’s add-in-board partners, including GeCube, Sapphire and some others, will offer dual-chip graphics cards with two ATI Radeon HD 2600 XT chips that will operate in CrossFire mode to boost 3D graphics performance. The so-called Gemini Radeon HD 2600 XT graphics boards will have suggested e-tail price from $189 to $249.
 
Zusammenschaltung der Chips per CF?
Hrhr, dann ist die Karte ja eine noch blödere Idee als ich dachte. Nicht bloß energieineffizienter als Einzelkarten, nein, auch noch mit der Chance auf Inkompatibilitäten. -.-
Hoffentlich kommt ATI nicht auf die Idee einer Quadchip-2600XT-Lösung, wenn es später darum geht, nVidias Midrangekarten (>8600GTS und <8800er-Reihe) etwas entgegen zu setzen.
 
Da ich mich nie so richtig über CF informiert habe, also was es wirklich bringt, und hier einige jammern, es wäre Schrott habe ich mich nun mal hier
http://www.computerbase.de/artikel/..._xt_crossfire/25/#abschnitt_performancerating
informiert. Also demnach legt die 2900 XT im Crossfire Modus ca 50% zu. Natürlich ist das nicht so schön wie damals zu Voodoo2 Zeiten. Aber 50 % halte ich nicht gerade für wenig. Insbesondere wenn ich sehe, dass heute doch kein Mensch (zumindest hier unter uns) auf die Idee kommt sich einen Single Core Prozessor zu kaufen, obwohl der Dual Core durchschnittlich wohl nur etwa 20% mehr Leistung bringt. Gepaart ist das ebenfalls (noch) mit einem verdoppelten Strombedarf. (Ändern wird sich dieser Punkt vielleicht mit dem K10)

IMO besteht der große Unterschied einfach darin, dass man einen Dual Core Prozessor in einen Sockel stecken kann. Für Crossfire braucht man i.A. eine teurere Platine und zwei teure Grafikkarten. Eine Gemini Karte ist in diesem Punkt jedoch anders, man hat ein einfaches Grafiksystem. Und thermisch dürfte die Sache nach den bisherigen 2400/2600er Tests auch kein Desaster ergeben.
 
Naja zu Voodoo2 Zeiten hat man das Sli Kabel dazwichengepappt und im Spiel auf Glide ( wenn man es nicht eh schon hatte) eingestellt und es hat gefunzt, naja wenn ich da ab und an meine zwei Diamond Monster denke*buck* .
Heute muss man es extra im Treiber aktivieren und hoffen das es auch funzt, gibt ja auch Games wo es dann langsamer wird.
Wat ein Fortschritt.:o
 
mtb][sledgehammer;3239031 schrieb:
Da ich mich nie so richtig über CF informiert habe, also was es wirklich bringt, und hier einige jammern, es wäre Schrott habe ich mich nun mal hier
http://www.computerbase.de/artikel/..._xt_crossfire/25/#abschnitt_performancerating
informiert. Also demnach legt die 2900 XT im Crossfire Modus ca 50% zu. Natürlich ist das nicht so schön wie damals zu Voodoo2 Zeiten. Aber 50 % halte ich nicht gerade für wenig. Insbesondere wenn ich sehe, dass heute doch kein Mensch (zumindest hier unter uns) auf die Idee kommt sich einen Single Core Prozessor zu kaufen, obwohl der Dual Core durchschnittlich wohl nur etwa 20% mehr Leistung bringt. Gepaart ist das ebenfalls (noch) mit einem verdoppelten Strombedarf. (Ändern wird sich dieser Punkt vielleicht mit dem K10)

IMO besteht der große Unterschied einfach darin, dass man einen Dual Core Prozessor in einen Sockel stecken kann. Für Crossfire braucht man i.A. eine teurere Platine und zwei teure Grafikkarten. Eine Gemini Karte ist in diesem Punkt jedoch anders, man hat ein einfaches Grafiksystem. Und thermisch dürfte die Sache nach den bisherigen 2400/2600er Tests auch kein Desaster ergeben.


problem bei den performance-ratings ist, das dies nur durchschnittswerte der gebenchten spiele/programme sind.
also auch spiele, die von cf/sli null/nicht profitieren sind mit enthalten in diesem rating ;)

ergo kann man sagen, das cf bei einigen spielen sinnvoll ist und bei anderen eben einfach nicht.
hauptproblem sind aber die treiber, denn diese müssen das spiel erstmal unterstützen, auch wenn ati damals gesagt hat, das "alle spiele mit cf lauffähig sein werden"...lol sag ich da mal. schön wärs gewesen.
würde alle spiele mit cf laufen, wäre wie sicher 80% schneller...

mfg
 
Es ist möglich, daß die zwei-Chip-Karte nur eine Notlösung ist, bis der RV670 irgendwann so weit ist, auf die Menschheit losgelassen zu werden, denn der soll ja gerüchteweise so etwa wie ein doppelter RV630 sein.

Von dem soll es dann ja angeblich auch eine solche Dual-Karte geben. Das spräche wiederum dafür, daß ATi versucht, die CF-Verbreitung zu erhöhen und gleichzeitig auch Erfahrungen damit zu sammeln. Denn es gibt ja angeblich die längerfristige Planung, keine großen Grafikchips mehr zu bauen, sondern nur noch kleine, die man dann einzeln, zu zweit oder zu viert kombiniert.

Ob sich das alles als optimale Lösung herausstellen wird, wage ich zu bezweifeln, aber daß diese Planung durchgezogen wird, scheint sich langsam zu bestätigen.
 
Wieso frickeln die eigentlich an einer Dual-Chip Lösung wenn man doch eigentlich die Entwicklung in richtung Einzel-GPU mit mehreren Cores forcieren könnte ?
Ich mein das haette mehr Zukunft wie 2 GPUs die auf 2 unterschiedlichen Standards von Nvidia und ATi basieren.
Vielleicht hab ich da auch was falsch verstanden ?!
 
erinert mal wieder stark an 3dfx .......

diese crossfire/SLI möglichkeit macht in meinen augen nur sinn wenn ich mir ne neue karte holen würde und die alte mit ranklemmen kann aber das ist ja bis heute nicht möglich (korrigiert mich falls ich falsch liege) ^^

da ist mir ne 2 gpu lösung auf einer karte lieber als der obengenannte mist .... wie die karte die seit nen paar jahren über meinem monitor heangt was könnte das bloss sein ^^
 
Zuletzt bearbeitet:
Clany schrieb:
Wieso frickeln die eigentlich an einer Dual-Chip Lösung wenn man doch eigentlich die Entwicklung in richtung Einzel-GPU mit mehreren Cores forcieren könnte ?

Im besten Fall deshalb weil man eine oder drei GPU dann im Dekstop-Betrieb einfach vom Bus koppeln und abschalten könnte.

Nix gegen eine GraKa die wie auch immer im 3D-Betrieb ordentlich Dampf macht. Die darf dann dabei auch 100 Watt (mein persönliches Limit) in Hitze und Lärm umsetzen. Aber wenn das System idelt und die Karte trotzdem 30 Watt braucht (zwei R630) - dann ist das für mich das KO-Kriterium.
 
Zurück
Oben Unten