App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Dual-Chip Radeon HD 2600 XT
- Ersteller pipin
- Erstellt am
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Bislang waren die unter dem Namen "Gemini" bekannten Dual-Chip Radeon HD 2600 XT nur als Sonderentwicklungen der Grafikkartenhersteller gedeutet worden, doch anscheinend will AMD nun auch offiziell mit diesen die Lücke im aktuellen Produktangebot schließen.
<center><img src="/news_images/r630.gif"></center>
Nach Berichten von X-bit labs werden einige AMD(ATI)-Partner - unter anderem GeCube und Sapphire - mit diesen Modellen in Kürze aufwarten können.
<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20070702125023.html" target="b">Dual-Chip ATI Radeon HD 2600 XT Graphics Cards Incoming.</a>
<center><img src="/news_images/r630.gif"></center>
Nach Berichten von X-bit labs werden einige AMD(ATI)-Partner - unter anderem GeCube und Sapphire - mit diesen Modellen in Kürze aufwarten können.
<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20070702125023.html" target="b">Dual-Chip ATI Radeon HD 2600 XT Graphics Cards Incoming.</a>
gyvermn
Vice Admiral Special
naja mal auf benches warten ... bin gespannt ob die karte die lückw wirklich schließt
Da bin ich zuversichtlich, so elendig weit ist die 2600XT ja ohnehin nicht von der 8600GTS entfernt. Es wird sich allerdings zeigen müssen, ob das ganze in Leisung/Watt an die Effizienz der GTS heran kommt. 2 Chip-Lösungen sind ja eher selten energiesparender als Ein-Chip-Karten...
SirThor
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.058
- Renomée
- 20
- Standort
- Sachsen
- Mein Laptop
- Acer Extensa 5220
- Prozessor
- i7-4790k
- Mainboard
- ASUS Z97 Deluxe
- Kühlung
- Brocken Rev.2
- Speicher
- 32 GB DDR3 (4x8GB Corsair Vengeance)
- Grafikprozessor
- MSI GeForce GTX 980Ti Gaming
- Display
- iiyama proLite XB2779QS-1 (WQHD 2560 x 1440)
- SSD
- Samsung 840 EVO 1TB, Cruical MX200 1TB
- HDD
- SATA: Seagate Barracuda 3GB ST3000DM001
- Optisches Laufwerk
- SATA: Optiarc DVD RW AD-7203S, LG HL-DT-ST BDDVDRW CH10LS20
- Soundkarte
- SB Z
- Gehäuse
- Corsair C70
- Netzteil
- Corsair AX760
- Betriebssystem
- Windows7 64bit Professional
- Webbrowser
- Firefox Version irgendwas gegen unendlich
- Verschiedenes
- mechanische Tastatur: Corsair Vengeance K60 ...nie wieder Gumminoppen :-)
Und was soll das jetzt? Erst den Middrangechip soweit kastrieren und mit 'nem übelsten Speicherbandbreitenflaschenhals versehen, daß das Teil lahmst und unattraktivst daherkommt und jetzt pappt man als Notflickwerk wieder zwei zusammen. Toll!!!
Hätten sie gleich einen Chip mit 32 Shader-Einheiten / 8 ROPs und einem 256bittigen Speicherinterface rausgebracht, anstatt diesen oberlahmen DX10-Müll, der bestenfalls zu Vista3D-Speilzeugdesktopbeschleunigung taugt, dann müßten AMD/ATI jetzt nicht so einem Mist zusammenfrickeln. Denn als was anderes kann man diese 2-Chip-"Lösung" nicht bezeichnen. Bei NVidia ist es genau der gleiche Unfug ... man kann es auch mit der Marksegmentabschottung soweit übertreiben, daß die ganze Schose gewaltig nach hinten losgeht.
Hätten sie gleich einen Chip mit 32 Shader-Einheiten / 8 ROPs und einem 256bittigen Speicherinterface rausgebracht, anstatt diesen oberlahmen DX10-Müll, der bestenfalls zu Vista3D-Speilzeugdesktopbeschleunigung taugt, dann müßten AMD/ATI jetzt nicht so einem Mist zusammenfrickeln. Denn als was anderes kann man diese 2-Chip-"Lösung" nicht bezeichnen. Bei NVidia ist es genau der gleiche Unfug ... man kann es auch mit der Marksegmentabschottung soweit übertreiben, daß die ganze Schose gewaltig nach hinten losgeht.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
So eine sch*** kauf ich nicht die Leistung pro Watt ist miserabel. CF und SLI sie dank, ich habe und will keine Dual GPU Lösung und ich denke das viele so etwas nicht wollen, sonst wäre CF & Co. erfolgreich.
In meinen Augen sind SLI und CF ein Megaflop! Wenn zwei 2600xt schneller wäre wie eine 2900xt, wäre es interessant
Zu V2 Zeiten das das noch Sinn gemacht und war erfolgreich aber scheinbar haben die das Erfolgsprinzip nicht verstanden
Von mir gibt es nur ein dickes fettes *fui* AMD!!!
In meinen Augen sind SLI und CF ein Megaflop! Wenn zwei 2600xt schneller wäre wie eine 2900xt, wäre es interessant
Zu V2 Zeiten das das noch Sinn gemacht und war erfolgreich aber scheinbar haben die das Erfolgsprinzip nicht verstanden
Von mir gibt es nur ein dickes fettes *fui* AMD!!!
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
So eine sch*** kauf ich nicht die Leistung pro Watt ist miserabel. CF und SLI sie dank, ich habe und will keine Dual GPU Lösung und ich denke das viele so etwas nicht wollen, sonst wäre CF & Co. erfolgreich.
In meinen Augen sind SLI und CF ein Megaflop! Wenn zwei 2600xt schneller wäre wie eine 2900xt, wäre es interessant
Zu V2 Zeiten das das noch Sinn gemacht und war erfolgreich aber scheinbar haben die das Erfolgsprinzip nicht verstanden
Von mir gibt es nur ein dickes fettes *fui* AMD!!!
find ich auch...
zumal die dual-chip-grakas nur in cf-kompatiblen spielen laufen dürften oder?
mfg
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
find ich auch...
zumal die dual-chip-grakas nur in cf-kompatiblen spielen laufen dürften oder?
mfg
Bingo Das heist max 90% mehr Speed im Schnitt evtl. 30%... wie Effektiv
[Sarkasmus]AMD wie war das noch mal mit Strom sparen, hattet Ihr nicht mal einen Stromzähler der den Ersparnis durch AMD anzeigt [/Sarkasmus]
spaceman2702
Commander
weis nichts was gegen einen dual lösung sprechen sollte . man entwickelt einen chip der darauf ausgelegt ist parallel zu laufen und spart sich so bei der herstellung ein weiteres modell. allerdings steht und fällt alles mit der komunikation beider untereinander. theoretisch könnete man die leistung schon annähernd verdoppeln. also anstatt rumzu heulen sollten alle mal benches abwarten.
zumal der hd 2600 im HDTV bereich die top lösung aktuell ist. Was die cpu last angeht gibts keine alternative zu dieser. und high end gamer lassen diese eh aussen vor.
zumal der hd 2600 im HDTV bereich die top lösung aktuell ist. Was die cpu last angeht gibts keine alternative zu dieser. und high end gamer lassen diese eh aussen vor.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
du hast da was nicht verstanden.
dualchip-grakas arbeiten wie ein cf-systeme. sie laufen also bei "nicht cf-kompatiblen spielen" nur mit "einem" chip.
also kann man sehr wohl meckern
mfg
dualchip-grakas arbeiten wie ein cf-systeme. sie laufen also bei "nicht cf-kompatiblen spielen" nur mit "einem" chip.
also kann man sehr wohl meckern
mfg
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
weis nichts was gegen einen dual lösung sprechen sollte . man entwickelt einen chip der darauf ausgelegt ist parallel zu laufen und spart sich so bei der herstellung ein weiteres modell. allerdings steht und fällt alles mit der komunikation beider untereinander. theoretisch könnete man die leistung schon annähernd verdoppeln. also anstatt rumzu heulen sollten alle mal benches abwarten.
zumal der hd 2600 im HDTV bereich die top lösung aktuell ist. Was die cpu last angeht gibts keine alternative zu dieser. und high end gamer lassen diese eh aussen vor.
Benches sind bereits das sind da! Schau dir einfach die CF- Benches an
Zuletzt bearbeitet:
spaceman2702
Commander
daran will ich halt nicht recht glauben .
zumal in zukunft ja alles in richtung parallelisierung eines desings hinausläuft. vielleicht wird dies ein erster non-crossfire ansatz. sonst würde man ja nvidia chipsätze komplett außen vor lassen was sicher nicht so sein kann wenn man sie als konkurent zur 8600gts sieht.
zumal in zukunft ja alles in richtung parallelisierung eines desings hinausläuft. vielleicht wird dies ein erster non-crossfire ansatz. sonst würde man ja nvidia chipsätze komplett außen vor lassen was sicher nicht so sein kann wenn man sie als konkurent zur 8600gts sieht.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
das wäre sicherlich toll, wenn sie das machen würden, aber eben leider eher unwahrscheinlich...
mfg
mfg
Markus Everson
Grand Admiral Special
(Ich hab den Post nochmal komplett überarbeitet und dabei irrtümlich den originalen überschrieben weil ich dachte den noch gar nicht gesendet zu haben - sorry)
War es nicht so dass bei CF (im Gegensatz zu SLI) jedes Spiel profitieren sollte?
foenfrisur schrieb:du hast da was nicht verstanden.
dualchip-grakas arbeiten wie ein cf-systeme. sie laufen also bei "nicht cf-kompatiblen spielen" nur mit "einem" chip.
War es nicht so dass bei CF (im Gegensatz zu SLI) jedes Spiel profitieren sollte?
Zuletzt bearbeitet:
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.580
- Renomée
- 2.569
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Dafür hätte ich gerne einen Beleg. Du irrst meiner Meinung nach.
Hier ein Artikel zur SAPPHIRE 1950 Pro Dual, welche zwei RV570 verbaut hat.
Dort ist es so, dass du nach der Treiberinstallation erstmal CrossFire zwischen beiden Chips aktivieren musst, weil sie sonst als SingleChip-Grafikkarte läuft und der zweite Chip nicht mehr macht als Strom zu verbrauchen.
Soweit ich das gelesen habe, wird das bei der 2600 XT Gemini genauso sein, womit foenfrisur recht hat.
EDIT:
Dazu noch ein Zitat aus der oben verlinkten Meldung von Xbitlabs (wichtiges hervorgehoben):
X-bit labs schrieb:ATI Radeon HD 2600 XT currently does not have a clear lead against Nvidia’s GeForce 8600 GTS when it comes to 3D games and benchmarks, therefore, to fight Nvidia’s performance-mainstream product a number of AMD’s add-in-board partners, including GeCube, Sapphire and some others, will offer dual-chip graphics cards with two ATI Radeon HD 2600 XT chips that will operate in CrossFire mode to boost 3D graphics performance. The so-called Gemini Radeon HD 2600 XT graphics boards will have suggested e-tail price from $189 to $249.
Zusammenschaltung der Chips per CF?
Hrhr, dann ist die Karte ja eine noch blödere Idee als ich dachte. Nicht bloß energieineffizienter als Einzelkarten, nein, auch noch mit der Chance auf Inkompatibilitäten. -.-
Hoffentlich kommt ATI nicht auf die Idee einer Quadchip-2600XT-Lösung, wenn es später darum geht, nVidias Midrangekarten (>8600GTS und <8800er-Reihe) etwas entgegen zu setzen.
Hrhr, dann ist die Karte ja eine noch blödere Idee als ich dachte. Nicht bloß energieineffizienter als Einzelkarten, nein, auch noch mit der Chance auf Inkompatibilitäten. -.-
Hoffentlich kommt ATI nicht auf die Idee einer Quadchip-2600XT-Lösung, wenn es später darum geht, nVidias Midrangekarten (>8600GTS und <8800er-Reihe) etwas entgegen zu setzen.
mtb][sledgehammer
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.375
- Renomée
- 30
- Mein Laptop
- HP Compaq nx6125
- Prozessor
- Athlon XP 2500+
- Mainboard
- Asrock K7S8XE
- Kühlung
- AC / selfmade Wakü
- Speicher
- 1 GB PC3200 Team Memory
- Grafikprozessor
- ATI Radeon 9500
- Display
- 20,1'' Samsung SyncMaster 205BW 1680x1050
- HDD
- Samsung SV0802N
- Optisches Laufwerk
- Toshiba DVD-ROM SD-M1612
- Soundkarte
- Creative SB Live! Player 1024
- Gehäuse
- Chenbro Net Server Tower
- Netzteil
- Coba 400 Watt (silent)
- Betriebssystem
- Windows XP, Ubuntu Linux
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- knc TV Station , Terratec Cinergy 1200 DVB-C
Da ich mich nie so richtig über CF informiert habe, also was es wirklich bringt, und hier einige jammern, es wäre Schrott habe ich mich nun mal hier
http://www.computerbase.de/artikel/..._xt_crossfire/25/#abschnitt_performancerating
informiert. Also demnach legt die 2900 XT im Crossfire Modus ca 50% zu. Natürlich ist das nicht so schön wie damals zu Voodoo2 Zeiten. Aber 50 % halte ich nicht gerade für wenig. Insbesondere wenn ich sehe, dass heute doch kein Mensch (zumindest hier unter uns) auf die Idee kommt sich einen Single Core Prozessor zu kaufen, obwohl der Dual Core durchschnittlich wohl nur etwa 20% mehr Leistung bringt. Gepaart ist das ebenfalls (noch) mit einem verdoppelten Strombedarf. (Ändern wird sich dieser Punkt vielleicht mit dem K10)
IMO besteht der große Unterschied einfach darin, dass man einen Dual Core Prozessor in einen Sockel stecken kann. Für Crossfire braucht man i.A. eine teurere Platine und zwei teure Grafikkarten. Eine Gemini Karte ist in diesem Punkt jedoch anders, man hat ein einfaches Grafiksystem. Und thermisch dürfte die Sache nach den bisherigen 2400/2600er Tests auch kein Desaster ergeben.
http://www.computerbase.de/artikel/..._xt_crossfire/25/#abschnitt_performancerating
informiert. Also demnach legt die 2900 XT im Crossfire Modus ca 50% zu. Natürlich ist das nicht so schön wie damals zu Voodoo2 Zeiten. Aber 50 % halte ich nicht gerade für wenig. Insbesondere wenn ich sehe, dass heute doch kein Mensch (zumindest hier unter uns) auf die Idee kommt sich einen Single Core Prozessor zu kaufen, obwohl der Dual Core durchschnittlich wohl nur etwa 20% mehr Leistung bringt. Gepaart ist das ebenfalls (noch) mit einem verdoppelten Strombedarf. (Ändern wird sich dieser Punkt vielleicht mit dem K10)
IMO besteht der große Unterschied einfach darin, dass man einen Dual Core Prozessor in einen Sockel stecken kann. Für Crossfire braucht man i.A. eine teurere Platine und zwei teure Grafikkarten. Eine Gemini Karte ist in diesem Punkt jedoch anders, man hat ein einfaches Grafiksystem. Und thermisch dürfte die Sache nach den bisherigen 2400/2600er Tests auch kein Desaster ergeben.
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Naja zu Voodoo2 Zeiten hat man das Sli Kabel dazwichengepappt und im Spiel auf Glide ( wenn man es nicht eh schon hatte) eingestellt und es hat gefunzt, naja wenn ich da ab und an meine zwei Diamond Monster denke .
Heute muss man es extra im Treiber aktivieren und hoffen das es auch funzt, gibt ja auch Games wo es dann langsamer wird.
Wat ein Fortschritt.
Heute muss man es extra im Treiber aktivieren und hoffen das es auch funzt, gibt ja auch Games wo es dann langsamer wird.
Wat ein Fortschritt.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
mtb][sledgehammer;3239031 schrieb:Da ich mich nie so richtig über CF informiert habe, also was es wirklich bringt, und hier einige jammern, es wäre Schrott habe ich mich nun mal hier
http://www.computerbase.de/artikel/..._xt_crossfire/25/#abschnitt_performancerating
informiert. Also demnach legt die 2900 XT im Crossfire Modus ca 50% zu. Natürlich ist das nicht so schön wie damals zu Voodoo2 Zeiten. Aber 50 % halte ich nicht gerade für wenig. Insbesondere wenn ich sehe, dass heute doch kein Mensch (zumindest hier unter uns) auf die Idee kommt sich einen Single Core Prozessor zu kaufen, obwohl der Dual Core durchschnittlich wohl nur etwa 20% mehr Leistung bringt. Gepaart ist das ebenfalls (noch) mit einem verdoppelten Strombedarf. (Ändern wird sich dieser Punkt vielleicht mit dem K10)
IMO besteht der große Unterschied einfach darin, dass man einen Dual Core Prozessor in einen Sockel stecken kann. Für Crossfire braucht man i.A. eine teurere Platine und zwei teure Grafikkarten. Eine Gemini Karte ist in diesem Punkt jedoch anders, man hat ein einfaches Grafiksystem. Und thermisch dürfte die Sache nach den bisherigen 2400/2600er Tests auch kein Desaster ergeben.
problem bei den performance-ratings ist, das dies nur durchschnittswerte der gebenchten spiele/programme sind.
also auch spiele, die von cf/sli null/nicht profitieren sind mit enthalten in diesem rating
ergo kann man sagen, das cf bei einigen spielen sinnvoll ist und bei anderen eben einfach nicht.
hauptproblem sind aber die treiber, denn diese müssen das spiel erstmal unterstützen, auch wenn ati damals gesagt hat, das "alle spiele mit cf lauffähig sein werden"...lol sag ich da mal. schön wärs gewesen.
würde alle spiele mit cf laufen, wäre wie sicher 80% schneller...
mfg
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Es ist möglich, daß die zwei-Chip-Karte nur eine Notlösung ist, bis der RV670 irgendwann so weit ist, auf die Menschheit losgelassen zu werden, denn der soll ja gerüchteweise so etwa wie ein doppelter RV630 sein.
Von dem soll es dann ja angeblich auch eine solche Dual-Karte geben. Das spräche wiederum dafür, daß ATi versucht, die CF-Verbreitung zu erhöhen und gleichzeitig auch Erfahrungen damit zu sammeln. Denn es gibt ja angeblich die längerfristige Planung, keine großen Grafikchips mehr zu bauen, sondern nur noch kleine, die man dann einzeln, zu zweit oder zu viert kombiniert.
Ob sich das alles als optimale Lösung herausstellen wird, wage ich zu bezweifeln, aber daß diese Planung durchgezogen wird, scheint sich langsam zu bestätigen.
Von dem soll es dann ja angeblich auch eine solche Dual-Karte geben. Das spräche wiederum dafür, daß ATi versucht, die CF-Verbreitung zu erhöhen und gleichzeitig auch Erfahrungen damit zu sammeln. Denn es gibt ja angeblich die längerfristige Planung, keine großen Grafikchips mehr zu bauen, sondern nur noch kleine, die man dann einzeln, zu zweit oder zu viert kombiniert.
Ob sich das alles als optimale Lösung herausstellen wird, wage ich zu bezweifeln, aber daß diese Planung durchgezogen wird, scheint sich langsam zu bestätigen.
Wieso frickeln die eigentlich an einer Dual-Chip Lösung wenn man doch eigentlich die Entwicklung in richtung Einzel-GPU mit mehreren Cores forcieren könnte ?
Ich mein das haette mehr Zukunft wie 2 GPUs die auf 2 unterschiedlichen Standards von Nvidia und ATi basieren.
Vielleicht hab ich da auch was falsch verstanden ?!
Ich mein das haette mehr Zukunft wie 2 GPUs die auf 2 unterschiedlichen Standards von Nvidia und ATi basieren.
Vielleicht hab ich da auch was falsch verstanden ?!
denjo
Grand Admiral Special
- Mitglied seit
- 28.12.2005
- Beiträge
- 3.746
- Renomée
- 116
- Standort
- Kellinghusen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PDM <--- sowas gabs mal :(
- Lieblingsprojekt
- all
- Meine Systeme
- Ryzen 7 1700, 3.60GHz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen 9 3900X, 4,1Ghz All Core VID 1.13
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Thermalright Le Grand Macho RT
- Speicher
- Gskill F4-3600C16-8GTZNC -> 4*8 GB 3733Mhz (16-19-19-19-35)
- Grafikprozessor
- 5700XT Nitro+
- Display
- LG UltraGear 27GL850-B
- SSD
- Samsung 970 NVMe 1 TB
- HDD
- Western Digital Blue 4TB + 500 Samsung
- Optisches Laufwerk
- gehören der Vergangenheit an.
- Soundkarte
- Onboard
- Gehäuse
- bequite! PURE BASE 500
- Netzteil
- Enermax Revolution87+ 550 W GOLD -> Thx p3d
- Betriebssystem
- Windows X
- Webbrowser
- Chrome, Firefox
- Verschiedenes
- MEHR POWER ^^
- Internetanbindung
- ▼600 ▲50
erinert mal wieder stark an 3dfx .......
diese crossfire/SLI möglichkeit macht in meinen augen nur sinn wenn ich mir ne neue karte holen würde und die alte mit ranklemmen kann aber das ist ja bis heute nicht möglich (korrigiert mich falls ich falsch liege) ^^
da ist mir ne 2 gpu lösung auf einer karte lieber als der obengenannte mist .... wie die karte die seit nen paar jahren über meinem monitor heangt was könnte das bloss sein ^^
diese crossfire/SLI möglichkeit macht in meinen augen nur sinn wenn ich mir ne neue karte holen würde und die alte mit ranklemmen kann aber das ist ja bis heute nicht möglich (korrigiert mich falls ich falsch liege) ^^
da ist mir ne 2 gpu lösung auf einer karte lieber als der obengenannte mist .... wie die karte die seit nen paar jahren über meinem monitor heangt was könnte das bloss sein ^^
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
Clany schrieb:Wieso frickeln die eigentlich an einer Dual-Chip Lösung wenn man doch eigentlich die Entwicklung in richtung Einzel-GPU mit mehreren Cores forcieren könnte ?
Im besten Fall deshalb weil man eine oder drei GPU
Nix gegen eine GraKa die wie auch immer im 3D-Betrieb ordentlich Dampf macht. Die darf dann dabei auch 100 Watt (mein persönliches Limit) in Hitze und Lärm umsetzen. Aber wenn das System idelt und die Karte trotzdem 30 Watt braucht (zwei R630) - dann ist das für mich das KO-Kriterium.
Ähnliche Themen
- Antworten
- 1K
- Aufrufe
- 71K
- Antworten
- 0
- Aufrufe
- 624
- Antworten
- 2K
- Aufrufe
- 133K