App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD goes Africa - R600 in den Startlöchern.....
- Ersteller neax
- Erstellt am
neax
Grand Admiral Special
Hi,
hui der Wind frischt auf und trägt so allerhand Gerüchte rund um den R600.
Zuerst auf den grünen Planeten: So wird laut einigen Vermutungen am 14. Mail ganze 9 neue Grafikkartenprodukte auf Basis des R600 ganz offiziell das Licht der Öffentlichkeit erblicken.
Halte ich für nicht unrealistisch. Es wurde ja immer auch argumentiert, dass man die ganze Familie gleichzeitig vorstellen wolle. Das dann auch jedes Produkt kaufbar ist, steht freilich auf einem anderem Blatt.
Auf einem anderen Blatt wird auch argwöhnisch ff..Meinung kundgetan. High-End R600-Grafikkarte nicht für den Retail-Markt? Also nur für Partner und nicht für die Endkunden. Ungewöhnlich ein Produkt dann nur in Komplettsysteme zu stecken und nicht einzeln zu verkaufen, wo gerade dieser Bereich (.s.o.) Geld, Image usw. bringt.
Sieht man allerdings die anscheinend großen Schwierigkeiten mit der HD2900XTX an, was Kühlung, Leistung, Stromverbrauch, Speicher und wahrscheinlich auch GPU Auslese der für diese Taktraten geeigneten R600 samt der Größe der Platine, packt man die HD2900XTX lieber in genau abgestimmte Systeme und in den Bereich, der relative wenige HD2900XTX in absoluten Zahlen nachfragt (Workstations ).
Für mich eine klare Kapitulation seitens ATI vor den Schwierigkeiten den R600 in der jetzigen Form auch ausreichend im Highendbereich zu platzieren. Vielleicht schafft es AMD wirklich relativ schnell den R650 zu bringen, wie vermutet wird. Der dann aufgrund der 65nm Produktion einige Probleme weniger haben könnte als der R600 zum Beispiel mit dem Stromverbrauch...
Derweil trägt der Wind auch das Gerücht in die Onlinewelt, dass der HD2900PRO (R670RV) im dritten Quartal kommen soll.
Ziehen wir das ganze zusammen und machen einen Strich: glorreich war die Informationspolitik nicht von AMD in Sachen R600. Das ist aufgrund der vielfach zitierten und unterstellten Problemen nicht verwunderlich. Letztlich denke ich, dass AMD mit dem R600 im Lowend und Midrangebereich ganz gut aufgestellt ist und allein der Highendbereich immer noch sehr große Probleme bereitet. Vielleicht ist es der Kunde, der sich trotzdem freuen kann, da AMD ev. die GPUs günstig anbietet, umso verlorenes Terrain wieder gewinnen zu können.
Greetz
neax
hui der Wind frischt auf und trägt so allerhand Gerüchte rund um den R600.
Zuerst auf den grünen Planeten: So wird laut einigen Vermutungen am 14. Mail ganze 9 neue Grafikkartenprodukte auf Basis des R600 ganz offiziell das Licht der Öffentlichkeit erblicken.
Halte ich für nicht unrealistisch. Es wurde ja immer auch argumentiert, dass man die ganze Familie gleichzeitig vorstellen wolle. Das dann auch jedes Produkt kaufbar ist, steht freilich auf einem anderem Blatt.
Auf einem anderen Blatt wird auch argwöhnisch ff..Meinung kundgetan. High-End R600-Grafikkarte nicht für den Retail-Markt? Also nur für Partner und nicht für die Endkunden. Ungewöhnlich ein Produkt dann nur in Komplettsysteme zu stecken und nicht einzeln zu verkaufen, wo gerade dieser Bereich (.s.o.) Geld, Image usw. bringt.
Sieht man allerdings die anscheinend großen Schwierigkeiten mit der HD2900XTX an, was Kühlung, Leistung, Stromverbrauch, Speicher und wahrscheinlich auch GPU Auslese der für diese Taktraten geeigneten R600 samt der Größe der Platine, packt man die HD2900XTX lieber in genau abgestimmte Systeme und in den Bereich, der relative wenige HD2900XTX in absoluten Zahlen nachfragt (Workstations ).
Für mich eine klare Kapitulation seitens ATI vor den Schwierigkeiten den R600 in der jetzigen Form auch ausreichend im Highendbereich zu platzieren. Vielleicht schafft es AMD wirklich relativ schnell den R650 zu bringen, wie vermutet wird. Der dann aufgrund der 65nm Produktion einige Probleme weniger haben könnte als der R600 zum Beispiel mit dem Stromverbrauch...
Derweil trägt der Wind auch das Gerücht in die Onlinewelt, dass der HD2900PRO (R670RV) im dritten Quartal kommen soll.
Ziehen wir das ganze zusammen und machen einen Strich: glorreich war die Informationspolitik nicht von AMD in Sachen R600. Das ist aufgrund der vielfach zitierten und unterstellten Problemen nicht verwunderlich. Letztlich denke ich, dass AMD mit dem R600 im Lowend und Midrangebereich ganz gut aufgestellt ist und allein der Highendbereich immer noch sehr große Probleme bereitet. Vielleicht ist es der Kunde, der sich trotzdem freuen kann, da AMD ev. die GPUs günstig anbietet, umso verlorenes Terrain wieder gewinnen zu können.
Greetz
neax
G
gast_003
Guest
laut dem was bisher berichtet worden ist soll die 2900XT doch in der Preisklasse der 8800GTS liegen, schneller als jene sein aber auch mehr Strom verbraten.....dann betrachte man nochmal die Tabelle und man stellt fest das die 2900er XT/XL noch in 80nm und die 2600er/2400er bereits in 65nm gefertigt werden.
In bezug auf den Stromverbrauch macht es also sinn möglichst bald bei den 2900er den shrink auf 65nm zu vollziehen....man stelle sich allein nur vor was eine XTX angesichts der bisherigen Daten wohl mit +800MHz Chiptakt in 80nm gefressen hätte...
Meine Vermutung ist an der Stelle das es noch Probleme beim der 65nm Fertigung eines solch komplexen Chips wie dem R600 gibt ind die Ausbeute dementsprechend ausfallen dürfte.
PS: in den Startlöchern für ne 2900XT hock.
In bezug auf den Stromverbrauch macht es also sinn möglichst bald bei den 2900er den shrink auf 65nm zu vollziehen....man stelle sich allein nur vor was eine XTX angesichts der bisherigen Daten wohl mit +800MHz Chiptakt in 80nm gefressen hätte...
Meine Vermutung ist an der Stelle das es noch Probleme beim der 65nm Fertigung eines solch komplexen Chips wie dem R600 gibt ind die Ausbeute dementsprechend ausfallen dürfte.
PS: in den Startlöchern für ne 2900XT hock.
Andy06
Grand Admiral Special
- Mitglied seit
- 02.05.2006
- Beiträge
- 2.318
- Renomée
- 9
- Standort
- Berlin
- Mein Laptop
- Acer Aspire 1410
- Prozessor
- AMD FX 8350
- Mainboard
- MSI 760GA-P43 (FX)
- Kühlung
- Alpenföhn Matterhorn 2x120er Lüfter
- Speicher
- 16 GB DDR3 @1894
- Grafikprozessor
- Gigabyte R9 280X Rev.2
- Display
- 27" iiyama ProLite E2773HDS
- SSD
- Samsung SSD 840 1TB
- Optisches Laufwerk
- Lite iHOS104 BluRay Laufwerk
- Soundkarte
- onBoard
- Netzteil
- 500 Watt OCZ ModXStream-Pro
- Betriebssystem
- Windows 7 HP 64bit
- Webbrowser
- Google Chrome
naja, der strom ist am ende doch egal, ob die dann 10 oder 15 watt mehr braucht als eine 88GTS. klar muss die nicht sinnlos den strom verbraten aber am ende merkt man das auf der stromrechnung eh nicht
G
gast_003
Guest
Wenn die Graka nicht rund um die Uhr am achern ist, dann ist es im bezug auf den Stromverbrauch ohnehin wichtiger wie hoch der Idle verbrauch ist...und genau dazu hab ich noch keinerlei Daten gelesen. Auch ist die DX10 Grafikleistung noch so ziemlich unklar....sowohl von ATI als auch von nVidia und erst recht das Verhältnis zueinander.
neax
Grand Admiral Special
Hi,
die ersten Reviews mit der HD 2900 XT sind draußen!
Dennoch Vorsicht ist geboten, da die Treiber noch nicht sehr ausgereift sind und sich daher doch etwas ändern kann und wird. Der letzte Treiber ist am letzten Freitag erschienen (fast) alle Reviews arbeiten also mit einem veraltetem Treiber.
Dennoch: Erste Fazit: Durchwachsen! Mehr oder weniger eine kleine Enttäuschung
Ich denke während im Highendbereich der wirkliche Konter von AMD bisher ausblieb, werden die anderen HD 2600 und HD 2400 durchweg sehr gute Konkurrenten für Nvidia sein.
Greetz
neax
EDIT: http://img369.imageshack.us/img369/8287/attachment153445bbx8.jpg hihi
LISTE mit Reviews etc.:
http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html (sehr alter Treiber...)
http://www.mediafire.com/?1zvucssmixm Pre-NDA-Presse-Präsentation
http://forum.beyond3d.com/showpost.php?p=985906&postcount=5437 S.T.A.L.K.E.R. v1.3, All setting maximun, AF in game . 8.37 Drivers
http://vr-zone.com/?i=4946&s=13
die ersten Reviews mit der HD 2900 XT sind draußen!
Dennoch Vorsicht ist geboten, da die Treiber noch nicht sehr ausgereift sind und sich daher doch etwas ändern kann und wird. Der letzte Treiber ist am letzten Freitag erschienen (fast) alle Reviews arbeiten also mit einem veraltetem Treiber.
Dennoch: Erste Fazit: Durchwachsen! Mehr oder weniger eine kleine Enttäuschung
Ich denke während im Highendbereich der wirkliche Konter von AMD bisher ausblieb, werden die anderen HD 2600 und HD 2400 durchweg sehr gute Konkurrenten für Nvidia sein.
Greetz
neax
EDIT: http://img369.imageshack.us/img369/8287/attachment153445bbx8.jpg hihi
LISTE mit Reviews etc.:
http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html (sehr alter Treiber...)
http://www.mediafire.com/?1zvucssmixm Pre-NDA-Presse-Präsentation
http://forum.beyond3d.com/showpost.php?p=985906&postcount=5437 S.T.A.L.K.E.R. v1.3, All setting maximun, AF in game . 8.37 Drivers
http://vr-zone.com/?i=4946&s=13
Zuletzt bearbeitet:
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
naja... die treiber scheinen wirklich noch um einiges zu hinken. in Fear verändert sich die durchschnittliche Framezahl (bei ocworkbench) zum Beispiel zwisdchen normal und mittleren Qualitätseinstellungen garnicht. dabei ist die Framerate bei mittleren einstellungen sogar höher als bei der 8800gtx. müsste ale (rein theoretisch) bedeuten, dass die 2900xt zumindest in Fear schneller als die 8800gtx werden kann.
Ich würde jedenfalls mich noch nicht zu einer Aussage hinreißen lassen, ob die 2900xt nicht vileicht doch schneller wird als die 8800gtx.
Ich würde jedenfalls mich noch nicht zu einer Aussage hinreißen lassen, ob die 2900xt nicht vileicht doch schneller wird als die 8800gtx.
neax
Grand Admiral Special
Hi,
es ist an der Zeit ein erstes Fazit zu ziehen?
Fassen wir zusammen, AMD hat mit der Radeon HD 2900 XT die neue Generation von R600-GPUs vorgestellt. Größer schneller als alles andere von ATI bzw. AMD im GPU-Bereich bisher zu bieten hatte. Die Radeon HD 2900 XT zielt auf unterene HighEnd-Segment und ist kein Gegenpart im Highend-Bereich (GeForce 8800 GTX und Ultra). Was Preis und Leistung einwandfrei bestätigen. Das Preis-Leistungsverhältnis ist OK, aber nicht überragend.
Die R600 scheint den G80 in keiner Weise, wie im Vorfeld oft vermutet, in die Schranken weisen zu können. Mit dieser GPU Generation scheint AMD bisher lediglich "nachgezogen" zu haben.
Auch gibt es noch einige Baustellen im Fall der HD 2900 XT. Zum einen ist da sicherlich eine Modifikation der Kühlung (Steuerung+Lautstärke) dringend erforderlich. Zum anderen sind die Treiber derzeit desolat. Finde ich wirklich nicht gut nach den vielen Verzögerungen die Karte mit solchen Treiber vorzustellen. Sicherlich steckt in den Treibern noch die eine oder andere Leistungsreserve - das verhindert derzeit ein wirklich abschließende Beurteilung der Leistungsfähigkeit Radeon HD 2900 XT. Die Baustelle Stromverbrauch wird absehbar eine bleiben - da muss man wohl auf den R650 warten.
Bei der Release Geschwindigkeit mit zum Teil doch deutlichen Leistungsveränderungen der Treiber, ist wirklich Vorsicht geboten bei der Bewertung der einzelnen Reviews.
Greetz
neax
es ist an der Zeit ein erstes Fazit zu ziehen?
Fassen wir zusammen, AMD hat mit der Radeon HD 2900 XT die neue Generation von R600-GPUs vorgestellt. Größer schneller als alles andere von ATI bzw. AMD im GPU-Bereich bisher zu bieten hatte. Die Radeon HD 2900 XT zielt auf unterene HighEnd-Segment und ist kein Gegenpart im Highend-Bereich (GeForce 8800 GTX und Ultra). Was Preis und Leistung einwandfrei bestätigen. Das Preis-Leistungsverhältnis ist OK, aber nicht überragend.
Die R600 scheint den G80 in keiner Weise, wie im Vorfeld oft vermutet, in die Schranken weisen zu können. Mit dieser GPU Generation scheint AMD bisher lediglich "nachgezogen" zu haben.
Auch gibt es noch einige Baustellen im Fall der HD 2900 XT. Zum einen ist da sicherlich eine Modifikation der Kühlung (Steuerung+Lautstärke) dringend erforderlich. Zum anderen sind die Treiber derzeit desolat. Finde ich wirklich nicht gut nach den vielen Verzögerungen die Karte mit solchen Treiber vorzustellen. Sicherlich steckt in den Treibern noch die eine oder andere Leistungsreserve - das verhindert derzeit ein wirklich abschließende Beurteilung der Leistungsfähigkeit Radeon HD 2900 XT. Die Baustelle Stromverbrauch wird absehbar eine bleiben - da muss man wohl auf den R650 warten.
Bei der Release Geschwindigkeit mit zum Teil doch deutlichen Leistungsveränderungen der Treiber, ist wirklich Vorsicht geboten bei der Bewertung der einzelnen Reviews.
Greetz
neax
Zuletzt bearbeitet:
mtb][sledgehammer
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.375
- Renomée
- 30
- Mein Laptop
- HP Compaq nx6125
- Prozessor
- Athlon XP 2500+
- Mainboard
- Asrock K7S8XE
- Kühlung
- AC / selfmade Wakü
- Speicher
- 1 GB PC3200 Team Memory
- Grafikprozessor
- ATI Radeon 9500
- Display
- 20,1'' Samsung SyncMaster 205BW 1680x1050
- HDD
- Samsung SV0802N
- Optisches Laufwerk
- Toshiba DVD-ROM SD-M1612
- Soundkarte
- Creative SB Live! Player 1024
- Gehäuse
- Chenbro Net Server Tower
- Netzteil
- Coba 400 Watt (silent)
- Betriebssystem
- Windows XP, Ubuntu Linux
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- knc TV Station , Terratec Cinergy 1200 DVB-C
Habe mir seid langen mal wieder ein GPU Review durchgelesen (bei mir werkelt immer noch eine ATI Radeon 9500). Tja was sagt man dazu: heute werden also Tests in 1600x1200 mit 8x AA und was weiß ich AF gefahren. Wenn ich dann sehe, dass die Karten immer noch deutlich mehr Frames als die Wahrnehmbarkeitsgrenze des Auges darstellen können, dann finde ic das schon beeindruckend.
Gleichzeitig finde ich es schon erstaunlich, dass ich keine Angaben zu minimalen Frameraten gefunden habe, denn das ist doch letztendlich das, was zählt. K. A. in wieweit sich dann die Verhältnisse ändern, aber mich würde das dennoch mehr interessieren, als ob nun die durchschnittliche Frameanzahl bei 200 oder 100 liegt.
Naja, das so als allgemeinen Kommentar. Zur neuen ATI GPU: für mich kommt irgendwie einfach das hinten raus, was die technischen Details versprechen. Die ATI und nVidia Chips haben IMO eben andere Profilierungen, ich sehe da die G80 eher als Füllratenmonster, während der R600 eher moderne Features beinhaltet. Und bei gleicher Transistoranzahl gibts dann natürlich Unterschiede in den unterschiedlichen Disziplinen.
Für mich ist daher der G80 eher der klare Chip für diejenigen, die heute die Krone der Leistung haben wollen. Der R600 erscheint mir mehr der Allround Chip zu sein, mit super Bildqualität, HD-Decoder, ...
Also für mich wäre eher das was zählt. Ein Dorn im Auge ist mir vor allem die Verlustleistung. Muss ich wohl noch warten, bis so ein Chip noch ein Viertel der Leistung verbrät.
Gleichzeitig finde ich es schon erstaunlich, dass ich keine Angaben zu minimalen Frameraten gefunden habe, denn das ist doch letztendlich das, was zählt. K. A. in wieweit sich dann die Verhältnisse ändern, aber mich würde das dennoch mehr interessieren, als ob nun die durchschnittliche Frameanzahl bei 200 oder 100 liegt.
Naja, das so als allgemeinen Kommentar. Zur neuen ATI GPU: für mich kommt irgendwie einfach das hinten raus, was die technischen Details versprechen. Die ATI und nVidia Chips haben IMO eben andere Profilierungen, ich sehe da die G80 eher als Füllratenmonster, während der R600 eher moderne Features beinhaltet. Und bei gleicher Transistoranzahl gibts dann natürlich Unterschiede in den unterschiedlichen Disziplinen.
Für mich ist daher der G80 eher der klare Chip für diejenigen, die heute die Krone der Leistung haben wollen. Der R600 erscheint mir mehr der Allround Chip zu sein, mit super Bildqualität, HD-Decoder, ...
Also für mich wäre eher das was zählt. Ein Dorn im Auge ist mir vor allem die Verlustleistung. Muss ich wohl noch warten, bis so ein Chip noch ein Viertel der Leistung verbrät.
raven-666
Commodore Special
- Mitglied seit
- 19.08.2003
- Beiträge
- 430
- Renomée
- 3
- Prozessor
- c2d e6400@3,2
- Mainboard
- asus
- Kühlung
- lukü - scythe ninja
- Speicher
- 4x1024 geil/gskill
- Grafikprozessor
- connect 3d x800xl
- Display
- samsung 19" tft
- HDD
- hitachi 250GB Sata2, 2x Samsung 160 GB Sata2
- Optisches Laufwerk
- Benq Dvd-Brenner, Plextor CD-RW
- Soundkarte
- on board
- Gehäuse
- Thermaltake Tsunami
- Netzteil
- enermax 430W
- Betriebssystem
- Vista Ultimate 64bit
- Webbrowser
- firefox
ergo, entweder nvidia oder die 26xx serie von ati
Andy06
Grand Admiral Special
- Mitglied seit
- 02.05.2006
- Beiträge
- 2.318
- Renomée
- 9
- Standort
- Berlin
- Mein Laptop
- Acer Aspire 1410
- Prozessor
- AMD FX 8350
- Mainboard
- MSI 760GA-P43 (FX)
- Kühlung
- Alpenföhn Matterhorn 2x120er Lüfter
- Speicher
- 16 GB DDR3 @1894
- Grafikprozessor
- Gigabyte R9 280X Rev.2
- Display
- 27" iiyama ProLite E2773HDS
- SSD
- Samsung SSD 840 1TB
- Optisches Laufwerk
- Lite iHOS104 BluRay Laufwerk
- Soundkarte
- onBoard
- Netzteil
- 500 Watt OCZ ModXStream-Pro
- Betriebssystem
- Windows 7 HP 64bit
- Webbrowser
- Google Chrome
ergo, entweder nvidia oder die 26xx serie von ati
na die 2600er Serie von AMD/ATI soll ja laut Gerüchten nur um die 45W brauchen. Also wenn das wirklich so kommen sollte, dann RESPEKT.
Mich würde da nur mal die Leistung interessieren. Wird die so in der Lage der X1950Pro sein oder etwas mehr??
Wobei man sowas eigentlich garnicht richtig vergleichen kann. Klar ist DX9 Leistung zur Zeit am wichtigsten. Aber DX10 kommt...
Und das wird auch der Haken an der 8800er Serie von NV sein. Das sind DX9 Karten, die auch DX10 können aber laut Benchmarks da versagen. Die 2900XT liegt im DX9 nur etwas hinter der 88er Reihe von NV zurück aber in DX10 ist sie 5mal so schnell.
Dann kann man für AMD nur hoffen, dass bald einige DX10 Spiele kommen und somit ihre Karte ordentlich Geld verdienen kann. AMD hats ja leider nötig... und Konkurrenz sollte erhalten bleiben.
MfG 8)
G
gast_003
Guest
Och so schwarz sehe ich das im Highend segment für die 2900XT noch nichtmal, denn:
1. der max. Stromverbrauch wurde auf nunmehr 215W gesenkt, wo vorher noch etwas von 300W und mehr die Rede war, im 2D Betrieb liegt er hingegen unterhalb der GTX
2. bei den Tests ohne AA und AF die Karte im schnitt fast schon bei der GTX aufschließen und sie teilweise sogar überholen kann...AA war ja schließlich die Performancebremse schlechthin bei den Betatreibern
3. der AF scheinbar nicht ganz so gut ist wie bei der 8800er, der neue AA Modus hingegen hochwertiger
4. sie gerade im Bereich von HDTV und co einfach mehr zu bieten hat
5. das preissegment zwischen der 8800 GTS und der GTX liegt....wo sie schließlich auch Marktsegmente räubern gehen wird.
Wieviel die Karte also zu leisten vermag wird sich im laufe der Treiberupdates recht schnell rauskristallisieren allerdings hoffe ich das BEINDE Hersteller nicht wieder allso tief in die Treibertrickkiste greifen und dem User auch die Möglichkeit bieten solche "Otimierungen" abzuschalten.
1. der max. Stromverbrauch wurde auf nunmehr 215W gesenkt, wo vorher noch etwas von 300W und mehr die Rede war, im 2D Betrieb liegt er hingegen unterhalb der GTX
2. bei den Tests ohne AA und AF die Karte im schnitt fast schon bei der GTX aufschließen und sie teilweise sogar überholen kann...AA war ja schließlich die Performancebremse schlechthin bei den Betatreibern
3. der AF scheinbar nicht ganz so gut ist wie bei der 8800er, der neue AA Modus hingegen hochwertiger
4. sie gerade im Bereich von HDTV und co einfach mehr zu bieten hat
5. das preissegment zwischen der 8800 GTS und der GTX liegt....wo sie schließlich auch Marktsegmente räubern gehen wird.
Wieviel die Karte also zu leisten vermag wird sich im laufe der Treiberupdates recht schnell rauskristallisieren allerdings hoffe ich das BEINDE Hersteller nicht wieder allso tief in die Treibertrickkiste greifen und dem User auch die Möglichkeit bieten solche "Otimierungen" abzuschalten.
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
auch bei der 6000der reihe von Nvidia sah es erst so aus, als wäre sie schlechter, bis die treiberupdates kamen. Natürlich hat sich ATI hier auf jeden fall doch etwas verspätet.
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
). Was Preis und Leistung einwandfrei bestätigen. Das Preis-Leistungsverhältnis ist OK, aber nicht überragend.
für die doch späte einführung dieser Karte, finde ich es schon schwach.
5Mal shneller bei DX10 , JA JA wers glaubt. siehe Testergebnisse liegt die 2900XT nur etwas über einer 8800GTS.
Der Preisstimmt absolut nicht. Siehe AMD Pressebericht vom 14.Mai:
"Das Modell ATI Radeon HD 2900 XT ist ab sofort lieferbar und wird zusammen mit dem Spiele-Bundle Team Fortress 2, Portal, and Half-Life 2: Episode Two von Valve zum Preis von 295 Euro angeboten. Aufgrund dieses attraktiven Preises können mehr Endverbraucher denn je die Vorteile erstklassiger diskreter Grafikprodukte nutzen"
Bitte 295euro?? sehe da ab 384euro und nicht weniger.
Andy06
Grand Admiral Special
- Mitglied seit
- 02.05.2006
- Beiträge
- 2.318
- Renomée
- 9
- Standort
- Berlin
- Mein Laptop
- Acer Aspire 1410
- Prozessor
- AMD FX 8350
- Mainboard
- MSI 760GA-P43 (FX)
- Kühlung
- Alpenföhn Matterhorn 2x120er Lüfter
- Speicher
- 16 GB DDR3 @1894
- Grafikprozessor
- Gigabyte R9 280X Rev.2
- Display
- 27" iiyama ProLite E2773HDS
- SSD
- Samsung SSD 840 1TB
- Optisches Laufwerk
- Lite iHOS104 BluRay Laufwerk
- Soundkarte
- onBoard
- Netzteil
- 500 Watt OCZ ModXStream-Pro
- Betriebssystem
- Windows 7 HP 64bit
- Webbrowser
- Google Chrome
für die doch späte einführung dieser Karte, finde ich es schon schwach.
5Mal shneller bei DX10 , JA JA wers glaubt. siehe Testergebnisse liegt die 2900XT nur etwas über einer 8800GTS.
Der Preisstimmt absolut nicht. Siehe AMD Pressebericht vom 14.Mai:
"Das Modell ATI Radeon HD 2900 XT ist ab sofort lieferbar und wird zusammen mit dem Spiele-Bundle Team Fortress 2, Portal, and Half-Life 2: Episode Two von Valve zum Preis von 295 Euro angeboten. Aufgrund dieses attraktiven Preises können mehr Endverbraucher denn je die Vorteile erstklassiger diskreter Grafikprodukte nutzen"
Bitte 295euro?? sehe da ab 384euro und nicht weniger.
du willst testergenbisse?? hier bitte schön: http://www.hardtecs4u.de/?id=1178992218,83196,ht4u.php
sicherlich mag es unterschiede zu unterschiedlichen tests geben aber ich glaube schon, dass die 2900XT die bessere DX10 Karte ist. braucht zwar noch niemand aber naja^^
und was die treiber angeht, dann denkt bitte mal daran, wieviele monate es die 8800er schon gab und NV wusste, dass sie Vista Treiber brauchen und eh dann mal ein gescheiter vorhanden war. da hat AMD/ATI wohl etwas schneller lauffähige Treiber für Vista gebracht und getestet werden beide karten immer nur unter Vista, um ebend auch DX10 testen zu können.
MfG 8)
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
Eigentlich hatte man nie Probleme mit Vista und 8800GTS. meine einfache xpertvision 8800GTS320 lief von anfang an unter Vista.
Was fehlt z.b. immernoch sind gescheite SLI einstellungen. Dawäre noch ne Verbesserung nötig.
Aber auch bei denn Spielle entwicklern. hier ganz groß mal EA genannt.
Was fehlt z.b. immernoch sind gescheite SLI einstellungen. Dawäre noch ne Verbesserung nötig.
Aber auch bei denn Spielle entwicklern. hier ganz groß mal EA genannt.
G
gast_003
Guest
für die doch späte einführung dieser Karte, finde ich es schon schwach.
5Mal shneller bei DX10 , JA JA wers glaubt. siehe Testergebnisse liegt die 2900XT nur etwas über einer 8800GTS.
Die GF3 sollte damals auch bis zu 9x schneller sein als die Vorgängergeneration und war letztenendes langsamer als ne GF2 Ultra....alles eine Frage der Teildisziplinen und WAS man testet...
Was nen preisvergleich ist ist dir aber schon bekannt, oder? *klick*"Das Modell ATI Radeon HD 2900 XT ist ab sofort lieferbar und wird zusammen mit dem Spiele-Bundle Team Fortress 2, Portal, and Half-Life 2: Episode Two von Valve zum Preis von 295 Euro angeboten. Aufgrund dieses attraktiven Preises können mehr Endverbraucher denn je die Vorteile erstklassiger diskreter Grafikprodukte nutzen"
Bitte 295euro?? sehe da ab 384euro und nicht weniger.
Das die Einführungspreise meist höher sind ist leider auch nix neues.
neax
Grand Admiral Special
Hi,
die HD 2900 XT ist im unteren Highend-Segement platziert. Treiberupdates werden sicherlich noch das eine oder andere Prozent Leistung bringen, aber sie wird kaum näher an die 8800 GTX herankommen.
Der Preis, um ein wirkliches Angebot zu sein, sollte noch mal etwas Fallen und sich den 300 Euro nähern. Derzeit lieferbare Karte ab ~370 Euro. Eine 8800GTS 640MB gibt es ab 309 Euro.
Mein Tipp der R600 GPUs ist der RV670 - die dann auf HD 2900PRO im 3. Q. erscheinen soll und zwar in 65nm großen Strukturen.
Greetz
neax
die HD 2900 XT ist im unteren Highend-Segement platziert. Treiberupdates werden sicherlich noch das eine oder andere Prozent Leistung bringen, aber sie wird kaum näher an die 8800 GTX herankommen.
Der Preis, um ein wirkliches Angebot zu sein, sollte noch mal etwas Fallen und sich den 300 Euro nähern. Derzeit lieferbare Karte ab ~370 Euro. Eine 8800GTS 640MB gibt es ab 309 Euro.
Mein Tipp der R600 GPUs ist der RV670 - die dann auf HD 2900PRO im 3. Q. erscheinen soll und zwar in 65nm großen Strukturen.
Greetz
neax
Zuletzt bearbeitet:
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
solange will ich nicht warten.
da kaufe ich lieber erstmal eine 8800GTS 320mb für 260euro und fertig. wenn dann in 1Jahr bessere KArten draussen sind wird groß gekauft .
Für die Frau und Sims2, Rollercoaster wird die locker reichen nur eben nicht 2x6600 und nem 3000+ 754.
Da muss mal was neues rein. aber nur eine 8600GTS? weiß nicht!
mich würde die 8950GX2 freuen, meine jetzigen schon älteren 7950gx2s sind schon nicht schlecht gewesen.
da kaufe ich lieber erstmal eine 8800GTS 320mb für 260euro und fertig. wenn dann in 1Jahr bessere KArten draussen sind wird groß gekauft .
Für die Frau und Sims2, Rollercoaster wird die locker reichen nur eben nicht 2x6600 und nem 3000+ 754.
Da muss mal was neues rein. aber nur eine 8600GTS? weiß nicht!
mich würde die 8950GX2 freuen, meine jetzigen schon älteren 7950gx2s sind schon nicht schlecht gewesen.
neax
Grand Admiral Special
Hi,
die Köche brutzeln wieder einige Gerüchte. Chefkoch fudzilla kredenzt uns das Gerücht AMD wird den 2008 anstehende R700-GPU in 55nm bauen. OK Zusätzlich soll es sich dabei um einen Multicore-Chip, eine GPU mit mehreren Cores man spricht auch von "Multi Core Unified Architecture" geben.
"Ein Gerücht ist die Verbreitung einer unverbürgten Nachricht, die sich dabei auf eine charakteristische Art und Weise verändert."(wiki) Als warten wir mal
Greetz
neax
die Köche brutzeln wieder einige Gerüchte. Chefkoch fudzilla kredenzt uns das Gerücht AMD wird den 2008 anstehende R700-GPU in 55nm bauen. OK Zusätzlich soll es sich dabei um einen Multicore-Chip, eine GPU mit mehreren Cores man spricht auch von "Multi Core Unified Architecture" geben.
"Ein Gerücht ist die Verbreitung einer unverbürgten Nachricht, die sich dabei auf eine charakteristische Art und Weise verändert."(wiki) Als warten wir mal
Greetz
neax
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Vielleicht bin ich ja einfach nur doof aber mir entzieht sich der Sinn hinter einer "Multicore"-GPU - es ist doch das grundlegende Prinzip eines Grafikchips so viele Pixel wie möglich parallel berechnen zu können, warum muss ich dafür x Kerne zusammenschalten anstatt einfach die Anzahl der ALUs zu vervielfachen ?
mfG
denton
mfG
denton
G
gast_003
Guest
Ganz einfach....wieviel mühe ist nötig um einen grossen Kern herzustellen und wieviel bei einem kleineren und wie verhält sich dabei die Ausbeute des Wafers?
Schalten man mehrere davon zusammen, dann bekommt man logischer weise auch mehr aus dem wafer raus, da weniger defekte auf eine einzige Core einwirken bzw. sie sich leichter "reparieren" lassen.
In dem Zusammenhang wäre zumindest anfänglich eine Lösung vorstellbar wie die derzeit Intel bei den quadcore Prozessoren hat.
Schalten man mehrere davon zusammen, dann bekommt man logischer weise auch mehr aus dem wafer raus, da weniger defekte auf eine einzige Core einwirken bzw. sie sich leichter "reparieren" lassen.
In dem Zusammenhang wäre zumindest anfänglich eine Lösung vorstellbar wie die derzeit Intel bei den quadcore Prozessoren hat.
neax
Grand Admiral Special
Hi,
das mit den GPU verhält sich ähnlich wie bei den CPU - hier setzt man auch auf "Multi"Core
Es ist offensichtlich einfacher zwei oder mehrere "simplere" Kerne zusammenzuschalten, als einen Chip immer komplexer herzustellen.
Greetz
neax
das mit den GPU verhält sich ähnlich wie bei den CPU - hier setzt man auch auf "Multi"Core
Es ist offensichtlich einfacher zwei oder mehrere "simplere" Kerne zusammenzuschalten, als einen Chip immer komplexer herzustellen.
Greetz
neax
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Müssten sich nicht auch Vorteile beim Anti-Alasing ergeben? Der Vergleich hinkt zwar, aber damals beim Voodoo 5 gab es ja diese Super-Kantenglättungsmodi in Hardware, durch die zwei Chips konnte zweifache Kantenglättung fast ohne Verlust (aus Gedächtnis!!!) gemacht werden. Allerdings wurde AA beim V5 ja in Hardware ausgeführt, k.A. wie das heute ist.
Abgesehen davon, kann mir eigentlich mal jemand erklären wie es möglich ist, dass ATI nach Monaten der Verspätung ohne ausgereiften Treiber dasteht? Da müssen die Probleme doch viel größer gewesen sein als vorher bekannt war. Ich glaube ja, dass der R600 in seiner ursprünglichen Konzeption einfach nicht an die nvidia-Konkurrenz rankam und daher musste man den Takt hochschrauben wodurch sich Hitze-Probs ergaben, oder sie mussten noch weitere Shader-Einheiten verbauen (für Geschwindigkeit oder aus Marketinggründen) und daher kommen die Treiberprobs.
Ich für meinen Teil bin halbwegs enttäuscht. Einzige Hoffnung ist, dass die Mittelklasse-Karten die von nvidia deutlich schlagen.
Abgesehen davon, kann mir eigentlich mal jemand erklären wie es möglich ist, dass ATI nach Monaten der Verspätung ohne ausgereiften Treiber dasteht? Da müssen die Probleme doch viel größer gewesen sein als vorher bekannt war. Ich glaube ja, dass der R600 in seiner ursprünglichen Konzeption einfach nicht an die nvidia-Konkurrenz rankam und daher musste man den Takt hochschrauben wodurch sich Hitze-Probs ergaben, oder sie mussten noch weitere Shader-Einheiten verbauen (für Geschwindigkeit oder aus Marketinggründen) und daher kommen die Treiberprobs.
Ich für meinen Teil bin halbwegs enttäuscht. Einzige Hoffnung ist, dass die Mittelklasse-Karten die von nvidia deutlich schlagen.
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Ok, das Argument der Redundanz kann ich noch ein Stück weit nachvollziehen aber man könnte ja ebenso einfach defekte Einheiten deaktivieren, wie man es bei CPU mit dem Cache macht ... naja, die werden schon wissen was sie tun
genervt, die Voodoo5 war keinesfalls so unerschütterlich, dass sie AA einfach so ohne Leistungseinbußen weggesteckt hätte
Tatsächlich wurde der Chip duch den langsamen Speicher sogar massiv limitiert, hier hätte ein DDR-Interface wohl wahre Wunder wirken können.
AA wird eigentlich seit dieser Zeit in Hardware realisiert, nicht auszudenken, die CPU müsste sich dieser Aufgabe annehmen
mfG
denton
genervt, die Voodoo5 war keinesfalls so unerschütterlich, dass sie AA einfach so ohne Leistungseinbußen weggesteckt hätte
Tatsächlich wurde der Chip duch den langsamen Speicher sogar massiv limitiert, hier hätte ein DDR-Interface wohl wahre Wunder wirken können.
AA wird eigentlich seit dieser Zeit in Hardware realisiert, nicht auszudenken, die CPU müsste sich dieser Aufgabe annehmen
mfG
denton
Opteron
Redaktion
☆☆☆☆☆☆
Wird doch eh schon gemacht, denk einfach an die Pixel Shader ...Ok, das Argument der Redundanz kann ich noch ein Stück weit nachvollziehen aber man könnte ja ebenso einfach defekte Einheiten deaktivieren, wie man es bei CPU mit dem Cache macht ... naja, die werden schon wissen was sie tun
Deswegen versteh ich den "Multi GPU" Ansatz nicht, so ein Grafikchip is eh schon ein massiv paralleles Stückchen Silizium. Die Leistung der Ati Karten bei Folding @ Home kommt ja nicht von ungefähr.
Wenn jetzt wie bei den Intel QuadCores 2 Plättchen Si zu einem MCM zusammengebastelt werden is das auch nichts überragend neues. Gut MCM wäre neu, aber Dual Setups gibts bekanntlich seit Voodoo Zeiten.
Aber naja vielleicht kann man sich damit ja "irgendwie" das RAM Spiegeln sparen ... das wär ein Vorteil. Probleme sehe ich nur bei der Kühlung ^^
ciao
Alex
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 354K