News NVIDIA präsentiert die GeForce GTX 295 und GTX 285

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<div class="newsfloatleft"><a href="http://www.planet3dnow.de/photoplog/index.php?n=4602"><img src="http://www.planet3dnow.de/photoplog/file.php?n=4602" border="1" alt="NVIDIA GeForce GTX 295" height="120"></a></div>Neben dem AMD Phenom II gab es gestern noch eine weitere Produktvorstellung. NVIDIA präsentierte seine neue NVIDIA GeForce GTX 295 Grafikkarte mit zwei GPUs, sowie die NVIDIA GeForce GTX 285. Beiden gemein ist das 55 nm Herstellungsverfahren, das den Stromverbrauch senken und höhere Taktraten ermöglichen soll.

Die GTX 295 besteht dabei wie die ATI Radeon HD 4870 X2 aus zwei GPUs auf einer Karte, die onboard per SLI zusammengeschaltet sind. Mit 240 Shader-Prozessoren je GPU entsprechen die Eckdaten der beiden GPUs der GTX 295 (vom Die-Shrink abgesehen) auf den ersten Blick der bisher aktuellen GTX 280. Allerdings wurde die Speicherbandbreite von 512 Bit auf 448 Bit gekappt und sowohl der Kern-, als auch der Speichertakt leicht nach unten korrigiert - offenbar, um den Stromverbrauch unter 300 W zu halten.

Folgende Eckdaten gelten für die GTX 295 gemäß Hersteller:<ul><i>Fabrication Process: 55nm
Core Clock (texture and ROP units): 576 MHz
Shader Clock (Stream Processors): 1242 MHz
Memory Clock (Clock rate / Data rate): 999 MHz / 1998 MHz
Total Video Memory: 1792 MB
Memory Interface: 448-bit per GPU
Total Memory Bandwidth: 223.8 GB/s
Processor Cores: 480
ROP Units: 56
Texture Filtering Units: 160
Texture Filtering Rate: 92.2 GigaTexels/sec
Connectors: 2 x Dual-Link DVI-I, 1 x HDMI
RAMDACs: 400 MHz
Bus Technology: PCI Express 2.0
Form Faktor: Dual Slot
Power Connectors: 1 x 6-pin, 1 x 8-pin
Max Board Power (TDP): 289 watts
GPU Thermal Threshold: 105°C</i></ul>Die kleinere Schwester GTX 285 besitzt folgende Daten:<ul><i>Fabrication Process: 55nm
Core Clock (texture and ROP units): 648 MHz
Shader Clock (Stream Processors): 1476 MHz
Memory Clock (Clock rate / Data rate): 1242 MHz / 2484 MHz
Total Video Memory: 1 GB
Memory Interface: 512-bits
Total Memory Bandwidth: 159.0 GB/s
Processor Cores: 240
ROP Units: 32
Texture Filtering Units: 80
Texture Filtering Rate: 51.8 GigaTexels/sec
Connectors: 2 x Dual-Link DVI-I, 1 x 7-pin HDTV Out
RAMDACs: 400 MHz
Bus Technology: PCI Express 2.0
Form Factor: Dual Slot
Power Connectors: 2 x 6-pin
Max Board Power (TDP): 183 watts
GPU Thermal Threshold: 105°C</i></ul><b>Reviews</b><ul><li><a href="http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/" target="_blank">Nvidia GeForce GTX 295 - das doppelte Lottchen [ComputerBase}</a></li><li><a href="http://www.hardwareluxx.de/cms/artikel.php?action=show&id=675" target="_blank">NVIDIA GeForce GTX 295 [Hardwareluxx]</a></li><li><a href="http://www.pcgameshardware.de/aid,671953/Test/Benchmark/Geforce_GTX_295_-_Test_der_finalen_Nvidia-Dual-Grafikkarte/" target="_blank">Geforce GTX 295 - Test der finalen Nvidia-Dual-Grafikkarte [PCGH]</a></li></ul>Die Tests zeigen, dass die Performance-Krone damit wieder fest in den Händen von NVIDIA ist - mehr als deutlich bei den synthetischen Tests, etwas knapper bei den Spiele-Tests. Nur bei hohen Auflösungen und Qualitätsstufen scheinen die ATI-Karten weiterhin an der Spitze zu liegen. Dafür konsumiert das ATI-Topmodell unter Vollast auch bis zu 40 W mehr (Gesamtsystem), als die vergleichbare NVIDIA GTX 295.

Leider gibt es bis dato lediglich Tests der GTX 295. Die in der Praxis interessantere, weil sparsamere und günstigere GTX 285 ist bisher noch ein Papiertiger. Erste Tests werden jedoch in den nächsten Tagen erwartet.
 
hi, was wird denn von ATI als nestes für ein top model erwartet?
oder hat ATI mal wider nix dagegen zu setzen?
 
@ T1000

ATI hatte noch nie was entgegen zu setzen und eigentlich brauchen wir ATI garnicht. Die 4000 Serie ist ja so schlecht. Und Deutsch brauchen wir zum Glück auch nicht mehr zu lernen.

*Kopfschüttel
 
hi, was wird denn von ATI als nestes für ein top model erwartet?
oder hat ATI mal wider nix dagegen zu setzen?
In naher Zukunft hat ATI nichts im Angebot gegen die Karte. Wobei sie das auch nicht haben müssten. Gerade in hohen Auflösungen is die ATI vorne, teilweise sogar sehr weit.

Interessanter düfte aber die GTX285 sein. Taktpotential scheint vorhanden zu sein, keine Mikroruckler (ach, wie ich das Wort hasse) und anscheindend auch annehmbarer Verbrauch. Sollte die Karte für 300 - 330 Euro über den Ladentisch gehen ... 8)
 
Die Tests zeigen, dass die Performance-Krone damit wieder fest in den Händen von NVIDIA ist

So würde ich es nicht sagen.

Für mich bedeutet das NVIDIA in sämtliche Benchmark die Nasse vorn hat und zwas mehr oder weniger eindeutig. (Synthetische Benchmark nicht eingeschlossen, die sind nicht Praksisrelevant) ;D

Aber nicht nur dass die Unterschied teilweisse sehr gering ist, manchmal kann man sogar sagen Messgenauigkeit, sonder in einige Benchmark und Einstellungen gewinnt sogar ATI.
Und in ambetracht dass die ATI schon über 6 Monate gibt, sage ich momentan liegen beide gelich auf. 8)
 
davon abgesehn das das mal wieder ne reine geldverschwendung is ;D
um die leistung auszunutzen brauchst dann auch wieder nen 30 zoll aufwärts würd ich meinen
 
Bei CB gibts n Test mit ATi Catalyst 8.561.3 Beta, da liegen die Karten praktisch wieder gleichauf. (je geringer AA und Auflösung, desto schneller ist die 295 im Vergleich zur 4870)

cya
 
AMD/ATi wollte doch nie mit nVidia im Spitzensektor mitfechten, daß man es trotzdem tut, liegt einfach wohl am grundsoliden Design des R700 Chips. Neben energetischen Aspekten bin ich schon wegen der seitens AMD/ATi besseren Opensourceunterstützung eher auf AMDs Seite. AMD/ATi hat ja jüngst wieder einen entscheidenden Sprung nach vorne gemacht und legt Teile der 3D Fähigkeiten des R600 und R700 offen, um so die Treiberentwicklung für X11/UNIX (und auch Linux) zu forcieren.

Allerdings sehe ich auch ein paar Probleme. AMD/ATi hat den Leistungsstand seines R700 Chips mit einer Strukturbreite von 55 nm erreichen können, nVidia zieht nun nach und nochmals deutlich an AMD vorbei (schon mit dem Einzelchip!). AMDs GPGPU Bemühungen dürfen als großer Flop gesehen werden, OpenCL setzt auf nVidias CUDA (oder lehnt sich dort stark an), Brooks+ ist so gut wie tot weil zu schwer umzusetzen und AMDs Bemühungen wurden aufgegeben. Für mich sieht das so aus, als könnte AMD über kurz oder lang mit Volldampf in eine sehr brikäre Situation/Sackgasse rauschen - wenn nVidia weiterhin beharrlich auf den Einsatz von BLOBs setzen sollte.

Insgeheim hoffe ich, daß AMD mit seiner Öffnung (und dahinter verbirgt sich ja hoffentlich gewiß auch ein Konzept, das nicht auf blanker Panik fußt) der Specs nVidia ein Stück Markt im UNIX Sektor abbeißen kann und die GPGPU-Geschichte in Fahrt kommt. nVidia hat viele Opensource-Nutzer in der Vergangenheit nicht gerade mit Wonnegedanken an das Unternehmen beglückt. Entweder, man setzt BLOBs (nVidias Binärtreiber) ein, und/oder muß diesen Krampf Linux einsetzen, oder man darf sich eines kaputten Xorg-nv-Treibers erfreuen, der Dank nVidias Verschlossenheit nicht so einfach reparierbar ist (Sprite-Buffer-Problematik). Das dürfte die Windows-Spiele-Fraktion weniger interessieren.
 
Zuletzt bearbeitet:
Bei CB gibts n Test mit ATi Catalyst 8.561.3 Beta, da liegen die Karten praktisch wieder gleichauf. (je geringer AA und Auflösung, desto schneller ist die 295 im Vergleich zur 4870)

cya

... mich wundert dies ein wenig. Der ATI-Treiber ist ein wesentlich reiferes Produkt für den entsprechenden Chip. Auch wenn der GT285 nicht viel mehr als ein Shrink ist, so gibt es doch gewisse Novitäten, die der Treiber berücksichtigen muß und ich würde mich nicht von Vorabtests blenden lassen. Bei ATi gabs ja auch schon Treiberprobleme, die den R700 ein wenig alt haben aussehen lassen.
.
EDIT :
.

Nein, eigentlich nicht mal ansatzweise, denn OpenCL ist viel universeller. Es läuft auf den Unified Shadern einer DirectX kompatiblen Grafikkarte oder auch auf den SPEs eines IBM Cell.

... ich muß nochmals suchen, ich meine gelesen zu haben, daß man bei der Entwicklung von OpenCL Designansätze von CUDA herangezogen hat. Ich kann nur widergeben, was ich als Nichtentwickler gelesen habe, das mag sicher völliger Humbug sein.
 
Zuletzt bearbeitet:
Bei CB gibts n Test mit ATi Catalyst 8.561.3 Beta, da liegen die Karten praktisch wieder gleichauf. (je geringer AA und Auflösung, desto schneller ist die 295 im Vergleich zur 4870)

cya

... ich habe mir das gerade angesehen und kann eigentlich Deinen Schluß in besagtem Test NICHT finden und nachvollziehen. In fast allen Belangen scheint nVidia Boden gewonnen zu haben - im Vergleich beider Zweichip-Boliden. Insgesamt scheinen die 'höherwertigen' nVidia-Produkte mit der neuen Chipgeneration sehr ordentlich zu sein - Leistungsaufnahme und Wärmeumsetzung sind ebenfalls im Schnitt besser.
.
EDIT :
.

Ich frage mich wozu dann die X2 Serie ist? ;) Natürlich will AMD auch diesen Markt bedienen, aber dafür nicht dermaßen viele Ressourcen "verschwenden" wie nV es macht(e).

Kann man diese Frage wirklich rational beantworten? Ich habe damit Probleme, wenn ich den Zweck und den energetischen Aufwand betrachte.

AMD/ATI ließ zu Beginn der R700-Ära verlauten, man wolle die HD4870 zur nVidia GT260 positionieren und nicht gegen die GT280. Nun gut, da das nach Markteinführung geschah, kann man nun nicht mehr sagen, ob AMD das deshalb getan hat, weil der R700 dann letztlich nicht den Erwartungen entsprach bzw. nVidia ein größerer Wurf mit dem GT200 gelungen ist. AMD/ATI hat ja ähnliche Situationen schon mit K10 und C2D erleben dürfen.

Die HD4870X2 wird AMD wohl ins Rennen geschickt haben, um das High-End bedienen zu können, man muß ja präsent sein, wenn man den PR-Intelligenzen glauben darf.

Ich weiß aber ehrlich gesagt nicht, was das X2-Gedönse soll, es würde meinen Geldbeutel unmittelbar bei Kauf belasten und mittelbar bei Abrechnung mit meinem Energieanbieter/-lieferanten und außer Spielen sind derzeit keine echten Mehrwerte mit X2 erzielbar.
.
EDIT :
.

Vielleicht meinst du den umgekehrten Fall, weil nVidia angekündigt hat CUDA kompatibel zu OpenCL machen zu wollen und damit letztendlich (und sinvollerweise) den Alleingang aufgibt.

Dazu habe ich sogar eine deutsche Pressemitteilung gefunden: http://www.nvidia.de/object/io_1229090804255.html

ich wage es nicht in Zweifel zu ziehen, ich hatte das marginal aufgeschnappt - allerdings Englisch, wenn ich mich recht erinnere.

Ich meinte allerdings nicht die Kompatibilität beider Konzepte, sondern das Paradigma, das beiden zugrundeliegt. Da ich weder CUDA noch OpenCL näher/tiefer kenne, kann ich das leider nicht beurteilen.
 
AMD/ATI ließ zu Beginn der R700-Ära verlauten, man wolle die HD4870 zur nVidia GT260 positionieren und nicht gegen die GT280. Nun gut, da das nach Markteinführung geschah, kann man nun nicht mehr sagen, ob AMD das deshalb getan hat, weil der R700 dann letztlich nicht den Erwartungen entsprach bzw. nVidia ein größerer Wurf mit dem GT200 gelungen ist. AMD/ATI hat ja ähnliche Situationen schon mit K10 und C2D erleben dürfen.
Falsch, die 4870 ist gegen die 9800GTX positioniert worden und die 4850 gegen die 9800GT. Außerdem ist die Effizienz des R700 der des G200 haushoch überlegen.
 
Drohne schrieb:
kann man nun nicht mehr sagen, ob AMD das deshalb getan hat, weil der R700 dann letztlich nicht den Erwartungen entsprach
Das habe ich auch nicht aussagen wollen, eher schon folgendes:
Die HD4870X2 wird AMD wohl ins Rennen geschickt haben, um das High-End bedienen zu können, man muß ja präsent sein, wenn man den PR-Intelligenzen glauben darf.
Früher hat man Unmengen an Geld "verschwendet" um ein kleines Klientel zu "bearbeiten". Die Ausgaben für R&D dürften geringer ausfallen. Man läuft aber evtl auch die Gefahr mit dem Markt nicht Schritt halten zu können.
 
Ob Nvidia mit diesen sehr aufwendigen Design (riesige Die-Size+2 PCB's) überhaupt noch Geld verdient, ist fraglich.
 
... ich habe mir das gerade angesehen und kann eigentlich Deinen Schluß in besagtem Test NICHT finden und nachvollziehen. In fast allen Belangen scheint nVidia Boden gewonnen zu haben - im Vergleich beider Zweichip-Boliden. Insgesamt scheinen die 'höherwertigen' nVidia-Produkte mit der neuen Chipgeneration sehr ordentlich zu sein - Leistungsaufnahme und Wärmeumsetzung sind ebenfalls im Schnitt besser.

Nach Kategorien 5:3 für die GTX295 (5:4 wenn man Rating - 2560x1600 8xAA/16xAF mit einbezieht)

Aber wenn man die Differenzen der Prozentwerte nähme kommt sogar ein +X% für ATi raus.

-->http://www.computerbase.de/artikel/...force_gtx_295/20/#abschnitt_performancerating

cya
 
AMDs GPGPU Bemühungen dürfen als großer Flop gesehen werden, OpenCL setzt auf nVidias CUDA (oder lehnt sich dort stark an), Brooks+ ist so gut wie tot weil zu schwer umzusetzen und AMDs Bemühungen wurden aufgegeben. Für mich sieht das so aus, als könnte AMD über kurz oder lang mit Volldampf in eine sehr brikäre Situation/Sackgasse rauschen
Also ich habe mich mal kürzlich mit dieser GPGPU-Geschichte befaßt. Im Prinzip ist das alles sehr ähnlich. Sowohl CUDA, Brook, HLSL und auch OpenCL sehen praktisch wie C aus. Die Sprache der OpenCL Plattform heißt ja sogar mit vollem Namen OpenCL C. Auch das Vorgehen zur effizienten Programmierung ähnelt sich recht stark (Unterschiede nVidia<->AMD kommen gleich). Insofern sollte das für die Hersteller recht einfach sein, ihre bereits bestehenden Compiler auf irgendeinen gemeinsamen Standard anzupassen. Dies soll jetzt ja offensichtlich OpenCL werden.

Daß AMD/ATI im Prinzip für GPGPU-Anwendungen recht gut aufgestellt ist, zeigen zum Beispiel die theoretischen Tests bei CB. Bei der Füllrate mit PixelShadern (nutzen ja die gleichen Einheiten) oder auch beim ShaderMark (4870 bei allen der 25 Tests schneller als GT200) liegen die ATIs zum Teil deutlich in Führung. Die Shader von Shadermark sind ja alle in HLSL geschrieben. Damit ist das schon für GPGPU aussagekräftig, da z.B. Brook+ vom Compiler zuerst in HLSL übersetzt und dann weiterverarbeitet wird. ATI ist also offensichtlich in der Lage einen hochperformanten Compiler für Hochsprachen-Shader zu bauen.

Der Vorteil, den nVidia bei GPGPU-Anwendungen hat, ist ihr besserer Software-Stack (da ist bei AMD meiner Meinung nach zu wenig passiert, offensichtlich hat man auf OpenCL gewartet) und auf Hardware-Seite die skalaren Shadereinheiten (oder auch Streamprozessoren), ATI hat 5D-Einheiten (für viele Zwecke effektiv 4D). Dies erfordert etwas mehr Aufwand vom Programmierer, um ansprechende Performance zu erhalten, diese ist aber potentiell höher als bei nVidia. Allerdings lassen sich wohl die meisten Algorithmen, die für GPGPU gut geeignet sind, auch trivial vektorisieren.

Wenn allerdings doppelte Genauigkeit ins Spiel kommt, sieht es ziemlich düster für nVidia aus. Während jede der 240 skalaren Shadereinheiten des GT200 nur noch jeden achten Takt ein Ergebnis ausspuckt (DP Leistung nur ein Achtel der SP Leistung), werden aus den 5D-Einheiten der RV670 und RV770 einfach skalare Einheiten (für RV770 160 Stück), die allerdings jeden Takt ein Ergebnis generieren können. Damit verringert sich die ohnehin schon höhere Shader-Rohleistung mit DP nur auf ein Fünftel und man liegt damit etwa Faktor 2 vor nVidia. Zudem entfällt praktisch die Pflicht zur Vektorisierung für den Programmierer. Da wird wohl erst der Nachfolger des GT200(b) Abhilfe schaffen.
 
meine sicht der dinge ist folgende.

wieso sagt man die nvidia wäre die neuste schnellste graka? weil sie in niedrigen auflösungen die schnellste ist? na dafür braucht man die net.

in hohen auflösungen unter qualitätseinstellung (dafür kauft man ne dual-gpu karte) ist die ati die schnellste.

also ist meine folgerung, dass die ati die schnellste karte ist, weil sie dort am schnellsten ist, wofür sie gedacht ist.

in hohen auflösungen mit qualitätseinstellung.

8)
 
Hi,

Nvidia hat von der (Höchst-)Leistung mehr als mit AMD gleichgezogen. Weniger Stromverbrauch sehe ich gerne. Die Leistung stimmt auch und man sieht Vorteile bei Nvidia.

Alles andere wäre für Nvidia nicht gut gewesen und auch von mir nicht anders erwartet worden. Betrachtet man das Preisleistungsverhältnis, dann sind die Vorteile wieder bei AMD.

Wer schlussendlich die Nase vorne hat, hängt von der jeweiligen Perspektive ab. Fest steht nur, dass Nvidia keinen schlechten Job gemacht hat, wenn auch einen überragenden.

Während auf dem Desktopbereich Nvidia Zähne zeigt, wird AMD wieder auf dem mobilen Sektor aktiv und wird aller Voraussicht nach dort Nvidia vom Thron stoßen, um dann wieder vermutlich von Nvidia ....ach das hatten wir schon.

Aber lest selbst:
HD 4XXX wird mobil....

Greetz
neax;)
 
meine sicht der dinge ist folgende.

wieso sagt man die nvidia wäre die neuste schnellste graka? weil sie in niedrigen auflösungen die schnellste ist? na dafür braucht man die net.

in hohen auflösungen unter qualitätseinstellung (dafür kauft man ne dual-gpu karte) ist die ati die schnellste.

also ist meine folgerung, dass die ati die schnellste karte ist, weil sie dort am schnellsten ist, wofür sie gedacht ist.

in hohen auflösungen mit qualitätseinstellung.

8)

Die meisten User dürften heute noch mit 1280x1024 o. 1600x1400 o. 1600x1050 als Beispiel zocken, für mich käme die erste Auflösung in Frage und wenn da halt die NV schneller ist als die ATI X2 würde ich mir die NV kaufen.

Dabei spielt es keine Rolle ob die ATI bei max erreichbarer TFT Auflösung und AA/AF max schneller ist, da vermutlich die derzeit stärksten Spiele vermutlich auch mit so einer Karte unter 30FPS erreichen und damit unspielbar wären.
 
Die meisten User dürften heute noch mit 1280x1024 o. 1600x1400 o. 1600x1050 als Beispiel zocken, für mich käme die erste Auflösung in Frage und wenn da halt die NV schneller ist als die ATI X2 würde ich mir die NV kaufen.

Dabei spielt es keine Rolle ob die ATI bei max erreichbarer TFT Auflösung und AA/AF max schneller ist, da vermutlich die derzeit stärksten Spiele vermutlich auch mit so einer Karte unter 30FPS erreichen und damit unspielbar wären.

Hm, ich kann mit meinem System (HD4850) Problemlos Crysis in 1680x1050 spielen mit mittlerren Details. Wenn ich mir eine X2 zulegen sollte dann doch nur für solch eine Auflösung oder höher???

1280x1024 sind doch mit einer 4850 schon mit allen Details spielbar.

morpheus
 
Die meisten User dürften heute noch mit 1280x1024 o. 1600x1400 o. 1600x1050 als Beispiel zocken, für mich käme die erste Auflösung in Frage und wenn da halt die NV schneller ist als die ATI X2 würde ich mir die NV kaufen.

Ne GTX295 für ne Auflösung von 1280x1024? Ist das dein Ernst ???

OK! warum nicht! Du wirst mir zustimmen müssen, das man bei dieser Auflösung unabhängig vom Spiel dann extreme Leistungsreserven hat. Wer würde dann nicht Qualitätseinstellungen von min. 8xAA & 16xAF fahren!?


GESAMTRATINGS von Computerbase.de




Das selbe Spiel bei 1680x1050, ebenfalls Leistung im Überfluss -> hohe Quali





Aber wenn man mal ehrlich ist und vernünftig der Realität entsprechen argumentiert, werden die meisten Dual-GPU-Karten Käufer jene User sein die Monitor bedingt Auflösungen von 1920x1200 oder 2560x1600 nutzen. Zugeben dann eher mit moderateren Qualitätseinstellungen wie 4xAA & 16&AF, weil die Leistungsreserven nicht mehr so souverän zur Verfügung stehen wie bei Steinzeitauflösungen (aus Sicht der Enthusiasten-Gamer) ala 1280x1024.




Einen Test mit 1920er Auflösung bleibt uns CB leider schuldig.
 
Zuletzt bearbeitet:
Im Prinzip ist das alles sehr ähnlich. Sowohl CUDA, Brook, HLSL und auch OpenCL sehen praktisch wie C aus.
Ich würde vom SDK keine Rückschlüsse auf dass HAL ziehen wollen. Gerade das ist doch die Kunst von CUDA.
Während jede der 240 skalaren Shadereinheiten des GT200 nur noch jeden achten Takt ein Ergebnis ausspuckt...
Ganz so ist es nicht, auch wenn es im Ergebnis auf dasselbe hinaus läuft. Jeder der Shader Cluster hat eine eigenen Co-Prozessor dediziert für Double Precision:
ComputerBase schrieb:
GT200 hat 30 extra DP-MADD-ALUs, die nach der IEEE-754R-Spezifikation entwickelt worden sind.
Die eigentlichen Unified Shader liegen bei DoublePrecision Berechnungen daher zur Zeit brach. Vielleicht ändern spätere CUDA Releases daran etwas.
 
Als Nutzer ner 4870x2 an einem 30" bin ich ehrlich gesagt enttäuscht von den GTX295-Ergebnissen. Wie schon gesagt sind Auflösungen unter 1920x1200 absolut irrelevant und somit ist es echt schwach das man gerademal aufgeschlossen hat zur 4870x2 ( mal aktuelle Treiber für ATI eingeschlossen). Leistungsverbrauch ist ebenso kein Thema bei solchen Pixelmonstern.
Als wirklich einzigen Wettbewerbsvorteil sehe ich also die Lautstärke, was wirklich das grösste Problem vom Ati-Referenzdesign ist.

Wie steht also NVidia nun da?

Wer sich für 400-450 ne 4870x2 zulegte wird wie ich aufatmen und verallgemeinert sagen können das er noch immer die schnellste Graka hat für sein Anwendungsprofil hat. An einen Wechsel ist nicht zu denken, obwohl gerade diese Käuferschicht wohl schnell dazu neigt aufzurüsten/umzusteigen, wenn ein deutlicher Vorteil da ist.

Wer jetzt in diese Preisregion erst einsteigen will mit einem Neukauf steht vor der Wahl eine 4870x2 mit einem Nichtreferenzkühler oder eine GTX295 zu kaufen. Preislich seh ich kaum Unterschiede, doch tendier ich noch immer zur Ati, ganz einfach weil man gerade bei Auflösungen 2560*1600/1920x1200 recht oft an der Grenze flüssig-ruckeln anlangt und gerade da Ati doch noch teilweise deutliche Vorteile bietet mit dem neuen Treiber. (siehe PS)

Sicherlich könnte auch NVidia noch bessere Treiber bringen, aber die GTX295 ist nunmal nur ein DIE-Shrink mit zusätzlich noch gekappter Speicherbandbreite und Takt, für die GPU-struktur selbst wurde schon länger optimiert und nach dem BigBangTreiber sind wahrscheinlich wohl kaum noch große Sprünge zu erwarten bis zur Ablösung durch eine neue GPU.

PS: Hab nochmal auch die Benches angeschaut von Spielen die mich weniger interessieren und muss wohl mal meine Aussage etwas revidieren, NVidia hat durchaus auch Vorteile in hohen Auflösungen mit hohen AA/AF. Ärgerlich für einen potenziellen Käufer, der sich jetzt anhand seiner Spiele ausrechnen muss mit was er besser kommt.
 
Zuletzt bearbeitet:
Zurück
Oben Unten