GeForce 9600GT unterstützt kein DirectX 10.1

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Wie die Kollegen der chilenischen Webseite ChileHardware erfahren haben, soll NVIDIAs kommende Mainstream-Grafikkarte noch kein DirectX 10.1 unterstützen.

Nach diesen Informationen wird die auf dem D9P basierende GeForce 9600GT nur DirectX 10 mit dem Shader Model 4.0 beherrschen. Sie ist bereits zu PCIe 2.0 kompatibel und soll bis zu 512MB GDDR3-Speicher (1000/2000MHz) besitzen. Nach früheren Informationen verfügt sie über 64 Stream-Prozessoren, die mit 1500MHz getaktet sind, und einen GPU-Takt von 650MHz.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1295"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1295"></a>
<small>Bildquelle: <a href="http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html?p=1638246#post1638246" target="_blank">ChileHardware</a></small></center>

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1296"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1296"></a>
<small>Bildquelle: <a href="http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html?p=1638246#post1638246" target="_blank">ChileHardware</a></small></center>
Weiterhin soll sie sich um bis zu 90% vor einer GeForce 8600GTS positionieren können, was auf Grund der doppelten Anzahl an Stream-Prozessoren und dem verdoppelten Speicherinterface auch realistisch erscheint.

<b>Quelle:</b> <a href="http://www.google.com/translate?u=http%3A%2F%2Fwww.chilehardware.com%2Fforo%2Finformacion-exclusiva-sobre-t133896.html%3Fp%3D1638246%23post1638246&langpair=es%7Cen&hl=en&ie=UTF8" target="_blank">Informacion exclusiva sobre 9600GT</a>
 
Wieso sinnfrei? Nvidia braucht dringend einen 3850-Konkurrent, mit dem viel zu großen G92 geht das nicht wirtschaftlich.
 
Was ist an 10.1 so spannend? Die Beschreibung der "neuen" Funktionen ist nicht grad überwältigend...sich deswegen gleich ins Hemd zu machen.. :]
 
Ich halts auch nicht für sinnfrei, denn nvidia hat vor kurzem noch lautstark behauptet, dass DX10.1 unnütz wäre (sowas in der art?) und die daher auch erstmal nicht auf DX10.1 setzen werden, und Crytec hat auch was gesagt, dass kein DX10.1 Patch oder sowas kommen wird da es sich nciht wirklich lohnt.....

Ich schau ma ob ich die Quellen dazu noch finden kann.....
 
hm, wenn das stimmt, das sie ca. 90% vor einer 8600gt liegen soll, würde sie der 3850 konkurrenz machen ABER nvidia hat doch in dem Segement schon was? Die 8800gt mit 256mb zb oder die 8800gs.

Wenn der Chip nicht IRGENDWAS neues bringt, versteh ich auch nicht wirklich, was das soll. Vielleicht Stromsparoptimierungen?
 
Wenn der Chip nicht IRGENDWAS neues bringt, versteh ich auch nicht wirklich, was das soll. Vielleicht Stromsparoptimierungen?

Kleinere DIEs -> mehr DIEs auf einem Wafer -> bessere Ausbeute und weniger Kosten

Meine Mutmaßung :)
 
Wenn Preis/Leistung und Stromverbrauch in Ordnung ist gehts doch.
Wenn ich mal eine DX10 Karte brauche, dann sind wir wohl schon bei DX12 oder so.
Sollte mal Vista auf einem Pc von mir erscheinen, wirds noch viele andere Grakas gegeben haben.
Für harte DX10 Games ist sie dann wohl eher eh ein bissel lam, da ist es doch nicht wirklich nötig welche DX10 Version untertützt wird, für eine "normal im gebrauch Karte" reichts doch aus.
 
Ich halts auch nicht für sinnfrei, denn nvidia hat vor kurzem noch lautstark behauptet, dass DX10.1 unnütz wäre (sowas in der art?) und die daher auch erstmal nicht auf DX10.1 setzen werden

Weil ATI es zuerst unterstützt...

, und Crytec hat auch was gesagt, dass kein DX10.1 Patch oder sowas kommen wird da es sich nciht wirklich lohnt....

Weil nvidia denen Crysis programmiert hat...
 
wie war das damals???

Directx 8 1.4 braucht keiner.... (Nvidia...) Geforce 3 &4 vs. die ati karten 8500 9200 etc.

Wie äußerte sich das? In vielen Spielen fehlten die 1.4er shader effekte zb. Max Payne 2 Spieglungen etc. (mit Ati kein problem...)

Direct X9 Shader model 2 (Nvidia hatte keinen vollen support der FX reihe... starker einbruch gegen die alten modele von Ati 9500/9700, zudem keinen support für alle effekte (Half Life2)

Shader Model 3 braucht keiner (Ati...) hmm das gleiche spiel... diesmal hatte Nvidia diese effekte.


Wacht doch auf warum gibts denn den DirectX10.1? Ich bin mir Sicher das Alan Wake (hmm Remedy ist vielleicht noch ATi Partner...) nur mit DX10.1 mit vollen effekten läuft.
 
Laut Gerüchteküche hat 3D Mark Vantage doch einen Test eigens für DX10.1, allein dieser Test, sofern er sich in höheren Punktzahlen der Ati-Modelle niederschlägt, sollte für nVidia ein Grund sein DX10.1 einzuführen, da 3D Mark zwar immer wieder belächelt, aber trotzdem auch immer wieder verwendet wird.
 
viel spannender ist wohl die frage, ob der speicher wieder nur mit 128bit angebunden ist oder ob sie auf 256bit aufstocken
 
Weil nvidia denen Crysis programmiert hat...
Deswegen läufts auch so grottig *buck*
Ich sehe zwar in 2008 auch nicht viele Spiele mit DX10.1 aber es ist trotzdem schade, dass NVIDIA technisch hinterher hinkt. Irgendwann wird sich das rächen. Gut mit der großen kann man sich dank ATIs Hilfe Zeit lassen. Aber wie war das noch Microsoft hat DX10 umgebaut weil NVIDIA irgendwas nicht hinbekommen hat? Ein Schelm wer böses dabei denkt.
 
Seltsam die 26 A auf 12 Volt beim Netzteil, das war soweit mir bekannt der Stromverbrauch der alten 8800GTS320/640 und der 8800GTS512, nur die 8800GT lag leicht drunter.
Würde mich nicht wundern, wenn die G92 Karten ursprünglich 9600GT heissen sollten.
Ansonsten kann ich mir nicht erklären, wie eine Karte mit den Specs genauso viel Strom wie die genannten Karten verbraten sollte.
 
Aber wie war das noch Microsoft hat DX10 umgebaut weil NVIDIA irgendwas nicht hinbekommen hat?
Die treiberseitige Virtualisierung des Grafikkartenspeichers... haben aber weder NVIDIA noch ATI gebacken bekommen.
Daher halte ich das GERÜCHT DX10 für eben Jenes. Ein Gerücht. Die 9600 macht nur Sinn, wenn sie auch DX 10.1 in Hardware unterstützt.
 
thx ShiningDragon
hatte nur im Kopf, dass NVIDIA damit Probs hatte. Wir werdens ja sehn, ob die 9XXX-Serie DX10.1 unterstützt. NVIDIA hatte es bereits mit der 8800 geschafft im Vorfeld falsche Gerüchte zu streuen und damit ATI in Sicherheit gewogen. Ich hatte die NVIDIA-Aussage immer so interpretiert, dass man sich halt wegen DX10.1 keine ATI holen braucht. Die 88er sind eh schneller und tuns auch ohne DX10.1.
 
Also da kann man doch gut zur 8800GT greifen
 
so ganz versteh ich nvidias produkt-aufstellung im moment auch nicht. gegen die 3850 hat man ja im prinzip die 8800gt mit 256mb positioniert. und mit der 8800gs bringt man in dem preissegment eine weitere alternative mit mehr speicher.

wenn dann die 9600er so viel besser sein soll als die derzeitige 8600er serie, dann spielt man doch wahrscheinlich in der gleichen liga wie die 8800gt-256 und die 8800gs. da fragt man sich offen gestanden, was das bringen soll!? *noahnung* mehr als evtl. vorteile bei den produktionskosten fallen mir da offen gestanden auch nicht. aber nvidia hat bereits im falle der 8800gt die boardpartner angehalten, günstigere modelle zu produzieren. :]
 
Der Link zur Quelle funktioniert nicht
 
Die 9600 macht nur Sinn, wenn sie auch DX 10.1 in Hardware unterstützt.
Das würde ich ja auch sagen. DX10.1 ist zwar technisch ziemlich unwichtig, genauso wie DX10 (eine Karte in der Geschwindigkeit einer 8800GT würde ich auch kaufen, wenn sie nur DX9 könnte), aber im Marketing ist das unverzichtbar.

Es soll ja angeblich auch sehr einfach einzubauen sein, also wäre Nvidia ja wirklich dumm, das nicht zu machen. Vor allem würde die Bezeichnung "9600GT" auch keinen Sinn machen ohne zusätzliche Features - wäre es wirklich nur ein halber G92, wäre "8700GT" o.ä. besser gewesen.

Im Produktportfolio wäre die 9600GT dann die erste Karte seit längerer Zeit, die tatsächlich Sinn machen würde. Mit einem teuren G92 (teildeaktiviert bleibt er genauso teuer in der Herstellung) gegen die HD 3850 256MB kämpfen zu wollen, die jetzt schon bei 130€ liegt und auch noch weiter runtergehen kann, ist wirtschaftlich gesehen Wahnsinn.
 
also bei einer 8800GT halte ich DX10 schon nicht mehr nur für ein Marketing Spruch. Die karte ist schnell genug das darzustellen und es sieht besser aus(z.B. WIC) Also versteh ich deine Aussage nicht OBrian *noahnung*
 
Es soll ja angeblich auch sehr einfach einzubauen sein, also wäre Nvidia ja wirklich dumm, das nicht zu machen. Vor allem würde die Bezeichnung "9600GT" auch keinen Sinn machen ohne zusätzliche Features - wäre es wirklich nur ein halber G92, wäre "8700GT" o.ä. besser gewesen.

Über die Sinnhaftigkeit von Namen braucht man keine Worte zu verschwenden im Graka-Bereich. Die 38XX sind auch nicht viel was anderes als eine 2900 mit halbiertem Speicherinterface und besserer HD-Unterstützung. Dafür hätte es wahrlich auch keiner neuen "Generation" im Nummernschema gebraucht, was hier im Forum auch reichtlich angemerkt wurde, als die ersten Gerüchte über die Karten kamen. Aber so ist das nun mal.

Mich würde es eher wundern, wenn nV sonderlich viel Energie in die alte 8er Architektur reinsteckt und 10.1 ausgerechnet in eine low-mid-Karte reinbaut. Wenn so eine Karte kommt, dann wird das ein halber G92 und fertig. Für 10.1 und alle schönen Schnörkel kommt vermutlich die neue High-End Generation.
Es wird sicher eine Hand voll Games geben, die von Ati gesponsert sind und 10.1 für das letzte bisschen Eye-candy brauchen. Aber kein Game-Produzent wird ernsthaft so verrückt sein, bei der G80/G92-Marktanteillage ein Game verkaufen zu wollen, dass nicht auf solchen Karten läuft oder auf denen total bescheiden aussieht........


edit: hab grad nochmal die new richtig gelesen. Da wird ja behauptet, dass es auf D9P basieren würde. Dann würde mich allerdings kein 10.1 auch wundern.
 
Zuletzt bearbeitet:
Über die Sinnhaftigkeit von Namen braucht man keine Worte zu verschwenden im Graka-Bereich. Die 38XX sind auch nicht viel was anderes als eine 2900 mit halbiertem Speicherinterface und besserer HD-Unterstützung. Dafür hätte es wahrlich auch keiner neuen "Generation" im Nummernschema gebraucht, was hier im Forum auch reichtlich angemerkt wurde, als die ersten Gerüchte über die Karten kamen. Aber so ist das nun mal.

Mich würde es eher wundern, wenn nV sonderlich viel Energie in die alte 8er Architektur reinsteckt und 10.1 ausgerechnet in eine low-mid-Karte reinbaut. Wenn so eine Karte kommt, dann wird das ein halber G92 und fertig. Für 10.1 und alle schönen Schnörkel kommt vermutlich die neue High-End Generation.
Es wird sicher eine Hand voll Games geben, die von Ati gesponsert sind und 10.1 für das letzte bisschen Eye-candy brauchen. Aber kein Game-Produzent wird ernsthaft so verrückt sein, bei der G80/G92-Marktanteillage ein Game verkaufen zu wollen, dass nicht auf solchen Karten läuft oder auf denen total bescheiden aussieht........


edit: hab grad nochmal die news richtig gelesen. Da wird ja behauptet, dass es auf D9P basieren würde. Dann würde mich allerdings kein 10.1 auch wundern.


NV macht mal wieder viel Wind um nichts denke ich. Wir sollten da mal auf genauere Infos warten.

Bei ATI und 3800 Serie war das sicher so: HD 2900 hatte ein schlechtes Image und um das schnell wieder los zu bekommen hat man die neuen Karten einfach HD 3800 genannt. HD 2987 oder auch HD 2985 oder so hätte zu sehr sugeriet es ist eine 2900 Serien Karte und bei den Kunden wären die Alarmglocken geschellt die braucht zu viel Strom. Ob das stimmt oder nicht wäre egal. HD 3870 als Name finde ich OK, weil die ja Direct X 10.1 und Powerplay bekommen hat und auch sonst etwas überarbeitet wurde.
 
Zurück
Oben Unten