News NVIDIA: DirectX 11 ist nicht so wichtig

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.373
Renomée
9.705
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Während einer Analystenkonferenz haben Vertreter von NVIDIA die Bedeutung von DirectX 11 als nicht so wichtig bezeichnet. Andere Gründe würden die Kaufentscheidung der Endkunden viel mehr beeinflussen.

Zu diesen Gründen zählt NVIDIA vor allem General Purpose Computation on Graphics Processing Unit (GPGPU), durch das die Grafikkarte zur Berechnung von Aufgaben genutzt wird, die traditionell von der CPU erledigt wurden.

<blockquote>“DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU,”</blockquote>

Technologien wie CUDA, Stereo 3D Vision und PhysX sieht NVIDIA nach eigenen Aussagen als wesentlich wichtiger an und Mike Hara (NVIDIA) betont:

<blockquote>"But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions. Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side."</blockquote>



<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html" target="b">Nvidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards.</a>
 
Ja, nee, ist klar. Dumm nur das man mit DX11 eine Schnittstelle geschaffen hat die bei breiter Unterstützung all das was nVidia hier als "wichtiger" erachtet völlig unwichtig machen könnte.
 
Ist eigentlich nur peinlich das NV sowas von sich gibt, ich verstehe immer nicht ganz wie sich Firmen zu solchen statements hinreissen lassen.

Außerdem wir erinnern uns alle an DX10 , DX9.0c wo NV Vorreiter war und da wurde die Werbetrommel Kräftig gerührt ;)
 
Zuletzt bearbeitet:
Ist eigentlich nur peinlich das NV sowas von sich gibt, ich verstehe immer nicht ganz wie sich Firmen zu sowas hinreissen lassen.

Außerdem wir erinnern uns alle an DX10 , DX9.0c wo NV Vorreiter war und da wurde die Werbe Trommel Kräftig gerührt ;)

man muss den Analysten halt was erzählen. Da bietet sich das herunterspielen der Schwächen eigener Produkte an.

MfG @
 
Ist eigentlich nur peinlich das NV sowas von sich gibt, ich verstehe immer nicht ganz wie sich Firmen zu sowas hinreissen lassen.

Außerdem wir erinnern uns alle an DX10 , DX9.0c wo NV Vorreiter war und da wurde die Werbe Trommel Kräftig gerührt ;)


Naja, was soll Nvidia nun auch sonst machen? Was sollen sie denn sagen?
"DirectX11 ist extrem wichtig und super toll, aber leider können wir dies auf absehbare Zeit nicht liefern also kauft weiterhin unsere jetzigen Produkte" ?
 
DX10.1 konnten sie ja noch verhindern, aber DX11 zu verhindern ist schon eine Herausforderung...
 
Naja, was soll Nvidia nun auch sonst machen? Was sollen sie denn sagen?

Vielleicht nichts? Statt sich selbst Salz in die Wunde zu streuen ;)
 
DX10.1 konnten sie ja noch verhindern, aber DX11 zu verhindern ist schon eine Herausforderung...

konnten sie nicht, deshalb gibts ja jetzt auch nVIDIA GPUs mit DX 10.1 (mob. 200er, Desktop OEM 21x und 22xer )

tja und wegen CUDA - früher oder später wird es sowieso wie auch CAL verdrängt, da es nur Hardware von einem Hersteller dafür gibt, OpenCL und DX11 werden aber von vielen unterstützt..

Fazit
CUDA und CAL werden von OpenCL und DX11 verdrängt werden
 
Naja, wenn man den Gerüchten Glauben schenken mag, ist die Ausbeute der DirectX11-Chips (GT300) bei NVidia nicht die beste (gelinde gesagt): http://www.guru3d.com/news/nvidias-gt300-yields-pretty-bad-/
In diesem Licht gesehen versucht NVidia die Bedeutung von DirectX11 herunterzuspielen, um auf anderem Wege zu rechtfertigen, wieso deren DirectX11-Karten erst später auf den Markt kommen. ;)
 
das wird auch sicher wieder so ein transistor-monster und neue rekorde in deren anzahl aufstellen.
daher sicher auch die probleme bei der ausbeute.

mfg
 
@Eye-Q
Weißt du wie hoch generell die Ausbeute bei den ersten Yields in der Regel ist? Sicher nicht. Von daher würde ich das nicht hoch bewerten was derzeit überall verrissen wird.

ICh finde dazu hat 3DCenter ein sehr passendes Statement abgegeben.

Zitat:
Laut SemiAccurate soll nVidia bei seinem DirectX11-Projekt GT300 zumindest derzeit noch erhebliche Fertigungsprobleme haben – beim allerersten GT300-Wafer gab es angeblich nur eine Ausbeute von 1,7 Prozent, was in ganzen 7 funktionsfähigen GT300-Chips resultierte. Dies hört sich erst einmal dramatisch an, allerdings müssen wir auch ehrlich eingestehen, daß uns keine belastbaren Daten darüber vorliegen, wie hoch die Ausbeute in der Vorserienproduktion üblicherweise ist. Es ist demzufolge nicht auszuschließen, daß der genannte Wert gar nicht einmal so unüblich für ein allererstes Wafer ist. Eine besondere Ausbeute dürfte es zumindest anfänglich aber weder bei ATIs RV870 noch bei nVidias GT300 geben, dafür sind diese Chips zu groß und die 40nm-Fertigung nach wie vor zu neu.
 
Würde ich trotzdem nicht zu hoch bewerten. Das es generell Probleme gibt wird niemand bestreiten, aber das jetzt hoch zu schaukeln halte ich für falsch.
 
Über die Yield Rate bei den Serienchips sagt es selbstverständlich nichts aus, da hast du vollkommen Recht.

Aber nVidia fehlen jetzt Chips bis zum nächsten Wafer Start zum Debuggen. Und FPGAs können auch nicht alles simulieren.
 
Solange es keine DirectX11 kompatiblen IGPs gibt, ist es für den Gesamtmarkt eh bedeutungslos und AMD beeilt sich da auch nicht gerade.

AMD wirbt doch selber damit, dass DirectX10.1 Kompatibilität für den Desktop völlig ausreichend ist.


<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=7491"><img src="http://www.planet3dnow.de/photoplog/file.php?n=7491" border="1" alt="AMD Mainstream Desktop Platform"></a></center>
 
Das mag schon richtig sein. Aber es kann genauso gut irgend ein dämlicher Fehler gewesen sein der leicht behoben werden kann. Natürlich kann es auch der Vorbote für einen Supergau sein und nVidia wird hier langfristig kaum Chips produzieren können.
ICh warte da lieber einfach mal ab was kommen wird. Auch wenn ich ATI gerne mal wieder klar vorne sehen würde, wäre es aber in Bezug auf einen Konkurrenzkampf für uns Käufer sehr schade wenn ATI hier den DX11 MArkt für lange Zeit stark dominieren würde.

Ich denke auch weniger das DX11 hier absolut entscheidend ist, nur sind neue Karten eben deutlich schneller als alles was es bisher gibt, auch wen diese nur mit DX10 oder DX10.1 laufen. Das ist dch der größte Anreiz für die Käufer. Auch das es sparsamere Karten mit der der selben Leistung wie bisher gibt.
 
Das mag schon richtig sein. Aber es kann genauso gut irgend ein dämlicher Fehler gewesen sein der leicht behoben werden kann.
Ich glaube du verstehst nicht ganz worauf die Analysten hinauswollen.
Selbst wenn es nur ein leicht zu behebender Fehler war, so ein Chip entsteht nicht innerhalb weniger Stunden oder Tage. Das ist ein langwierigerer Prozess.
Dadurch verzögert sich zwangsläufig und unabwendbar der Zeitpunkt an dem nVidia die Serienproduktion bei TSMC in Auftrag geben kann.
Denn eine Ausbeute von sieben einzelnen Chips gilt als zu klein, als dass man damit alle notwendigen Tests abschließen könnte (nicht nur zeitlich).
Ob der geplante (und natürlich bisher geheime) Launch Zeitpunkt noch gehalten werden kann, ist wieder eine andere Frage, aber es wird auf jeden Fall enger.
 
Zuletzt bearbeitet:
Verzögerungen sind doch Alltag in diesem Geschäft. Es ist nur die Frage wie lange sich das verzögert.

Aber es stimmt, ich hab wenig Ahnung davon wie der Ablauf ist.
 
Ich denke auch weniger das DX11 hier absolut entscheidend ist, nur sind neue Karten eben deutlich schneller als alles was es bisher gibt, auch wen diese nur mit DX10 oder DX10.1 laufen. Das ist dch der größte Anreiz für die Käufer. Auch das es sparsamere Karten mit der der selben Leistung wie bisher gibt.

Das blöde ist, dass DX11 viel Stoff für die Entwickler mitbringt.
Die werden sich aber leider nicht richtig dafür interessieren, da:
  1. Für Konsolen entwickelt wird und später meistens eine "one click" Portierung für den PC erfolgt (wo soll da noch viel DX11 ausgereizt werden).
  2. Jetzt wohl nvidia auch erstmal weg fällt.
 
Spielerkarten verkaufen sich vorrangig über FPS/Preis. Die Einzelheiten wie DX-Versionen, Cuda und Physix spielen genau dann eine Rolle, wenn bei vergleichbaren Preis/FPS die eine Karte noch höhere Featureversionen bietet.

Was NVidia zu verdrängen scheint, ist der Umstand das ATI mit der 5870 nicht nur neue 'Gimmicks' bringt, sondern in erster Linie auch einen deutlichen Leistungssprung hinlegt. Und man wird zumindest mittelfristig erstmal nichts gegen eine 5870x2 platzieren können, wenn die single5870 wirklich im Bereich einer GTX285/4870x2 wildert.
 
@Muku-Muku
Ich finde es aber erstaunlich wie viele Spiele mittlerweile für DX11 portiert werden sollen und Angekndigt sind. ZU Anfang DX10 waren es nicht so viele. Der Vorteil von DX11 ist ja das es voll kompatibel zu DX10 ist. Was es insgesamt einfacher macht für die Entwickler. Man muss ja nicht mehr 2 Pfade programmieren sondern programmiert nur für DX11 und hat alles abwärts bis DX9 automatisch drinn. Das ist der große Vorteil.

Die Konsolenportierungen sind natürlich der Ausreißer, aber es sind ja nicht alles Spiele Konsolenportierungen. Zumal man hier gleich auf DX11 programmieren kann und trotzdem DX9 der Konsolen nutzen kann ohne hier groß etwas zu ändern.
 
Das blöde ist, dass DX11 viel Stoff für die Entwickler mitbringt.
Die werden sich aber leider nicht richtig dafür interessieren, da:
  1. Für Konsolen entwickelt wird und später meistens eine "one click" Portierung für den PC erfolgt (wo soll da noch viel DX11 ausgereizt werden).
  2. Jetzt wohl nvidia auch erstmal weg fällt.

Um das Multithreading von DX11 nutzen zu können müssen die Entwickler nichts groß ändern.
siehe hier: klick


MfG @
 
Zuletzt bearbeitet:
NVIDIA ist mir irgendwie unsympatisch, ich kanns nicht leugnen.
Wenn ich dann sowas lese frage ich mich, was die Hintergründe sind... wollen sie vielleicht die potentiellen Kunden besänftigen, dass bisher nix in Sachen GT300 angekündigt wurde?
Oder bekommen sie DX11 einfach nicht integriert?

Mit fällt gerade der Satz "NVIDIA-The way its meant to be failed" *buck*

Ich bin kein ATI-fanboy und das wäre der perfekte flame-Satz. Aber meine nächste Grafikkarte wird trotzdem wieder ne ATI :P
 
Ich finde es aber erstaunlich wie viele Spiele mittlerweile für DX11 portiert werden sollen und Angekndigt sind. ZU Anfang DX10 waren es nicht so viele.
Ich denke das hing mit dem Festhalten vieler Spieler am veralteten Windows XP zusammen. Inzwischen haben die meisten erkannt, dass Windows Vista die bessere Wahl ist.

Und mit dem baldigen Erscheinen von Windows 7 kann man Direct3D10/11 wohl bei so gut wie jedem System voraussetzen. Damit entfallen auch andere Einschränkungen von Windows XP.
Um das Multithreading von DX11 nutzen zu können müssen die Entwickler nichts groß ändern
Mir erschließt sich nur nicht ganz warum Direct3D11 den Hauptprozessor vollständig in Beschlag nehmen möchte. Soviel Organisationsaufwand besteht doch gar nicht.

Und auf dem Grafikprozessor fand schon immer eine Parallelsierung der Threads statt. Dort aber mit einem Thread Scheduler in Hardware.
 
Zurück
Oben Unten