PhysX-Unterstützung für NVIDIA GeForce 8

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Nach der Übernahme des PhysX-Entwicklers AGEIA durch NVIDIA (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202210317">wir berichteten</a>) gab es breite Spekulationen, wie NVIDIA weiter mit der Physik-Engine verfahren werde.

NVIDIAs CEO Jen-Hsun Huang hat in einem Konferenzgespräch bekannt gegeben, dass man mit Hochdruck daran arbeite, die PhysX-Engine auf CUDA zu portieren. CUDA ist NVIDIAs Programmierspache für die Nutzung von GPGPU auf hauseigenen Grafikkarten mit Unified Shadern, worunter alle der achten GeForce-Generation fallen.
<ul><i>"We're working toward the physics-engine-to-CUDA port as we speak. And we intend to throw a lot of resources at it. You know, I wouldn't be surprised if it helps our GPU sales even in advance of [the port's completion]. The reason is, [it's] just gonna be a software download. Every single GPU that is CUDA-enabled will be able to run the physics engine when it comes. . . . Every one of our GeForce 8-series GPUs runs CUDA." </i></ul>Im Gegensatz zur bisherigen Situation steht damit die Nutzung von aufwändigen Physikberechnungen nicht mehr ausschließlich Besitzern einer dedizierten PhysX-Beschleunigerkarte zur Verfügung. NVIDIA geht diesen Schritt natürlich nicht aus Nächstenliebe, sondern erhofft sich durch diese Unterstützung bessere Verkäufe der eigenen Grafikkarten:
<ul><i>"Our expectation is that this is gonna encourage people to buy even better GPUs. It might - and probably will - encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics."</i></ul>Für AMD wird damit die Situation im Bereich der Physikbeschleunigung immer brenzliger, da Intel erst vor einem halben Jahr Havok, einen Entwickler für herstellerunabhängige Physikbeschleunigung mit Grafikkarten, übernommen hatte (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">wir berichteten</a>).

<b>Quelle:</b> <a href="http://techreport.com/discussions.x/14147" target="_blank">GeForce 8 graphics processors to gain PhysX support</a>

<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202210317">NVIDIA kauft PhysX-Hersteller AGEIA</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195749701">AMD hat kein konkretes Interesse an Ageia</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195675455">Physik-Beschleunigung mit Grafikkarten vor dem Aus?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/partner_preistrend/p3dclicks.pl?suchen.php?q=PhysX&s=0&a=&z=&x=0&y=0" target="_blank">AGEIA PhysX Preisvergleich</a></li></ul>
 
Hm...wenn sich AMD auf sowas einlässt (im Endeffekt bestimmt ja nur die Softwarebranche den Erfolg/Misserfolg der "echten" Physikbeschleunigung), dann müssen sie zusehen, dass sie eine eierlegende Wollmilchsau werden...
 
Also wenn das stimmt lehn ich mich mal ganz entspannt zurück. Da brauchts dann erst recht kein CPU Upgrade um Grakas auszulasten. Dachte eigentlich sowieso immer dass DX10 Physikbeschleunigung i Grakas in Hardware unterstützt.

Endlich hats NV mal verstanden alle brachliegenden Ressourcen im Rechner zu verwenden, wenns IGP Chipsätze auch unterstützen. Der IGP für Physics und die xtra Graka fürs Bild so hab ich mir das vorgestellt.
 
Zuletzt bearbeitet:
Für AMD wird damit die Situation im Bereich der Physikbeschleunigung immer brenzliger, da Intel erst vor einem halben Jahr Havok, einen Entwickler für herstellerunabhängige Physikbeschleunigung mit Grafikkarten, übernommen hatte (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">wir berichteten</a>).
Naja brenzlig würde ich das nicht nennen, wenn MS mit dem Physik SDK für DX11 oder DX10.5 rauskommt, interessiert das keinen mehr was Intel oder nVidia mal gekauft hat. Die Frage ist nur, ob MS das bald mal schafft. Das letzte Mal las ich was von 2009.
Je länger MS benötigt, desto mehr Nachteil von AMD. Ein Jahr sollte noch ok sein.

MS braucht Physik sicherlich, und wenn es nur für die nächste XBOX ist :)

ciao

Alex
 
also wenn das ungefähr genausolange dauert - oder gar ganz gesponnen ist - wie der "Stromspartreiber" dann bleibt es wohl ein Marketingschachzug der sich 2010 bwahrheitet, aber nichts bringt das die aktuelle Genereation das zwar kann aber um 90% einbricht.
 
also wenn das ungefähr genausolange dauert - oder gar ganz gesponnen ist - wie der "Stromspartreiber" dann bleibt es wohl ein Marketingschachzug der sich 2010 bwahrheitet, aber nichts bringt das die aktuelle Genereation das zwar kann aber um 90% einbricht.

Mann stimmt da war doch irgendwas, wurde da nicht auch ein NForce 3 Treiber für Vista versprochen.
 
"Our expectation is that this is gonna encourage people to buy even better GPUs. It might - and probably will - encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics."

Ach so läuft der hase, die leute haben sich keine $99 PPUs gekauft aber jetzt werden sie sich ne zweite oder dritte karte kaufen die sicherlich nicht weniger kosten wird und sicherlich nicht schneller die physikberechnungen anstellt. Geschickt eingefädelt! *lol*

Wenn daraus überhaupt ein breiter erfolg werden kann, dann nur wen einzelne karten (egal wieviele kerne drauf sind) genug dampf haben um diese berechnungen nebenbei zu machen und dabei deutlich bessere resultate liefern als CPUs mit x kernen.

Übrigens gibts bei AnandTech einen kurzen artikel der ganz andere schlüsse zieht was AMD angeht. Nvidia weiss offenbar ganz genau, dass das ganze (für spiele) nichts wird wenn AMD nicht mitzieht und man deshalb die ganze sache durchaus mit der konkurrenz voranbringen will um sich gegen Intels HavokFX auf vermeintlichen many-cores abzusichern.

(zweite seite, vorletzter abschnitt)

The death of the PPU
 
Auf der PS3 und Xbox 360 laufen Spiele mit Ageia-Unterstützung ... nur eben nicht mit einem PhysX-Chip, sondern mit einer Middleware von Ageia.
Aso .. wurde die da schon lizensiert .. ???
Wieder was gelernt .. dann ist die Frage, wie es da dann jetzt weitergeht ... nächste Spielekonsolengeneration mit nVidia only ?

Edit:
Fusseltuchs Kommentar gelesen .. also nvidia will vielleicht zusammenarbeiten ... bin ich ja mal gespannt...

ciao

Alex
 
Zuletzt bearbeitet:
Bei der aktuellen Effizienz und Leistung jetziger und kommender Vierkernprozessoren sollten diese Physikbeschleuniger schon bald ein Ende finden. Und ich bin mir sicher, dass AMD/ATI genau darauf baut. Wenn man so gute Prozessoren liefern kann, die die Physikberechnungen quasi "im Vorbeigehen" mitnehmen, sind diese Beschleuniger überflüssig.

Und meine 8800GT bekommt so schon genug zu tun. Da muss es nicht noch mehr Physik sein.
 
Bis ein x86-Prozessor auch nur annähernd an die Leistung (bei Physikberechnungen) der PhysX-Karte rankommt vergeht aber noch so einiges an Zeit...
 
Bis ein x86-Prozessor auch nur annähernd an die Leistung (bei Physikberechnungen) der PhysX-Karte rankommt vergeht aber noch so einiges an Zeit...
Hmmm .. 1 Jahr ? Dann kommt AMDs erste Fusiongeneration, ne Art Phenom X2 mit R600 Grafikkern & DDR3... hat man zusätzlich zu so einer "CGPU" noch eine extra Grafikkarte könnte der "CGPU" Grafikkern dann das Physikberechnen übernehmen, so denn 2009 irgendeine Physik API die ATi/AMD Chips unterstützt ^^

Lustig an der ganzen Story ist noch, das die R600 cores VLIW cores sind. Fusion ist deshalb, von nem andren Standpunkt her gesehen, ne Art Itanium light mit Hardware x86 *lol*
( Natürlich besteht keine Befehlssatzkombatibilität, nur die Art und Weise der Datenverarbeitung zw. R600 und Itanium ist ähnlich).

ciao

Alex
 
Ob ich jetzt eine Physik-Karte oder eine zweite Grafikkarte reinsetze ist doch letztlich gleich dämlich...?!
Eine zweite 8800x nur für Physik? *buck*
 
Hmmm .. 1 Jahr ? Dann kommt AMDs erste Fusiongeneration, ne Art Phenom X2 mit R600 Grafikkern & DDR3... hat man zusätzlich zu so einer "CGPU" noch eine extra Grafikkarte könnte der "CGPU" Grafikkern dann das Physikberechnen übernehmen, so denn 2009 irgendeine Physik API die ATi/AMD Chips unterstützt ^^
Optimist! ;)

Außerdem ist dann halt keine x86-CPU mehr...



@[³dgamer]: So siehts aus, nur ist die PhysX-Karte deutlich günstiger. :P

Allerdings ist die zweite Grafikkarte auch für Grafikberechnungen nutzbar, wenn das Spiele wenig Physikberechnungen ausführt.
 
Nennt mich Prophet: Siehe letzter Beitrag.

Naja,

mal gucken wie schnell oder ob das wirklich wie angekündigt umgesetzt wird,
nVidia hat schön öfters angekündigte Dinge 'vergessen' ;D


Sicher ist, dass dieses Konzept von der Grafikleistung abzwacken wird. Wie viel
das sein wird muss man abwarten. Sicher ist aber auch, was NOFX schon gesagt hat:


CPUs werden mit Ihren "allrounder" Fähigkeiten wahrscheinlich nie an die spezielle,
massiv parallele Rechenleistung von GPUs herankommen - aktuelle GPUs kommen
hier schon an die 100 Gflops ran - ein C2D E6400 dümpelt selbst unter Ausnutzung
spezieller SSE-Optimierter Routinen knapp unter 10 Gflops rum.

Nach dem Moorschen Gesetzt könnten CPUs evtl. in 3 Jahren bei 100Gflops sein,
aber ratet mal wo dann GPUs sind - zumal diese noch schneller an Leistung zulegen
als CPUs - GPUs könnten in 3 Jahren schon im Teraflop-Bereich wildern.

Von daher wird es immer einen Vorteil bringen, spezielle Operationen auf dafür optimierte
APUs auszulagern - diese machen das schneller und besser als CPUs - und entlassten
diese damit noch. Nvidias Idee, das nun über Ihre GPUs laufen zu lassen, ist auf jeden
Fall ein interessanter Ansatz, wenn es denn auf der selben Karte, die auch die Grafik
berechnet, mitläuft, ohne die Grafikberechnung zu sehr zu beeinträchtigen.

Eine Extrakarte nur für die Physik hatte Nvidia ja schon einmal versucht - und sind damit
auf die Klappe gefallen - dafür sind die Dinger einfach zu teuer!
 
Zuletzt bearbeitet:
Ich weiß nicht. Es ruckelt doch jetzt schon alles bei vielen Spielen, wenn da nun noch Physik auf der GPU gemacht wird, dann muss man ja gleich wieder eine neue Karte kaufen und die Mittelklasse taugt dann ja zum Spielen fast gar nichts mehr.

Ich hoffe der Fusion und oder eine andere CPU/GPU/XY von AMD samt kleiner aber feiner Physikengine zeigt NV wo es lang geht. Von mir aus auch MS und sonstwer.
Hoffe es kommen ein paar GPL Engines oder ein paar mit der Liezens für kommerzielle Produkte auf den Mark die NV und Intel das Fürchten leren und super auf ATI und AMD laufen.

So allmählich kann ich zwar NV verstehen das sie angst um ihre Marktanteile haben, aber für mich ist so was ein Schritt in die falsche Richtung und ein weiter Grund wie so ich nichts mehr von NV haben will.

NV soll erstmal das richtig machen was sie im letzen Jahr verbockt haben und nicht immer Bla Bla machen. Ich würde an NVs stelle mal die Klappe halten bis endlich was lauffähiges da ist und nicht sagen ja ja alle Karten werde das irgend wie unterstützen und am Ende stellt der User fest das war gelogen oder ganz anders gemeint sieh Treiber für NForce 3 Vista zum Beispiel oder der Mist mit dem NForce 4 und Vista damals.
 
Bei der aktuellen Effizienz und Leistung jetziger und kommender Vierkernprozessoren sollten diese Physikbeschleuniger schon bald ein Ende finden. ...
Ist dir klar über welche Leistungsabgründe du da sprichst?

Eine einzelne aktuelle GPU der Spitzenklasse rechnet in etwa mit einem halben Teraflop.

Eine CPU hingegen hat nur etwa nur einen Bruchteil der Rechenleistung von etwa 5 bis 10 Gigaflop.

MFG Bobo(2008 )
 
Ist dir klar über welche Leistungsabgründe du da sprichst?

Eine einzelne aktuelle GPU der Spitzenklasse rechnet in etwa mit einem halben Teraflop.

Eine CPU hingegen hat nur etwa nur einen Bruchteil der Rechenleistung von etwa 5 bis 10 Gigaflop.

MFG Bobo(2008 )

... wobei hier sinnlos mit Zahlen herumgeworfen wird, die ihre Repetitoren kaum verstehen. Zum einen: CUDA ist keine Programmiersprache (siehe Eingang). CUDA ist nVidias API zur GPU. AMD hat CTM, rudimentärer ausgelegt, schwieriger zu handhaben, aber letztlich flxibler. Und dennoch: in BEIDEN Fällen ist man ohne spezielle Kenntnisse dieser Schnittstelle kaum in der Lage, diese 'enorme' Fließkommaleistung zu nutzen! Ich gäbe etwas 'drum, wenn ich für meine Arbeit eine C-Bibliothek (wie etwa ATLAS oder die GSL) verwenden könnte, die als Backend eine oder mehrere im System befindliche GPUs verwendet. Außerhalb von Spielen ist die enorme Rechenleistung kaum nutzbar (mal von speziellen Anwendungen in Standford abgesehen). Mir ist unklar, obschon das Potential dieser Rechenknechte bekannt ist, weshalb weder Intel noch AMD hingegangen sind und Shader-Erweiterungen in die FPU der CPU eingebaute haben. Das wäre mal etwas wirklich Neues und würde nach der AXP endlich den Markt vernünftiger Prozessoren beleben. Dieser x86-Müll ruiniert mit seinem massenhaften Erscheinen in grün und blau wie eine Pest das ökologische Gleichgewicht.
 
... CUDA ist nVidias API zur GPU.

AMD hat CTM, rudimentärer ausgelegt, schwieriger zu handhaben, aber letztlich flexibler.
Und dennoch: in BEIDEN Fällen ist man ohne spezielle Kenntnisse dieser Schnittstelle kaum in der Lage, diese 'enorme' Fließkommaleistung zu nutzen! ...
Das ist richtig.

Erschwerdend kommt hinzu, dass die Gleitmommarechenwerke der GPUs nicht völlig identisch mit den Rechenwerken von Prozessoren/Coprozessoren vergleichbar sind (Art der Rundungsweise).

In der Praxis kommen dann auch nicht mehr die Spitzenleistungen zusammen, aber die sind immer noch bemerkenswert. Bei Performance/Watt sieht das mit den aktuellen GPUs dann womöglich doch nicht mehr so gut aus.

MFG Bobo(2008 )
 
was spricht denn gegen ne extra Karte für Physik?
Auf ner Grafikkarte würde das nur noch mehr Wärme oder weniger Grafikleistung bedeuten.
Ich kann mir denken, dass man ne PhysX Karte auch prima passiv kühlen kann.
Einziger Nachteil ist halt, dass es eine weitere Komponente ist, die man kaufen muss und dass die Spieleunterstützung da sein muss.
Mal schauen wie die weitere Prozessorentwicklung ausschaut
 
Zurück
Oben Unten