AGEIAs PhysX Produkte demnächst auch mit PCI-Express Interface

cruger

Senior Moderator
☆☆☆☆☆☆
Teammitglied
Mitglied seit
25.05.2002
Beiträge
29.374
Renomée
1.572
  • QMC Race
  • BOINC Pentathlon 2014
Zum PhysX-Start vor einigen Monaten (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143133448">wir berichteten</a>) wurde noch darüber diskutiert und spekuliert, warum <a href="http://www.ageia.com" target="b">AGEIA</a> und die beiden Launch-Partner <a href="http://www.asus.com" target="b">ASUS</a> und <a href="http://www.bfgtech.com" target="b">BFG Technologies</a> sich zunächst ausschließlich auf PhysX-Produkte mit einem PCI-Interface beschränken, verfügen aktuelle PC-Systeme doch über immer weniger PCI Slots, auf der anderen Seite liegen PCIe Slots häufig genug brach.

Wie der britische IT-Newsdienst <a href="http://www.reghardware.co.uk/2006/10/02/ageia_pcie_x1_physx_card/" target="b">The Register</a> berichtet, sollen nun in nächster Zeit auch PhysX Erweiterungskarten mit einem PCI-Express x1 Interface folgen. Offizielle Ankündigen entsprechender Produkte darf man am 12. Oktober erwarten, die neuen PCIe PhysX Karten sollen dann kurz darauf auch in Stückzahlen verfügbar sein. AGEIA betont dabei allerdings, dass man keinerlei Performance-Vorteile gegenüber den PCI Varianten zu erwarten hat.

Man darf sicherlich gespannt sein, ob sich mit der Verfügbarkeit von PCIe Karten auch insgesamt die Situation für AGEIAs PhysX Produkte bessert, war den PhysX Karten seit dem Launch im Mai bisher doch eher wenig Akzeptanz beschieden, was neben dem hohen Preis und bislang bescheidenem Spiele-Support nicht zuletzt auch an der Beschränkung auf den PCI-Bus gelegen haben dürfte.

<b>Links zum Thema:</b><ul><li><a href="http://www.reghardware.co.uk/2006/10/02/ageia_pcie_x1_physx_card/" target="b">Ageia preps PCI Express games physics card (The Register)</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1146648817">Ageia PhysX - Erste Eindrücke</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143133448">AGEIAs PhysX steht in den Startlöchern</a></li></ul>
 
Naja, für mich wäre der einzige Kaufgrund, wenn die Karten echte Performance-Vorteile bringen würden. Aber so denke ich, das die Karten einfach zu früh auf den Markt gekommen sind. Man hätte warten sollen, bis viele Spiele die Karte unterstützen, und nicht nur eine Handvoll Spiele, zwei-drei unwichtige Effekte mehr zeigen. Dafür ist der Spaß einfach zu teuer.
 
Hi,

guter Ansatz, seiner Zeit voraus, aber aufgrund der mangelhaften Unterstützung und anderen Schwierigkeiten (s.o) nicht sehr erfolgreich.

Nvidia und ATI werden es da ev. besser machen.

Greetz
neax;)
 
wo amd und intel nun das prinzip der co-prozessoren wieder ausgebuddelt haben ... wer sagt uns denn, dass ageia nicht vielleicht doch eine zukunft als physik-co-prozessor hat? ;)
 
Ich denke die Physikbeschleuniger machen gerade die schwerliche Durchsetzungsphase durch, wie sie damals auch Grafikprozessoren mit einer 3D Beschleunigung gegenüber den althergebrachten 2D Grafikkarten durchgemacht haben. Damals wusste auch jeder, dass der 3D Darstellung die Zukunft gehört, aber an der anfänglichen Umsetzung hatte man dennoch zu Recht einiges auszusetzen. Zur Zeit würde ich vor allem den Preis und die mangelnde Unterstützung durch Spiele als Hindernis ansehen. Sollte der Preis in einigen Monaten auf das Niveau von HighEnd Soundkarten wie der Creative XFi Extreme Music abgesunken sein und weitere Spieletitel, wie Unreal Tournament 2007 und Sacred 2 angekündigt worden sein, könnten sich PhysX Karten abseits von Dells XPS Systemen ausbreiten. Zu den zur Zeit geläufigen Preisen werden die meisten Kunden aber wohl eher auf Grafikbeschleuniger mit Physikprozessoreinheit warten. Als Co-Prozessoren werden sie sich dagegen wohl kaum etablieren können, denn dort besteht Bedarf an anderer Stelle, wie nach Kryptografieprozessoren.
 
Hi,

klar denke auch, dass es in Zukunft solche Modelle von Multi CPUs geben wird. Da die Affiniät zur Grafik relativ groß ist und bereits die schnelle Machbarkeit / Umsetzung gezeigt worden ist von Nvidai und ATI, werden die wohl ihre GPU demnächst auch als als Physik-Rechner "missbrauchen".

@ SPINA: 100% Zustimmung

Greetz
neax;)
 
Zuletzt bearbeitet:
Ich bin immer noch der Meinung.
Physikberechnungen gehört in den zweiten, dritten oder auch vierten Cpu Kern und nicht in eine Zusatzkarte oder GPU, vor allem wo die DC Ausnutzung ein reiner Lachschlager ist.
Spätestens bei hoher Grafikqualität hat die Gpu schon mehr als genug arbeit.
Allerdings würde eine Physikbeschleunigung über die Cpu nicht mehr Geld in die Schatullen bringen.
 
Jetzt bin ich ja doch ein wenig verwirrt. Ich hab mich nie groß um die PhysX-Karten gekümmert, eben weil die Unterstützung fehlt. Allerdings war ich (wohl aus fehlendem Interesse) auch immer der Meinung, dass die Karten ohnehin nur für das ach so unglaublich toll schnelle PCI-E verfügbar wären. Nun wie auch immer, da lag ich wohl falsch... aber:

Wenn ich mir dann den letzten Satz dieser News anschaue, muss ich doch etwas grübeln. Schließlich müsste es doch genau umgekehrt sein, wenn die Karten nur für PCI-E erschienen wären, könnte man sich die gerine Nachfrage dadurch erklären. Ich glaub nicht, dass auch nur ein Viertel aller PCs über PCI-E-Slots verfügt. Dieser letzte Satz stellt es aber so hin, als gäbe es keine PCI-Slots mehr, was ganz offensichtlich Unsinn ist, weil nicht unbedingt jeder seinen PC wegschmeißt, nur weil es mal wieder einen neuen Standard gibt. *zweifel*
 
Wenn ich mir dann den letzten Satz dieser News anschaue, muss ich doch etwas grübeln. Schließlich müsste es doch genau umgekehrt sein, wenn die Karten nur für PCI-E erschienen wären, könnte man sich die gerine Nachfrage dadurch erklären. Ich glaub nicht, dass auch nur ein Viertel aller PCs über PCI-E-Slots verfügt. Dieser letzte Satz stellt es aber so hin, als gäbe es keine PCI-Slots mehr, was ganz offensichtlich Unsinn ist, weil nicht unbedingt jeder seinen PC wegschmeißt, nur weil es mal wieder einen neuen Standard gibt. *zweifel*

wenn man sich die preisgestaltung anschaut ebenso wie die ersten tests dieser technik, die deutlich machen, dass die physikbeschleunigung zu einer zusatzbelastung für grafikkarten führt und entsprechend vor allem in kombination mit highend-grafikkarten sinn macht, dann wird man schnell erkennen, dass die derzeitigen physx-karten wohl vornehmlich für user interessant sind, die zuviel geld und ohnehin schon ein highend-system besitzen ... und solche highend-systeme basieren nun einmal schon seit einiger zeit auf pci-e mainboards, auf denen man immer seltener pci-slots vorfindet, die man nicht selten für andere erweiterungskarten benötigt (z.b. soundkarten).

Dieser letzte Satz stellt es aber so hin, als gäbe es keine PCI-Slots mehr, was ganz offensichtlich Unsinn ist, weil nicht unbedingt jeder seinen PC wegschmeißt, nur weil es mal wieder einen neuen Standard gibt. *zweifel*
nun, abit bietet z.b. auf seinen highend-boards (wie dem aw9d/-max) nur noch einen einzigen pci-slot. und für den hab ich bessere verwendung als eine physx-karte.
 
Naja, sollte sich die Gerücht bewahrheiten so könnte diese Aufgabe auf einem SLI Board auch eine evt auch eine 6800GT übernehmen, während ich mit einer GF 8800 GT ? zocke. Möglich das diese Lösung besser ist, zumal der Chip ja für Grafikoperationen ausgelegt ist. Wie einfach das ist sieht man ja, das es bald Seti und Co auch für GPUs gibt die dann diese Betrechnungen übernehmen kann. Da scheint man einen Phys Chip nicht zu brauchen. Aber abwarten was ende dieses Jahres mit NV und dem neuem Treiber drin ist, und ob das versprechen eingehalten wird das auch die I-975X bzw. I-965X unterstützt werden. Vom Preis lagen diese Karte sogar ab 300 Euro, ne GT z.b habe ich ja schon *g*
 
Naja, für mich wäre der einzige Kaufgrund, wenn die Karten echte Performance-Vorteile bringen würden. Aber so denke ich, das die Karten einfach zu früh auf den Markt gekommen sind. Man hätte warten sollen, bis viele Spiele die Karte unterstützen, und nicht nur eine Handvoll Spiele, zwei-drei unwichtige Effekte mehr zeigen. Dafür ist der Spaß einfach zu teuer.

Und was sagen die Softwareentwickler :] Keine Unterstützung wenn keine Plattform vorhanden ist ;)

Was war noch mal zuerst das Huhn oder das Ei?!
 
Was war noch mal zuerst das Huhn oder das Ei?!
Deswegen muß man Druck machen und gleichzeitig Rührei und Broiler auf den Tisch bringen. Sprich Ageia täte gut daran, die Entwicklung von Spielen mit aller Kraft zu unterstützen und zu forcieren, solange den PhysX-Karten noch der Vorteil des Neuen anhaftet. Warten sie zulange, bis von selbst das ein oder andere Spiel fertig geworden ist, dann liegen die Dinger inzwischen wie Blei in den Regalen und Ageia ist pleite gegangen, da die Venture-Capitalisten wieder abgesprungen sind.

Das wird imho aber sowieso passieren, da Ati und Nvidia sich einfach schon wegen ihrer Grafikchips wesentlich enger in die Spieleentwicklung eingebunden haben und deswegen auch Ageia überholen können, gleichzeitig können sie auch einfach mehr investieren, ohne gleich vor der Pleite zu stehen. Spiele, die die Grafikchips zur Physikberechnung nutzen, werden also wohl schneller und in größerer Zahl erscheinen, damit wird die Luft für Ageia dann mehr als dünn.
 
Deswegen muß man Druck machen und gleichzeitig Rührei und Broiler auf den Tisch bringen. Sprich Ageia täte gut daran, die Entwicklung von Spielen mit aller Kraft zu unterstützen und zu forcieren, solange den PhysX-Karten noch der Vorteil des Neuen anhaftet. Warten sie zulange, bis von selbst das ein oder andere Spiel fertig geworden ist, dann liegen die Dinger inzwischen wie Blei in den Regalen und Ageia ist pleite gegangen, da die Venture-Capitalisten wieder abgesprungen sind.

Auch das wird nichts nützen denn das Problem liegt wo anders.
Ageia hat den dummen Fehler gemacht etwas zu entwikeln das man nicht nutzen kann.
Diese Karte nützt keinem etwas da die restliche Hartware mit der Datenflut nicht zurecht
kommt.
Die können nur warten bis die Hartware dazu in der Lage ist, ist das soweit ist aber auch
die restliche Hartware so weit das man so eine Zusatztkarte nicht mehr benötigt.

Dieses Produkt wurde am Markt total vorbeientwikelt. Es ist zwar Bedarf da, aber nicht
die Vorraussetzungen für die Nutzung. Mir ist etwas schleierhaft warum die das nicht
beachtet hatten?

Der Vergleich zur Voodoo der gelegentlich kommt hinkt etwas, denn die Voodoo brachte mir
damals sofort sichtbare grafische Verbesserungen, ich erinnere mich noch gut als ich mir eine
Voodoo1 bestellte. Ich hatte fest vor das Teil zu testen und dann zurück zu senden. Aber das
was sie schafte war für mich damals so gewalltig das ich sie trotz des enormen Preises behalten
habe. Und bei der PhysX schaut das ganze ganz anders aus, Efekte die man so auch ohne die
Karte schaft, und FPS Einbrüche die sie nutzlos machen.
 
Zuletzt bearbeitet:
Meiner Meinung nach besteht eigentlich auch nicht der Bedarf für solchen physikalischen Realismus - zumindest nicht im Spielebereich. Und anderswo braucht man ja praktisch keine Echtzeitberechnung.
Und an GRAW und Cellfactor (sind jetzt die einzigen Spiele mit PhysX-Unterstützung, die mir einfallen) sieht man ja, dass es man es eigentlich nicht braucht. GRAW bietet ein paar Effekte mehr, für die sich aber sicher keine solche Investition lohnt. Cellfactor dagegen ist praktisch eine tollwütige Technik-Demo, die ein eigenes Gameplay bietet. Über die Qualität des Spiels möchte ich hier mal gar nicht reden, da ich es nicht kenne, aber ohne PhysX kein Cellfactor. *buck*
Dann doch lieber Spiele wie Half-Life 2, die mir einen gewissen Grad an physikalischem Realismus bieten, dafür aber nicht mal High-End-Hardware brauchen.

PS: Mit "kein Bedarf" mein ich natürlich nicht, dass es überhaupt nicht nötig ist, die Physik in Spielen zu verbessern. Ich mein eher, dass es zur Zeit nicht sinnvoll ist, die Physik in Spielen mit Zusatzinvestitionen auf einen Level zu bringen, der praktisch gesehen keinen Nutzen für die Spiele selbst bringt.
 
Zuletzt bearbeitet:
Hat inzwischen mal jemand vermessen was die PhysX-Karte Idle und unter Last an Leistung aufnimmt?

Gerade Idle ist wichtig.
 
In Wikipedia steht was von 25Watt.
Aber sie ist immerhin in 130nm Struktur gebaut.

Ob das in einer Intelfabrik gebaut wird???
 
SPINA schrieb:
Ja, Tom's Hardware Guide hat einmal nachgemessen:

So steigert die PhysX Karte unter Last und Ruhe die Leistungsaufnahme um 40 Watt.

Hört sich ja schlimm an und ist wenn es der Realität entspricht ein ziemliches no-go.

Wenn... bei Toms Lügenguide muss man bekanntlich immer erst noch zweimal nachfragen ob die Lügenbarone auch wirklich das getestet haben von dem sie da berichten. Nicht dass sie in bewährter Manier wieder nur "irgendwas" eingebaut und die Werte einfach hochgerechnet haben.

Mir kommt es schon suspekt vor dass eine Karte unter Last die gleiche Leistung aufnehmen soll wie im Leerlauf.
 
Ageia hat nun auch einen Benchmark namens RealityMark veröffentlich.

Bezugsmöglichkeit: http://www.ageia.com/physx/rm.html

Der Download umfasst rund 380 Megabyte und der RealityMark lässt sich auch in einem Softwaremodus auf System ohne PhysX Zusatzkarte ausführen. Basieren tut der Benchmark dabei auf dem Spiel CellFactor.
 
Zurück
Oben Unten