Neue Hardware-Kategorie : Physik-Prozessor Physx: Ein Schuß mehr Realität

neax

Grand Admiral Special
Mitglied seit
30.03.2004
Beiträge
3.352
Renomée
69
Standort
Ruhrgebiet
Ich weiss nicht genau, ob das hier hin passt. Da es sich um einen Prozessor handelt, der auch etwas ;) mit der CPU zutun hat. Stelle ich es mal hier rein. Falls Fehl am Platz, bitte verschieben. THX


Hi,

physikalische Effektie bekommen in vielen Spielen eine immer größere Bedeutung. Tragen sie doch maßgeblich zu einer realsitsichen virtuellen Welt bei.

Jetzt hat ein Firma namens Ageia einen Prozessor ( Physx )nach eigenen Angeaben entwickelt der sich speziell um die Berechuung dieser Effekte kümmert.

Dieser Prozessor berechnet aufgrund gegebener Materialeigenschaften und Interaktionen von festen und flüssigen Körpern etwa Bewegungen und Verformungen (Explosionen, Kollisionen, Brechen,Verformungen Zerschneiden) von Materailien. Gleichs gilt für Flüssigkeiten. Die Simulation von Haaren ist ein weiteres Gebiet.

Mhm, interssantere Entwicklung und im Prinzip logisch. Die Objekte die berechnet werden können (was bisher CPU und GPU gleistet haben) würde damit um ein Vielfaches ansteigen.

Jetzt kommt es: Physx soll als Koprozessor oder Einsteckkarte für PCI-Express oder PCI vermarktet werden. Zielt also auch auf den PC-Bereich ab.

Seit ca. einem Jahr ist das entsprechende Entwicklungkit (Novodex) verfügbar.

Unterstüzung findet es von Sega und Ubisoft. Auch MS ist da wohl irgendiwe involviert. Gerüchteweise soll auch die Unreal3-Engine dies ebenfalls unterstüzen.
Der Entwicklung wird demnach einiges zugetraut..

Es ist also ein Co-Prozessor für ein erheblichen Schuß mehr Realtiät.

Greetz
neax :)
 
Hi,

golem.de berichtet in Bezug auf die Unterstüzer dieses Co-Prozessor's

"...Zeigen will Ageia seine PhysX PPU erstmals auf der Game Developers Conference, unterstützt werden soll sie unter anderem von der Unreal Engine 3. Darüber hinaus zählen Alias, Airtight Games, Artificial Studios, Discreet, Epic, Bongfish Interactive Entertainment, Big Huge Games, RAD Games, SoftImage und Ubisoft zu Ageias Partnern."
Quelle golem.de

Da muss ja fast schon fragen, wann das ganze käuflich zu erwerben ist. ;)

Mir stellt sich dabei die Frage, ob es dann wieder Games gibt, die nur mit dem Prozessoer laufen.... und wie verhalten sich ATI und Nvidia zu diesem Thema.

Greetz
neax :)

PS: THX @ nero
 
Tja ... hatte da nicht mal ein angedachter Nachfolger von der Voodoo 5500 auch einen Coprozessor für Physikalische Berechnungen eingeplant? EPIC hatte ja anfangs ganz starke Unterstützung für 3DFX Glide gemacht mit Unreal ... und nun sitzen sie auch bei Ageia.

Was Coprozessoren und Parallelisierung angeht, sind sie aber nicht unbedingt neu und revolutionär -> Clear Speed CS301-CPU Technologie-Preview und danach hat Clear Speed noch ein Update (CSX600) gemacht.

Und 25 W klingt doch ganz nett, bin mal gespannt ob Treverer dennoch Recht behält mit der These dass grosse Rechenleistung proportional mit Stombedarf anwächst. Bzw. man eigentlich dennoch keine Wunderdinge mehr erwarten kann ... oder geht es schlicht um den nun möglicherweise verbraucherfreundlichen Preis?

Nachtrag: Das war der Sage von 3dfx in der Spectre Grafikkartenfamilie. Was NVIDIA integrierte (Transform & Lightning), sollte der Sage extern machen (skalierbar). Siehe auch 3DCenter News vom 2. August 2003.

MFG Bokill
 
Zuletzt bearbeitet:
wieder so eine 'Todgeburt' wie die SPUs beim CELL.
oder 64 Bit außerhalb von Server-Farmen.

Es lesen wohl zuwenige Hardware-Entwickler die Planet3dnow.

Vielleicht sollte man wichtige Unsinn-Themen auch in Englisch anbieten, damit nicht dauernd Milliarden in nutzloses Zeug verpulvert wird ?

[/Ironie]
 
Hi,

nun ja absehen, wie es sich entwickelt und ob es den Markt erreicht, vermag ich nicht.
Stimmt die Vielzahl der "Unterstützer" und die Tatsache, dass ein Prototyp bereits zu Verfügung steht, bestehen Chance, dass es keine Eintagsfliege wird.
Nicht mehr oder weinger.

heise.de schreibt zur Leistungsfähigkeit ff.

"...Bisher werden diese Berechnungen in der Regel durch Software-Simulationen im Zusammenspiel von CPU und Grafikchip erledigt. Damit können pro Spielszene zwischen 10 und 200 feste Objekte verfolgt werden, erklärte Ageia-Gründer Manju Hedge. Meist würden solche Design-Elemente aber von Spielprogrammierern gemieden, da sie den Ablauf verlangsamen und die Frameraten senken. Der Physx-Chip soll die Interaktion von cirka 32.000 Festkörpern simultan unterstützen können. Damit werden Hauptprozessor und Grafikbeschleuniger nicht nur von aufwendigen Kalkulationen entlastet. Es könnten auch ganz neuartige, detailliertere Szenen berechnet werden, skizzierte Hedge die Pläne seiner jungen Firma aus dem kalifornischen Mountain View...."

Ist dies korrekt und wird dies ausgenutzt, dann hat dies sicherlichen einen deutlichen Mehrwert für die Konsumenten.

Greetz
neax :)
 
Hi,

"Demonstrations of the PhysX PPU will be on display by appointment only at the Game Developers Conference March 9-11 at the Moscone Center in San Francisco. Learn why more than 60 game development studios, companies, and research institutes use NovodeX technologies."
Quelle: ageia.com

Dann wissen wir eventuell mehr.

Greetz
neax :)
 
Das ist imho wirklich sinnvoll. In Zeiten wo die CPU-Branche nicht wirklich weiter kommt muss man sich eben andere Möglichkeiten suchen.
Das mit dem Energieverbrauch mag schon stimmen aber ich bin mir sicher, dass ein eigener Prozessor wesentlich effiektiver arbeitet als die CPU. Das sieht man ja schon bei Grafikkarten, die viel leistungsfähiger sind als die CPU, wenn es emuliert werden muss von der hohen Parallelisierbarkeit einmal abgesehen.

IILesezeichenII
 
Zuletzt bearbeitet:
hm, ich sage mit folgendem NICHT, daß es schlecht ist und sicher hilft spezialisierung immer, noch speed zu gewinnen, genau, wie es bei gpus der fall ist...aber

1. muß die software für solchen zusätzlichen co-prozessor erst mal geschrieben werden

2. eine anbindung über den pci-e killt die perfomance doch tödlich: cpu füttert co-prozessor mit daten, erhält die ergebnisse zurück, die dann endlich in der grafikkarte landen? dat ist doch nichts...

ich kann mir eher vorstellen, daß so etwas irgendwann direkt auf der grafikkarte landet, mit entsprechendem schnellen zugriff aufs ram.so wenig ahnung ich auch nur noch habe von gpus, der trend zu solchen physikalischen berechnungen in der grafikkarte ging doch schon vor jahren los. wird es eben in direct13 standard sein... :-)
 
Hi,
die Sache ist ja schon weit vorangeschritten. Letzlich bleibt ja auch die Frage: Was bringt ee und zu welchen Bedingungen? *noahnung*

1. Leistung: Nur, wenn es wirklichen einen Sprung in eine realistische virtuelle Welt gibt, dann ist Akzeptanz ischerlich vorhanden. *buck*
2. Kosten, was wird eine solche Zusatzkarten kosten? Hier gibt es sicherlich Schmwerzgrenzen, die bestimmen, ob die Karte eine weite Verbreitung findet.
3. Genauso wichtig: Support der Features. Hier ist sicherlich eine wesentlicher Knackpunkt zu sehen. Erst wenn Games die Karte unterstützen, dann mach es überhaupt Sinn.
4. Treiber ;)
5. Ergonomie: Stromverbauch, Lautstärke etc. :P

Nun ja einfach wird das nicht, aber es ist auch nicht von Vorneherein schlecht. ;D

Greetz
neax :)
 
Naja, wenn das Ding wirklich was bringt, von vielen Spielen unterstützt wird, 3 Monate nach Vorstellung nicht schon der Nachfolger angekündigt wird und es nicht mehr als 150 Tacken kostet, ist es sicherlich einen Blick wert...aber nur wenn ich Spiele spielen würde :-)

MfG
 
Genau solch eine Karte braucht eine High Speed Kurzlatenz-Verbindung.

Neben einer Monster Soundblaster (oder auch Soundstorm) wäre solch eine Zusatzkarte ein belebender Faktor für die IT-Industrie (wenn der Preis stimmt). Und wenn da Epic und id dahinter stehen, so könnten die schon so einiges bewegen ... welche Spielebenches werden weltweit auch auf Feld und Wiesen Websites genommen? ... Eben! ;D

MFG Bokill
 
Grundsätzlich halte ich es für eine gute Entwicklung. Dem Realismus in Spielen durch einen Chip, der bestimmte Aufgaben (Kollisionsabfragen, physikalische Vorgänge, etc.) um den Faktor 300-500 schneller erledigt (vgl. die Zahlen von heise und Co.), ordentlich auf die Sprünge geholfen.

Das einzige Problem, das ich sehe, ist die Kundenakzeptanz. Setzt man diese Hardware voraus, riskiert man geringere Verkaufszahlen (bei der Software). Ist das Spiel ein Hit und die benötigte Hardware nicht zu teuer (es soll ja Leute geben, die nahezu 1000€ für eine CPU ausgeben, dafür bekommant man normalerweise schon ein ganzes System...) könnte sich dennoch Erfolg einstellen.
Setzt man die Hardware nicht voraus, stellt sich die Frage, wie man sie überhaupt nutzt. Man dürfte die dadurch ermöglichten Effekte nicht als Gameplay-Element einbauen, sondern lediglich als Gimmick. In diesem Fall sind zwar die Besitzer älterer Systeme und jene, die so etwas nicht kaufen möchten, auch zufrieden, aber die Hardware wird sich nur zögerlich verbreiten.

Also um einer solchen Hardware Erfolg zu bescheren sehe ich im Moment nur die Möglichkeit dies schrittweise einzuführen und irgendwann dann vorauszusetzen. NVIDIA hat auch schon einmal über die Integration eines Audio-Prozessors in die Grafikkarte gesprochen (entweder direkt in den Chip, oder als separater Chip). Ich könnte mir einen ergänzenden Physik-Prozessor auf einer Grafikkarte gut vorstellen. Die Unterstützung soll dann über DirectX (für Windows-Spiele sehr wichtig) gewährleistet sein. Ca. 3 Jahre nach der Ersteinführung kann die Spieleindustrie dann beginnen, Spiele die entsprechende Hardware vorauszusetzen, zu releasen.
Wie gesagt, in der GraKa würde sich das IMO besser durchsetzen als durch eine separate Steckkarte. Die Sache ist nur, dass der Chip weder von NVIDIA noch von ATI ist...

Ich bleibe dennoch gespannt wie diese Geschichte weitergeht!
 
Is an und für sich ne guet sache, die Prozis machen keine imensen Sprünge mehr, und die games werden immer Leistungshungriger..

Allerdings wird sich die Karte nicht allzu schnell Verbreiten, ausser sie sei sehr Preiswert, die entwickler bringen schnell Spiele die diese Karte Sinnvoll nutzen und es gibt keine Problem (kompatibilität, hitze, treiber etc)....

ICh sehe kaum eine Zusammenarbeit zwischen nvidia oder ati mit diesem Hersteller, denn es ist doch ein Konkurenzprodukt....

greez

salen
 
Original geschrieben von rkinet
http://www.the-inquirer.net/?article=21700

Wieso eigentlich ne zweite Karte ?

Wenn zwei GraKa Chips auf eine Karte passen, könnte auch so ein Chip dazu.
Man müßte eben an der GraKa selbst noch ne zweite PCIe einrichten, was aber sicherlich machbar wäre.
Thermisch bei 25 Watt wohl kein Problem.
Am besten noch gesockelt :D Dann könnte man später gegen noch performantere Chips tauschen ;)
 
Ich könnte mich nicht entscheiden, ob ich die PhysX PPU nun auf die Grafik- oder Soundkarte packen soll. Dann doch eher ein Zusatzsockel auf dem Mainboard (wie damals für den Copro). Oder doch besser als PPU-Karte, im Bundle mit Spielen? ;)

Ich glaube, das Teil hat keine Zukunft. Wozu stehen wir kurz vor der Einführung von DualCore-CPUs?
Die Spielehersteller sollten besser vernünftige Multithreading-Lösungen anstreben. Dann skaliert das Ganze automatisch mit den verfügbaren realen/virtuellen CPUs und man muß nicht extra Codevarianten mit und ohne PPU-Unterstützung generieren.
 
Imho geht die Entwicklung in die falsche Richtung.

Man ist heute nicht darauf aus die Leistung der CPU weiter zu steigern, sondern einfach alle rechenintensiven Aufgaben auf extra Prozzis abzuwälzen. Über kurz oder lang wird das zu einer Spezialisierung des Rechners führen, mit allen damit einhergehenden Nachteilen - dem Kostenfaktor zB.

Wenn man einen Physik-Prozz eben nur an Gamer loswird, hat der dann auch einen netten Preis. Da reicht es schon wenn man sich heutige GPUs anguckt, und die sind dabei noch deutlich vielfältiger einsetzbar.

Als nächstes kommt dann ein KI-Prozz, oder wie? Ich kann mir ad hoc zwar nicht vorstellen wie man sowas umsetzen will (weil viel zu dynamisch, bei physikalischen Effekten liegt immerhin noch die selbe Physik zugrunde) - aber irgendjemand wird sich wohl schon finden.


Bei GPUs zielt das dagegen in die richtige Richtung - man bastelt irgendwelche Effekte nicht einfach starr ein, sondern macht diese über Pixel- und Vertexshader (die immer mehr einer Programmiersprache gleichen) extrem flexibel. Noch 6 Jahre und man kann mit einer GPU wahrscheinlich fast alles machen was man auch mit einer CPU hinbekommt.
 
Ich fühle mich dabei nur immer an die Zeiten des K6-2+ und K6-3+ Releases zurück erinnert. Die theoretischen Ideen waren wunderbar und auch die Specs überzeugten, doch im realen Einsatz und in Wechselwirkung mit den SiS-Chipsätzen etc. kam es dann zum Einbruch... mal sehen was die Zukunft für diese (wieder) gutklingenden Eigenschaften bereit hällt. Ich möchte keinesfalls vorher ein Urteil abgeben, sondern nur ein gewisses Deja-Vu-Erlebnis beschreiben. Wir werden sehen!

Gruß Jan
 
Ki ist ein SUPER Beispiel /Ironie

Die Physik besteht eben aus sturren Gesetzen. Und daher bietet es sich an solche Dinge fest zu verdrahten und einen immensen Leistungssprung zu erzielen. Wenn diese Karte wirklich so Leistungsfähig ist, dann ist es vielleicht zu erwarten das sie noch in 4 Jahren der CPU so viel Arbeit abnimmt, dass sie sich lohnt zu kaufen. So müsste man nicht wie bei den Grafikkarten die Preise am Anfang ganz hochalten und sie dann gleich wieder absacken lassen, innerhalb von wenigen Monaten.

Ich fände es gut, wenn Solche Chips ohne großen mehrkosten auf vorhandene Hardware intgegriert werden könnte. Außerdem sollte dieser Chip mit der Zeit Stromsparender und kleiner werden, so dass er vielleicht in ein paar Jahren mit minimalen Aufpreis auf jeder Grafikkarte verbaut ist, jedenfalls auf den Gamerkarten =)

Wenn die Karte unter 100€ kosten würde und ich dafür super eine Physik bekommen würde, wie ich sie noch nie gesehen haben, und dabei noch meiner CPU Rechenarbeit abgenommen würde, dann würde solch eine Karte zu 100% in meinem PC schlummern.
 
Exakt :)

Es gab doch vor ca. 6 Monaten z.B. auch ein paar Meldungen ueber den Raytracing-Chip, welcher durch seine Spezialisierung eine Performance weit jenseits jeder GPU oder CPU schaffte.

Das Ziel solcher Entwicklungen sollte auf kurz oder lang jedenfalls sein, die Funktionalitaet durch hoehere Integration z.B. als eigenstaendige ALU in die GPU zu verfrachten.

Entweder es ist dann ein ungenutztes Transistoren-Paket, weil es keiner unterstuetzt...
...oder es erlaubt dann derartig attraktive Effekte+Performance, dass es alle relevanten GPU-Hersteller lizensieren (oder abkupfern *g*) und als Standard aufnehmen.

IMHO lebt der GrafikKarten-Markt schon sehr lange von Erhoehung der RAM-Bandbreiten und dem GPU-Takt samt immer mehr Pipelines & Co; da wuerde eine echte Innovation (und sei es erstmal eine noch so kranke Idee) mal wieder eine willkommene Prise Frischluft reinbringen.
 
Anfangs kann man diese Karte nicht voraussetzen, also wird sich die Physik entweder auf Dinge beschränken müssen, die austauschbar sind (so können Tote entweder einfach zu Boden sinken oder sich noch mal aufbäumen; Häuser können entweder in einer undurchsichtigen Rauchwolke verschwinden oder physikecht einstürzen etc.). Auf jeden Fall wird man sehr viel zusätzlichen Programmieraufwand haben, der durch die hohe Qualität der Physik-Effekte ausgeglichen werden muss.

Viele Physik-Effekte haben doch eine Auswirkung auf's Gameplay, z.B. dass Häuser nicht zusammenfallen, wenn sie 0 Lebenspunkte haben, sondern wenn die Statik problematisch ist - das gibt einen großen Unterschied im Gameplay. Somit müsste, wollte man die Karte optional einsetzen, bei Multiplayer-Games (abgesehen vom hohen Programmieraufwand) entweder jeder eine Karte haben oder sie darf bei niemandem aktiviert sein. Das würde bei Gamern zu Ärger führen, denn die Spieler wollen immer das gleiche Spiel spielen - und nicht zwei unterschiedliche, wo sie jedes Mal überlegen müssen, ob der Gegner jetzt ne Karte drin hat oder nicht, und sich entsprechend umgewöhnen müssen.

Also legt man eine abgespeckte OEM-Version bei, die z.B. nur die für das Gameplay nötigen 200 Objekte statt der 5000 für Gameplay+Gimmicks nötigen Objekte verwalten kann. Wenn der Spieler dann die Gimmicks sehen will, muss er die richtige Version erwerben... und glaub mir, wenn man Giga Games eine richtige Version zum Test zur Verfügung stellt, rennen die Gamer in D die MM-Ladentür ein.
 
Original geschrieben von Antarctica
Anfangs kann man diese Karte nicht voraussetzen, also wird sich die Physik entweder auf Dinge beschränken müssen, die austauschbar sind (so können Tote entweder einfach zu Boden sinken oder sich noch mal aufbäumen; Häuser können entweder in einer undurchsichtigen Rauchwolke verschwinden oder physikecht einstürzen etc.). Auf jeden Fall wird man sehr viel zusätzlichen Programmieraufwand haben, der durch die hohe Qualität der Physik-Effekte ausgeglichen werden muss.
nun, bei Giga gabs vor kurzem eine Vorstellung eines neuen Kriegsspiels vom Atari CEO.

Bin kein Experte für solche Spiele und habs nur kurz mit verfolgt. Aber es wurde gezeicht, daß eben in einigen Häusern nur einzelne Stockwerke brannten und auch nur die physikalisch korrekten Fassaden Flammen oder Ruß hatten. Auch erscheint mir die Berechnung von realistischem 'Feuer' insgesamt stark CPU-lastig zu sein.

Solche Aufgaben gibt es also bereits in (kommenden) Spielen und die Übertragung von x86-Code auf einen Physik Co-Prozessor dürfte nicht allzu kompliziert sein.

Auch dürfte Microsoft bei geeigneter Hardware die DirectX Spezifikation wieder erweitern, sodaß sich auch da der Programmieraufwand in Grenzen hält.
 
Nicht vergessen. 3D Karten wurden Anfangs auch zumeist als sinnlos dargestellt.

Softwareunterstützung:
Wenn bereits seit einigen Monaten diverse Entwickler an Produkten arbeiten, müsste es theoretisch nicht 3 Jahre dauern.

Multiplayer-Gaming:
Es könnte durchaus Server/Spiele geben, bei denen solch eine Karte Vorraussetzung ist.
Und die Leute die eine haben, können dort dann joinen.

Einsatzgebiete:
Ich habe keine Ahnung wie das realisiert wird. Vielleicht wird es Anfangs auch gar keine so komplexen Berechnungen geben. Aber hier mal ein paar Ideen, wie man Physik in Spielen noch einsetzen kann, außer mit Rag-Dolls, Explosionen, Zertrümmerungen und den Standard-Gravitationskräften:


Der Spieler wählt in einem Strategie-Spiel ein Fahrzeug mit 2 Achsen an, und schickt dieses irgendwo hin.
Aktuell:
Das Fahrzeug beginnt sofort nach Mausklick mit einer festgesetzten Geschindigkeit sich in Richtung Ziel zu bewegen, die Räder sind nur eine Animation und haben selbst auch keine Kollisionsabfrage.
Physixer:
Auf einer oder beiden Achsen liegt eine Kraft an, welche die Achse drehen lässt.
Während das Fahrzeug Richtung Zielpunkt beschleunigt, wären folgenden Punkte zu beachten:
Sowohl Boden, als auch Reifen müssen eine Kollisionsabfrage besitzen.
Zwischen Reifen und Untergrund sollte eine Reibung bestehen.
So ließe sich zB vereister Untergrund besser simulieren.
Und es sollte noch eine Gravitationskraft geben, die dann auch u.A. an steilen Hängen für Gegenkraft sorgt.
Außerdem müssten irgendwelche Vorkehrungen dagegen getroffen werden, dass ein Fahrzeug einfach im Gelände hängenbleibt. (zB u.A. durch Aufhängung der Achse, oder einem gewissen Spielkreis was die Kollisionsabfrage angeht) (oder man will im Spiel ein gewisses Element des Hängenbleibens einbauen)
Und dann könnte man für´s erste auch noch eine Lenkung einbauen.
In diesem Zusammenhang würde mich interessieren, ob es schon Rennspiele gibt, die so ähnlich funktionieren.

Und noch ein so schönes, jedoch ungleich krankeres Beispiel ;D

Aktuell sind es meines Wissens auch noch Animationen, wenngleich schon ziemlich ausgeklügelte, wenn es um die Bewegung eines Charakters geht.
Nun stelle man sich vor, dahinter stecke eine K.I., die diverse Kräfte (Gelenke, Muskeln, Sehnen,usw) zur Verfügung hat, um das Gleichgewicht des Charakters zu halten, und diverse Bewegungen auszuführen.
Spannend wird es dann, wenn es sich um 2 eigene KIs die miteinander argieren handelt. (zB Reiter und Pferd) ;D



Und noch ein letztes:

Als ich vor kurzem Siedler 5 spielte, fielen mir diese, zugegeben etwas großen Schneeflocken auf.
Würde man nun (in einem realistischen Bereich beweglichen) Zufalls-Wind einbauen, könnte es richtig schöne Verwehungen und Schneewirbel geben.
Aber das ist nicht alles. Wind könnte sich auch auf Kleidung, Bäume, Gräser, Fahnen oder die Haltung eines mit Schnee vollgeblasenen Reiters, der mit seinem Pferd gegen den Wind ankämpft auswirken. *buck*
Und selbst Windkraftwerke bekommen so eine völlig neue Bedeutung.

So, genug von mir für`s erste.
 
Zuletzt bearbeitet:
Es stellt sich aber ganz einfach die Frage wie weit sowas einsetzbar bleibt. Für diverse Simulatoren etc. hat man auch einfach 4 V5-6000 zusammengestöpselt, trotzdem hat es sich nicht durchgesetzt.

Graphik ist eine Sache die man beim Rechner überall hat - ob in 2D Form auf dem Desktop oder eben in 3D bei irgendwelchen Spiele, Simulationen (CAD, Physiksimulationen etc.), und vielleicht bei irgendwelchen zukünftigen Desktops in 3D.

Darüber hinaus kann man die Pixel und Vertexshader für alles mögliche gebrauchen, was ja so langsam auch immer mehr in Mode kommt.


So ein Physik Chip wäre vollständig auf ganz einfache Physik beschränkt, die übrigens auch nicht immer so vollkommen starr ist. Wenn man nicht aufpasst würde das zu ziemlich eintönigen Spielen führen, wenn sich dann Carmageddon anfühlt wie Nascar Racing, und UT2k4 auch nicht weicher ist als UT, bzw. UT genauso weich wie UT2k4 ist.

Besser ist es da, wenn man sich irgendwas allgemein einsetzbares ausdenkt was eben zufälligerweise besonders gut für Physik Sachen geeignet ist, und das in die GPUs oder CPUs integriert. Das kann man auch für andere Sachen einsetzen, wenn man will.



Was sich einige unter diesem Physik Chip vorstellen ist allerdings schon viel zu detailliert, bei Strategiespielen wird sowas wohl kaum zum Einsatz kommen, um die Achslasten etc. zu berechnen. Darum macht sich auf gut deutsch niemand einen Kopf.
 
Zurück
Oben Unten