ATI GPUs zur Physikberechnung?

AMD-Hammer

Grand Admiral Special
Mitglied seit
05.10.2003
Beiträge
2.760
Renomée
123
Standort
Bornheim (Rheinland)
Wie ATI bekannt gegeben haben soll, sind einige Grafikprozessoren des kanadischen Grafikkartenherstellers dazu in der Lage, die zur Zeit heiß diskutierten Physikberechnungen für grafische Anwendungen durchzuführen.

Somit stellt sich ATI nun unter anderem AGEIA entgegen, denn dort hat man schon vor einiger Zeit bekannt gegeben (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143133448" target="B">wir berichteten</a>), dass man mit Alienware, Dell und Falcon Northwest drei namenhafte Launch-Partner gewinnen konnte, die die hauseigenen PhysX-Karten in Ihren Computersysteme verbauen wollen. Zudem ist bekannt, dass schon im Mai die ersten reinen PhysX-Karten von AGEIA im freien Handel zu haben sein werden.

ATI hat derweilen bekannt gegeben, dass einige Grafikprozessoren, der aktuellen X1000-Serie, dazu fähig sind, die aufwendigen Physikberechnungen durchzuführen. Genau betroffen sind dabei der R520(X1800)- und R580(X1900)-Chip, bei denen man jeweils nur die Sonderfunktion zur Physikberechnung im Treiber aktivieren muss. Einzige Bedingung um die Physikberechnungen effektiv nutzen zu können ist die Tatsache, dass man ein Crossfire-System besitzt, welches jedoch nicht zwingend auf zwei identische Karten aufbauen muss. Bei dieser Anwendung und der Aktivierung der Physikberechnungsoption wird die erste GPU weiterhin zur Berechnung und Darstellung der Grafik und die zweite GPU zur Physikberechnung genutzt.

Wie ATI weiterhin bekannt gegeben haben soll, will man eine freie Programmierschnittstelle integrieren, mit der es Entwicklern von grafischen Anwendungen auf OpenGL- und DirectX-Basis leichter fallen soll die Physikberechnungsfunktion von ATI zu nutzen.

ATI selber sieht in der eigenen Lösung einige Vorteile gegenüber der Lösung von AGEIA, da zum Beispiel das Crossfire-System problemlos um eine einzelne bessere X1900- oder X1800-Karte aufgerüstet werden kann und somit der Benutzer länger etwas von seine Investition hat. Durch eine solche Aufrüstung könnte der Benutzer dann die "schwächere" Grafikkarte zur Physik- und die stärkere für die Grafikberechnung nutzen. Desweiteren ist man bei ATI der Meinung, dass die eigene Lösung wesentlich schneller und besser arbeite als die der Konkurrenz.


<b>Links zum Thema:</b><ul><li><a hreF="http://www.pcper.com/article.php?aid=226"target="B">ATI Physics Acceleration Gets a Voice</a></li><li><a href="http://www.dailytech.com/article.aspx?newsid=1414" target="B">ATI Says It Can Do Physics Better Than AGEIA and NVIDIA</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143133448" target="B">Planet 3DNow! - AGEIAs PhysX steht in den Startlöchern</a></li></ul>
 
Wurde ja schon in den Kommentaren zu den vorrangegangenen News zu dem Thema diskutiert. Und ATI geht jetzt hier genau den FALSCHEN Weg. Die Grafikkarte wird komplett "Missbraucht" zur Physikberechnung, sehr ökonomisch, wirklich. Und wieso nur die X1000-Karten? War nicht von allen Directx9-Karten die Rede? Wär doch lustig, wenn ich das auch auf meinen xpress200m-Notebook nutzen könnte für 3DMax zum Beispiel. Dazu müsste man das aber auch mit einer Karte machen können, worin ich theoretisch kein Problem sehe.

Aber man kennts ja von ATI nicht anders, seit der Geschichte mit den neuen Videofunktionen, die nur für X1000-Karten implementiert wurden, bin ich pappensatt, was ATI betrifft. Programmierbare Shadereinheiten (DirectX9 *wink*) sollten hier doch noch ordentlich Spiel nach oben bieten. Nix ist, die "alten" Karten werden alle links liegen gelassen. Treiberpflege geht gegen Null.

Mein nächstes System wird wieder von einem NVIDIA-Chip befeuert!
 
Einzige Bedingung um die Physikberechnungen effektiv nutzen zu können ist die Tatsache, dass man ein Crossfire-System besitzt, welches jedoch nicht zwingend auf zwei identische Karten aufbauen muss. Bei dieser Anwendung und der Aktivierung der Physikberechnungsoption wird die erste GPU weiterhin zur Berechnung und Darstellung der Grafik und die zweite GPU zur Physikberechnung genutzt.
Oder man nutzt die Grafikleistung der leistungsstärken Karte soweit aus, wie die leistungsschwächere Karte mitziehen kann und verwendet die überschüssige Rechenleistung für Physikberechnungen.

Quelle: http://www.hartware.de/news_39659.html
 
Ich find das Schwachsinn!

Weshalb muß ATi nun sein eigenes Süppchen kochen? Wie groß ist der Prozentsatz aller User, die ein ATi-Crossfire System ihr Eigen nennen? Minimal.
Wie groß ist der Anteil der User, die eine PCI oder PCI-E Schnittstelle nutzen? Recht groß, also ideal für AGEIA.

Ich seh's schon kommen; HavokFX, ATi und AGEIA werden untereinander inkompatibel sein und Spiel X harmoniert mit Beschleunigung Z.

SUUUUUPER. :]
 
Man könnte vermuten das beim Einsatz dieser Technik, bei einer einzelnen ATI dann mit mal eine menge an Framerraten verlieren dürfte. Bisher ist die X1800XT mit Qualitätsfeatures AA/AF schneller als vgl. NV-Produkte, was sich dann mit dieser Funktion sicher zum Nachteil wird.

Man hätte aber wie ehemals bei NV eine Dual-Core Karte seitens ATI rausbringen können, wo der eine Chip dies und der andere Chip das macht. Das wäre sinnvoll. Ähnlich wie bei einem Prozessor, der Co-Prozessor für mathematische Berechnungen gedacht ist, und der andere Teil für was anderes Zuständig ist.

Aber man kann vermuten das sich Ageia ehr durchsetzen könnte, mobiler halt. Und man braucht kein Crossfire um dies zu nutzen.

Und es wird sich wohl die Lösung besser verkaufen die Universel einsetzbar ist, und die auf 2 Grafikkarten limitiert bleibt. Nicht jeder nutzt SLI o. Crossfire.
 
Die KArte von Ageia kann ich falls ich aufrüste auf eine andere NonAti Karte weiterhin benutzen. Wenn ich Aticrossfire hole muss ich bei Ati bleiben. Finde ich nicht gut die Firmenpolitik. Die geht nach hinten los.

Morpheus
 
Na ja, in meinen Augen erscheint das irgendwie gar nicht so schlecht.
Man kann sich ja eine "richtige" GraKa (X1800) holen und mit der seine Grafiken berechnen.
Zusätzlich holt man sich noch eine kleine Karte (wenn diese dieses Feature denn unterstützen würde) z.B. eine X1300 und die läßt man dann irgendwelchen Physik Kram vor sich hin berechnen. Die kleine GraKa käme auf jeden Fall billiger als diese anderen Karten die ca. 200 - 300€ kosten sollen.

Aber gut, ich gebe zu irgendwie habe ich nicht so wirklich die Ahnung...

mfg der BarBart
 
Ich find das Schwachsinn!

Weshalb muß ATi nun sein eigenes Süppchen kochen? Wie groß ist der Prozentsatz aller User, die ein ATi-Crossfire System ihr Eigen nennen? Minimal.
Wie groß ist der Anteil der User, die eine PCI oder PCI-E Schnittstelle nutzen? Recht groß, also ideal für AGEIA.

Ich seh's schon kommen; HavokFX, ATi und AGEIA werden untereinander inkompatibel sein und Spiel X harmoniert mit Beschleunigung Z.

SUUUUUPER. :]

seh ich auch so, jeder will ein stück vom kuchen. statt sich auf einen gemeinsamen standard zu einigen, versuchen die diversen protagonisten gegenseitig sich den markt kaputt zu machen. denn es ist kaum anzunehmen, dass entwickler ihre produkte auf drei verschiedene systeme anpassen, die zueinander inkompatibel sind.

aufgrund des zeitlichen vorsprungs und der bereits großen zahl an entwicklern, die ihre unterstützung zugesagt haben, dürfte ageia evtl. momentan im vorteil sein, zumal man dort kein ansonsten unnützes sli/crossfire-board benötigt.
 
Auch für mich ist Ageia der heimliche Favourit. Es sind sogar schon Treiber für diese Chips erhältlich ^^

Aber primär geht es mir darum, das ich diese Steckkarte dann wohl in jedem PCI-E System verwenden kann; NVIDIA, Ati, Uli, SiS und wie sie alle heißen.
Wenigsten HABE ich dann endlich mal was für PCI-E, der bei mir so vor sich hin gammelt...
 
Also theoretisch soll es wohl möglich sein, mit dem Ageia-Chip auch die Physikengines der anderen Anbieter zu beschleunigen, und wenn sie nicht ganz blöd sind, werden sie versuchen, das lizenztechnisch zu ermöglichen.
Und daß Ati das jetzt auf die X1000-Reihe beschränkt, liegt wohl daran, daß sie wohl auf die gleiche Schiene wie Nvidia kommen wollen, nämlich als gemeinsamen Nenner Shadermodel 3.0 voraussetzen.

D.h. es ist nicht ganz unwahrscheinlich, daß ein Spiel mit nur einer Physikengine auf Ati, Nvidia und Ageia-Chips gleichermaßen beschleunigt wird (mit unterschiedlicher Leistung natürlich, ich meine funktionell gleich).

Aber sich zum jetzigen Zeitpunkt entweder eine PhysX-Karte oder ein Crossfire- bzw. SLI-System aus Physikbeschleunigungsgründen zu kaufen, ist verfrüht und unvernünftig; selbst wenn man das Geld dafür über hätte, sollte man es nicht tun. Allein schon, weil nicht mal annähernd der Nutzen absehbar ist, denn rein theoretische Betrachtungen nützen nichts, man muß schon reale (unabhängige!) Benchmarks abwarten.
 
@OBrian

Da muß ich nicht lange überlegen: ATi und NVIDIA wollen ihre Shader zur Berechnung physikalischer Effekte mißbrauchen.
Das heißt: Irgendwas bleibt leistungstechnisch auf der Strecke.
Eine seperate AGEIA-Steckkarte hat diese Hindernis nicht, deshalb für mich schon jetzt VOR allen Tests der klare Sieger.
 
hi!

ich frage mich, warum ati dafür ein crossfire-system verlangt, außer um damit ordentlich geld zu verdienen. die zweite grafikkarte soll doch mein 3-spiel noch schneller machen...
wenn die jetzt physik-aufgaben löst, hab ich einbußen bei der framerate...
eine grafikkarte der neuen generation ist ja nicht gerade günstig. die physikkarten sollen ja anscheinend auch um 300E liegen, werden aber bestimmt mehr optimiert sein.

aber was ist mit den ganzen nutzern von dualcore-cpus? da liegt doch meist ein ganzer kern mit 2ghz und mehr brach!!! warum soll der nicht physikaufgaben lösen? arbeitsspeicher ist auch nicht so teuer. wenn bei win xp ca. 1 gb fürs spiel genutzt wird, könnte die andere cpu ja auch noch 1 gb ram bekommen. billiger und vielseitiger als eine physikkarte.

bevor man eine physikkarte einsetzt oder eine crossfirekarte mißbraucht, könnte man auch über den kauf einer zweiten dualcore-cpu mit doppel-sockel-mainboard nachdenken, dann hätte man drei weitere kerne !!! zur verfügung. warum muß für jeden mist immer eine spezial-cpu ran??? unflexibler gehts nicht!
wenn ati und nvidia den physikkarten schon dazwischenfunken wollen, sollten sie vielleicht eine physikeinheit auf ihren karten integrieren...

ich warte ja auch schon ganz dringend auf eine zusatzkarte, die die windows-vista-grafikoberfläche endlich flüssig darstellt...;D

was meint ihr?
gruß Marcel (hab weder ne dualcore-cpu noch crossfire noch shader 3.08) )
 
ich frage mich, warum ati dafür ein crossfire-system verlangt, außer um damit ordentlich geld zu verdienen. die zweite grafikkarte soll doch mein 3-spiel noch schneller machen...
wenn die jetzt physik-aufgaben löst, hab ich einbußen bei der framerate...
nun, ati und nvidia empfehlen vor allem deshalb des sli bzw. crossfire betrieb, damit eben die zweite grafikkarte sich ausschließlich um die berechnung physikalischer effekte kümmern kann. letztlich ist die zweite grafikkarte dann auch nur ein zusatzkarte wie ageias physx.

dazu kommt, dass zumindest nvidia als minimum für eine angemessere performance eine 7600gt empfiehlt, besser noch was potenteres.
 
warum heult ihr so rum?
wer zwingt euch denn, das zu machen? das is einfach ein zusätzliches feature, das man nutzen kann, aber nicht muss...
ihr könnt euch nachwievor eine olle ageia-karte reinbauen für nur 250&#8364;
also warum regt ihr euch auf?
ausserdem könnte theoretisch auch eine GÜNSTIGE x1600 karte reichen, also was is daran schlecht? *noahnung*


mfg
 
warum heult ihr so rum?
wer zwingt euch denn, das zu machen? das is einfach ein zusätzliches feature, das man nutzen kann, aber nicht muss...
ihr könnt euch nachwievor eine olle ageia-karte reinbauen für nur 250€
also warum regt ihr euch auf?
ausserdem könnte theoretisch auch eine GÜNSTIGE x1600 karte reichen, also was is daran schlecht? *noahnung*


mfg

Was das Problem ist? Das hierbei verschiedene Standards geschaffen werden und die Spiele- bzw. Softwarehersteller wohl querfeldein die Unterstüzung programmieren werden.
Der Traum von der unglaublichen Kompatibilität innerhalb der verschiedenen Hersteller dürfte ein Traum bleiben.
Und was zum Geier soll ich mit Deinem Vorschlag einer x1600 Karte anfangen? Ich habe ein reines NVIDIA-Sys und kein Crossfire.
Genau DAS ist der Punkt, den ich und auch einige Andere kritisieren.

Mir werden das langsam zuviele Standards!
 
Quelle? Das Testsample hat jedenfalls beide Anbindungen ;-)
Die Referenz-/Evaluationsplatine von Ageia hat zwar beide Steckerleisten, aber die Karten, die von Asus und BFG vorgestellt wurden, weisen bei nur einen PCI Slot auf.
..., also was is daran schlecht? *noahnung*
Schlecht an der Nutzung der Pixel Shader für die Berechnung von Physikeffekten ist, dass diese einfach nicht dafür konzipiert sind. Sinnvoller wäre es eine spezielle Physikbeschleunigungseinheit in die Grafikprozessoren aufzunehmen. Diese könnte man bestens mit den Vertex Shadern kombinieren. Ansonsten bleibt die Beschleunigung von Physikeffekten nur ein weiterer Haken auf der Featureliste, welche sich meist auf der Rückseite der Grafikkartenverpackung findet. Einen praktischen Nutzen hätte diese nicht mehr, da durch die Berechnung von Physikeffekten Rechenleistung für die Grafikdarstellung verloren geht und ein Grafikprozessor zudem bei weitem nicht die Geschwindigkeit eines angepassten Prozessores, wie dem PhysX erreichen kann. Dasselbe gilt auch für Hauptprozessoren. Diese sind universell ausgelegt und erreichem bei der Berechnung von Physikeffekten nur einen Bruchteil der Geschwindigkeit einer separaten Beschleunigerkarte.
 
Zuletzt bearbeitet:
Was das Problem ist? Das hierbei verschiedene Standards geschaffen werden und die Spiele- bzw. Softwarehersteller wohl querfeldein die Unterstüzung programmieren werden.
Der Traum von der unglaublichen Kompatibilität innerhalb der verschiedenen Hersteller dürfte ein Traum bleiben.
Und was zum Geier soll ich mit Deinem Vorschlag einer x1600 Karte anfangen? Ich habe ein reines NVIDIA-Sys und kein Crossfire.
Genau DAS ist der Punkt, den ich und auch einige Andere kritisieren.

Mir werden das langsam zuviele Standards!

es ist ja eher so, dass eben KEINE standards geschaffen werden. jeder bastelt sich seine eigene proprietäre lösung und microsoft bzw. die spiele-entwickler dürfen dann anschließend schauen, wie sie die verschiedenen methoden unter einen hut bekommen.
 
nix neues in der pc-technik...
nv fängt an ein eigenes süppchen zu kochen und ati machts eben nach...
nv macht doch genau das gleiche oder?
das war schon immer das problem in der pc-technik...dann kaufe apple, aber auch da geht die tendenz zum schrott...
mir wären auch einheitliche standards lieber, aber das bekommen konkurrenten heutzutage nicht mehr hin, ausser sie müssen...
amd und intel machen auch jeder ihr ding...das is rotzig, aber kannste nicht aufhalten...
dennoch is die ati-lösung sinnvoller, als die von nv und beide sinnloser als die von ageia...
nur wer aufs geld achten will, sollte ati nehmen...
das beste wäre einheitlich ageia, aber die karte is mir zu teuer und fertig...
bei nv muss ich 2 gleiche karten haben...auch bullshit, wenn man 2 gtx hat
also ati...mal sehen, wann crossfire auf sli-boards geht :))

mfg
 
Die Referenz-/Evaluationsplatine von Ageia hat zwar beide Steckerleisten, aber die Karten, die von Asus und BFG vorgestellt wurden, weisen bei nur einen PCI Slot auf.
Schlecht an der Nutzung der Pixel Shader für die Berechnung von Physikeffekten ist, dass diese einfach nicht dafür konzipiert sind. Sinnvoller wäre es eine spezielle Physikbeschleunigungseinheit in die Grafikprozessoren aufzunehmen. Diese könnte man bestens mit den Vertex Shadern kombinieren. Ansonsten bleibt die Beschleunigung von Physikeffekten nur ein weiterer Haken auf der Featureliste, welche sich meist auf der Rückseite der Grafikkartenverpackung findet. Einen praktischen Nutzen hätte diese nicht mehr, da durch die Berechnung von Physikeffekten Rechenleistung für die Grafikdarstellung verloren geht und ein Grafikprozessor zudem bei weitem nicht die Geschwindigkeit eines angepassten Prozessores, wie dem PhysX erreichen kann. Dasselbe gilt auch für Hauptprozessoren. Diese sind universell ausgelegt und erreichem bei der Berechnung von Physikeffekten nur einen Bruchteil der Geschwindigkeit einer separaten Beschleunigerkarte.


was den ageia angeht, stimme ich dir zu...meiner meinung nach die beste lösung, aber NICHT zu dem preis...fertig aus...
und genau daran wird ageia scheitern...unter garantie

mfg
 
Die Referenz-/Evaluationsplatine von Ageia hat zwar beide Steckerleisten, aber die Karten, die von Asus und BFG vorgestellt wurden, weisen bei nur einen PCI Slot auf.

Naja nu', ich denke mal von Denen wird ebenfalls eine PCI-E Lösung kommen. Im aktuellen Ageia-Treiber (www.guru3d.com) ist in der Athena.inf erkennbar, das sowohl PCI-, als auch explizit PCI-E unterstützt werden.
 
was den ageia angeht, stimme ich dir zu...meiner meinung nach die beste lösung, aber NICHT zu dem preis...fertig aus...
und genau daran wird ageia scheitern...unter garantie
Alienware und Dell haben ja schon Interesse bekundet. Wenn man bedenkt, dass diese in XPS Systemen von Dell und S-4 und Aurora Systeme von Alienware, die teilweise zu horrenden Preisen über den Ladentisch gehen, verbaut sein sollen, sehe ich da kein Problem. Ob der Spielerechner nun 2800 oder 3000 Euro kostet interessiert die meisten betuchten Kunden wohl weniger. Bis aber Durchschnittsysteme in den genuß einer Beschleunigerkarte kommen, kann es länger dauer. Es ist wie bei den Automobilen. ABS und Airbags gab es zuerst nur in der Mercedes S-Klasse, bis sie sich in breiter Front durchgesetzt haben.
 
Was ich mich frage: Wie aufwendig sind solche Physik-Berechnungen? Wieviel Leistung gewinne ich durch eine zusätzliche PPU?

Der R520/580 hat gegenüber der nVidia Konkurrenz deutlich mehr Transistoren, wer weiß, was da schon alles drinsteckt ;) Vielleicht können die ATI-Karten die Physikberechnungen wirklich ohne große Leistungsverluste ausführen...

Ideal wäre es natürlich, wenn die verschiedenen PPUs verschiedener Hersteller zueinander kompatibel sind... mir wäre es jedenfalls lieber, wenn Grafikkarten die Sache erledigen. Eine weitere Zusatzkarte halte ich für Geldmacherei.
 
Zuletzt bearbeitet:
Zurück
Oben Unten