Die nächste Generation der GeForce-Reihe kommt mit Physikbeschleunigung

Maxefix

Grand Admiral Special
Mitglied seit
20.01.2003
Beiträge
6.223
Renomée
176
  • SIMAP Race
  • QMC Race
Als ASUS vor einigen Tagen ihr neues Mainboard "P5N32-SLI Premium" vorstellten, haben sie für einige Verwirrung gesorgt. Den dieses Board hat nicht nur ein oder zwei PCIe x16-Slots sondern ganze drei. Angeblich sollte der dritte Slot für Nvidias zukünftige Physikkarte genutzt werden.

Doch dies war offenbar ein Missverständniss. Im Interview mit <a href="http://www.golem.de/">Golem.de</a> ließ der Nvidia-Vizepräsident und Kommunikations-Chef Michael Hara verlauten, dass es keine eigene Physikkarte von Nvidia geben wird. Desweiteren sollen die nächsten Grafikchips sehr gut für Physik-Berechnungen geeignet sein. Dabei spielte er auf die unter dem Codenamen "G80" bekannte achte Generation der GeForce-Reihe an.

Weiter erklärte er, dass Nvidia daran denke, die "Unified Shaders" der "G80" auch für Physik zu nutzen. Durch Zusammenlegung von Pixel- und Vertex-Shaders sei genug Rechenleistung vorhanden, um die physikalischen Eigenschaften eines Objektes gleich im Grafikprozessor zu berechnen. Laut Hara sollen selbst Vierkern-Prozessoren in der Gleitkomma-Leistung den Grafikchips unterlegen sein.

Unbestätigten Angaben nach soll die nächste GeForce-Generation noch 2006 vorgestellt werden.

<b>Quelle:</b> <a href="http://www.golem.de/0609/47972.html" target="b">Golem.de</a>
 
Für was wird der dritte Slot dann genutzt, wenn es keine Physikbeschleunigungskarte geben wird? *noahnung*

Ich bin ja mal gespannt, wie leistungsstark die Karten sein werden und wie die Effekte dann rüber kommen 8) Allerdings auch, wie viel Leistung diese extra Physikberechnung verbrauchen wird.
 
Für die dritte GeForce 8950 GTX³ natürlich! Als Hersteller kann man gar nicht genug Karten verkaufen, und da die "Ich weiß eh nicht wohin mit dem Geld"-Käuferschicht nun mal nicht wesentlich erweiterbar ist, dreht man ihnen einfach mehrere Karten an. Was mit zweien geht, geht auch mit drei.
 
Es gibt ja vll auch noch andere Herrsteller von Physikkarten die den Slot eventl. nutzen könnten. Oder halt andere Dinge wie Raid-Controller o.ä. Wobei die wohl nicht soviel Bandbreite brauchen.

MFG Max
 
Für die dritte GeForce 8950 GTX³ natürlich! Als Hersteller kann man gar nicht genug Karten verkaufen, und da die "Ich weiß eh nicht wohin mit dem Geld"-Käuferschicht nun mal nicht wesentlich erweiterbar ist, dreht man ihnen einfach mehrere Karten an. Was mit zweien geht, geht auch mit drei.
Sorry, ich bin nicht auf dem neuesten Stand, aber gibts sowas schon? Also sowas wie SLI nur mit 3 karten?
 
Weiter erklärte er, dass Nvidia daran denke, die "Unified Shaders" der "G80" auch für Physik zu nutzen. Durch Zusammenlegung von Pixel- und Vertex-Shaders sei genug Rechenleistung vorhanden, um die physikalischen Eigenschaften eines Objektes gleich im Grafikprozessor zu berechnen. Laut Hara sollen selbst Vierkern-Prozessoren in der Gleitkomma-Leistung den Grafikchips unterlegen sein.
Moment mal. Ich dachte der G80 kriegt gar keine Unified Shader. Die sollte doch erst der Nachfolger bekommen... Oder hat nVidia jetzt doch Muffensausen gekriegt und alles wieder über den Haufen geworfen?
 
Zuletzt bearbeitet:
Also im prinzip das, was ATI schon seit monaten propagiert. Und da man anscheinend bei nvidia doch plötzlich den bedarf für USA sieht (vielleicht auch gerade deshalb...), kann man auch gleich auf den physics-zug aufspringen.
 
Der Plan eine dritte Graka in Spielen ohne Physik für ein erweitertes SLI zu nutzen und in Spielen mit Physik für Physikberechnungen mag toll sein (wenn man denn so ein Enthusiastgamer ist und unbedingt 1800€ für Grafikkarten ausgeben will) - aber sobald sich Physikberechnungen via PPU erstmal durchsetzen ist das alles ein Griff ins Klo, denn dann wird die 3. Graka ständig für Physikberechnungen benutzt, hat aber sicher nicht die Leistung einer reinen PPU wie der Ageia-Karte - kostet jedoch das dreifache.
 
Der Plan eine dritte Graka in Spielen ohne Physik für ein erweitertes SLI zu nutzen und in Spielen mit Physik für Physikberechnungen mag toll sein (wenn man denn so ein Enthusiastgamer ist und unbedingt 1800&#8364; für Grafikkarten ausgeben will) - aber sobald sich Physikberechnungen via PPU erstmal durchsetzen ist das alles ein Griff ins Klo, denn dann wird die 3. Graka ständig für Physikberechnungen benutzt, hat aber sicher nicht die Leistung einer reinen PPU wie der Ageia-Karte - kostet jedoch das dreifache.


Ich bin ja der Meinung, dass die Entwicklung einer PPU-Karte ein Griff ins Klo ist/war, denn ich denke, dass diese sich nicht durchsetzen werden, dann schon eher Physikberechnungen direkt auf der Graka unabhängig von einer bestimmten Physik-Engine.
Naja, time will tell.
 
Ich bin ja der Meinung, dass die Entwicklung einer PPU-Karte ein Griff ins Klo ist/war, denn ich denke, dass diese sich nicht durchsetzen werden, dann schon eher Physikberechnungen direkt auf der Graka unabhängig von einer bestimmten Physik-Engine.
Naja, time will tell.

Sehe ich auch so, stattdessen ein weiterer Kern in der Cpu wär billiger und wohl auch besser.
Vor allem da Intel und Amd schon bald mit vier Kernen protzen wollen, wo zwei meist schon fast nix zu tun haben.
Und überteuert sind die Zusatzkarten auch noch.
 
Sollte die G80 nicht irgendwas um die 200W verbraten? 600W allein durch die Graphikkarten... wär natürlich auch mal lustig.
 
Nun, das Kilowattnetzteil wird man wohl schon für die 4x4-Plattform verbrauchen, die GF8 haben dann ja ein eigenes externes NT, die Dinger stapelt man dann dahinter. Insgesamt so 2 kW wird man wohl rechnen können. Plus natürlich die Klimaanlage für den Rechnerraum.

Aber wenigstens bekommt man dann Mengenrabatt und kommt in den gleichen Tarif wie eine Aluminiumhütte^^
 
Lol, und Lan Parties finden nur noch auf Island statt, weil man sich nur noch dort den Strom leisten kann .. *lol*
Au Backe. Da hatte ich noch gar nicht dran gedacht. Früher konnte man ohne Probleme 10 Rechner + Monitore an eine 16A Phase klemmen. Bald sinds dann wohl nur noch 2-3. Da kommt man echt in Schwierigkeiten, ne passende Location für über 100 Leute zu finden...
 
Ich glaub, wer so viel Geld für Grafikkarten und sonst was ausgibt, den stören auch die Stromkosten nicht ;)


Ach echt? Wieso sind dann in den USA nach ein paar popeligen Benzienpreiserhöhungen plötzlich die Verkaufszahlen der SUVs eingebrochen?
 
Ach echt? Wieso sind dann in den USA nach ein paar popeligen Benzienpreiserhöhungen plötzlich die Verkaufszahlen der SUVs eingebrochen?

Und wieso werden dann trotzdem immer noch grössere&stärkere SUVs angekündigt ??? *buck* *chatt*
Sry, das musste sein ;)

Ich halte diese Extra-Physikkarten auch für ziemlichen unfug.
Entweder werden die von besseren Grafikkarten ersetzt (ähnlich wie die 3Dfx Voodoo-Zusatzkarten), wobei ich mich frage was das noch mit "Grafik" zu tun hat :]

ODER MultiCore CPUs werden dafür genutzt.

Naja, ich sitz das erst mal aus, mit meiner X1800XT bin ich wohl noch ne ganze weile gerüstet, wenn ich nicht grade 1600x1200 mit Ultraquality Zocken will :P
 
ATi bringt doch Anfang 2007 nen Catalyst-Treiber raus, der ne normal X1k-Karte Physik-tauglich macht. Beta-Treiber gibts wohl schon, satte Leistungsgewinne inkl.

Quelle: PC Professionell 09/2006.

Da muss NV wohl handeln!
 
ATi bringt doch Anfang 2007 nen Catalyst-Treiber raus, der ne normal X1k-Karte Physik-tauglich macht. Beta-Treiber gibts wohl schon, satte Leistungsgewinne inkl.
Leistungsgewinne? Wo denn? Wenn ein Teil der Graka für Physik benutzt wird, kanns wohl kaum schneller werden. Ausser das Spiel is extrem Physiklastig hat keine wirkliche Grafik ;D
 
wird wohl eher crossfire systeme betreffen, nehm ich an...
 
Der Plan eine dritte Graka in Spielen ohne Physik für ein erweitertes SLI zu nutzen und in Spielen mit Physik für Physikberechnungen mag toll sein (wenn man denn so ein Enthusiastgamer ist und unbedingt 1800€ für Grafikkarten ausgeben will) - aber sobald sich Physikberechnungen via PPU erstmal durchsetzen ist das alles ein Griff ins Klo, denn dann wird die 3. Graka ständig für Physikberechnungen benutzt, hat aber sicher nicht die Leistung einer reinen PPU wie der Ageia-Karte - kostet jedoch das dreifache.
Nein, ganz im Gegenteil, die PPU hat nicht den Hauch einer Chance gegen aktuelle Grafikkarten...

Die Grafikchips kann man auch kaum noch als solche bezeichnen, das sind einfach recht mächtige Streaming Prozessoren mit ein paar Erweiterungen zur Grafikausgabe, die kann man auch für andere Dinge zweckendfremden.

Hier die Meinung eines Entwicklers

Kurzfassung:
PPU ist Blödsinn, kann, ohne Unterstützung der Grafik, kaum was bringen....
 
Zurück
Oben Unten