App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
PhysX-Unterstützung für NVIDIA GeForce 8
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Nach der Übernahme des PhysX-Entwicklers AGEIA durch NVIDIA (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202210317">wir berichteten</a>) gab es breite Spekulationen, wie NVIDIA weiter mit der Physik-Engine verfahren werde.
NVIDIAs CEO Jen-Hsun Huang hat in einem Konferenzgespräch bekannt gegeben, dass man mit Hochdruck daran arbeite, die PhysX-Engine auf CUDA zu portieren. CUDA ist NVIDIAs Programmierspache für die Nutzung von GPGPU auf hauseigenen Grafikkarten mit Unified Shadern, worunter alle der achten GeForce-Generation fallen.
<ul><i>"We're working toward the physics-engine-to-CUDA port as we speak. And we intend to throw a lot of resources at it. You know, I wouldn't be surprised if it helps our GPU sales even in advance of [the port's completion]. The reason is, [it's] just gonna be a software download. Every single GPU that is CUDA-enabled will be able to run the physics engine when it comes. . . . Every one of our GeForce 8-series GPUs runs CUDA." </i></ul>Im Gegensatz zur bisherigen Situation steht damit die Nutzung von aufwändigen Physikberechnungen nicht mehr ausschließlich Besitzern einer dedizierten PhysX-Beschleunigerkarte zur Verfügung. NVIDIA geht diesen Schritt natürlich nicht aus Nächstenliebe, sondern erhofft sich durch diese Unterstützung bessere Verkäufe der eigenen Grafikkarten:
<ul><i>"Our expectation is that this is gonna encourage people to buy even better GPUs. It might - and probably will - encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics."</i></ul>Für AMD wird damit die Situation im Bereich der Physikbeschleunigung immer brenzliger, da Intel erst vor einem halben Jahr Havok, einen Entwickler für herstellerunabhängige Physikbeschleunigung mit Grafikkarten, übernommen hatte (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">wir berichteten</a>).
<b>Quelle:</b> <a href="http://techreport.com/discussions.x/14147" target="_blank">GeForce 8 graphics processors to gain PhysX support</a>
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202210317">NVIDIA kauft PhysX-Hersteller AGEIA</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195749701">AMD hat kein konkretes Interesse an Ageia</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195675455">Physik-Beschleunigung mit Grafikkarten vor dem Aus?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/partner_preistrend/p3dclicks.pl?suchen.php?q=PhysX&s=0&a=&z=&x=0&y=0" target="_blank">AGEIA PhysX Preisvergleich</a></li></ul>
NVIDIAs CEO Jen-Hsun Huang hat in einem Konferenzgespräch bekannt gegeben, dass man mit Hochdruck daran arbeite, die PhysX-Engine auf CUDA zu portieren. CUDA ist NVIDIAs Programmierspache für die Nutzung von GPGPU auf hauseigenen Grafikkarten mit Unified Shadern, worunter alle der achten GeForce-Generation fallen.
<ul><i>"We're working toward the physics-engine-to-CUDA port as we speak. And we intend to throw a lot of resources at it. You know, I wouldn't be surprised if it helps our GPU sales even in advance of [the port's completion]. The reason is, [it's] just gonna be a software download. Every single GPU that is CUDA-enabled will be able to run the physics engine when it comes. . . . Every one of our GeForce 8-series GPUs runs CUDA." </i></ul>Im Gegensatz zur bisherigen Situation steht damit die Nutzung von aufwändigen Physikberechnungen nicht mehr ausschließlich Besitzern einer dedizierten PhysX-Beschleunigerkarte zur Verfügung. NVIDIA geht diesen Schritt natürlich nicht aus Nächstenliebe, sondern erhofft sich durch diese Unterstützung bessere Verkäufe der eigenen Grafikkarten:
<ul><i>"Our expectation is that this is gonna encourage people to buy even better GPUs. It might - and probably will - encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics."</i></ul>Für AMD wird damit die Situation im Bereich der Physikbeschleunigung immer brenzliger, da Intel erst vor einem halben Jahr Havok, einen Entwickler für herstellerunabhängige Physikbeschleunigung mit Grafikkarten, übernommen hatte (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">wir berichteten</a>).
<b>Quelle:</b> <a href="http://techreport.com/discussions.x/14147" target="_blank">GeForce 8 graphics processors to gain PhysX support</a>
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1202210317">NVIDIA kauft PhysX-Hersteller AGEIA</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195749701">AMD hat kein konkretes Interesse an Ageia</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195675455">Physik-Beschleunigung mit Grafikkarten vor dem Aus?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/partner_preistrend/p3dclicks.pl?suchen.php?q=PhysX&s=0&a=&z=&x=0&y=0" target="_blank">AGEIA PhysX Preisvergleich</a></li></ul>
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Hm...wenn sich AMD auf sowas einlässt (im Endeffekt bestimmt ja nur die Softwarebranche den Erfolg/Misserfolg der "echten" Physikbeschleunigung), dann müssen sie zusehen, dass sie eine eierlegende Wollmilchsau werden...
Pitt G.
Admiral Special
- Mitglied seit
- 17.07.2002
- Beiträge
- 1.630
- Renomée
- 11
- Prozessor
- FX-60
- Mainboard
- ASRock 939Dual-VSTA
- Kühlung
- Boxed
- Speicher
- 4*1GB Kingston DDR 400
- Grafikprozessor
- ASUS EN8600 GTS
- Display
- 19"Eizo S1901SH-BK 1280*1020
- HDD
- Intel X-25M 80GB
- Optisches Laufwerk
- LG GGW-H20L
- Soundkarte
- onboard CMedia CM6501
- Gehäuse
- Chieftec Dragon DX-01BD-U-OP
- Netzteil
- Enermax Liberty ELT620AWT
- Betriebssystem
- WinVista HomePremium 32 Bit
- Webbrowser
- IE
Also wenn das stimmt lehn ich mich mal ganz entspannt zurück. Da brauchts dann erst recht kein CPU Upgrade um Grakas auszulasten. Dachte eigentlich sowieso immer dass DX10 Physikbeschleunigung i Grakas in Hardware unterstützt.
Endlich hats NV mal verstanden alle brachliegenden Ressourcen im Rechner zu verwenden, wenns IGP Chipsätze auch unterstützen. Der IGP für Physics und die xtra Graka fürs Bild so hab ich mir das vorgestellt.
Endlich hats NV mal verstanden alle brachliegenden Ressourcen im Rechner zu verwenden, wenns IGP Chipsätze auch unterstützen. Der IGP für Physics und die xtra Graka fürs Bild so hab ich mir das vorgestellt.
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
Naja brenzlig würde ich das nicht nennen, wenn MS mit dem Physik SDK für DX11 oder DX10.5 rauskommt, interessiert das keinen mehr was Intel oder nVidia mal gekauft hat. Die Frage ist nur, ob MS das bald mal schafft. Das letzte Mal las ich was von 2009.Für AMD wird damit die Situation im Bereich der Physikbeschleunigung immer brenzliger, da Intel erst vor einem halben Jahr Havok, einen Entwickler für herstellerunabhängige Physikbeschleunigung mit Grafikkarten, übernommen hatte (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">wir berichteten</a>).
Je länger MS benötigt, desto mehr Nachteil von AMD. Ein Jahr sollte noch ok sein.
MS braucht Physik sicherlich, und wenn es nur für die nächste XBOX ist
ciao
Alex
Mogul
Grand Admiral Special
also wenn das ungefähr genausolange dauert - oder gar ganz gesponnen ist - wie der "Stromspartreiber" dann bleibt es wohl ein Marketingschachzug der sich 2010 bwahrheitet, aber nichts bringt das die aktuelle Genereation das zwar kann aber um 90% einbricht.
Pitt G.
Admiral Special
- Mitglied seit
- 17.07.2002
- Beiträge
- 1.630
- Renomée
- 11
- Prozessor
- FX-60
- Mainboard
- ASRock 939Dual-VSTA
- Kühlung
- Boxed
- Speicher
- 4*1GB Kingston DDR 400
- Grafikprozessor
- ASUS EN8600 GTS
- Display
- 19"Eizo S1901SH-BK 1280*1020
- HDD
- Intel X-25M 80GB
- Optisches Laufwerk
- LG GGW-H20L
- Soundkarte
- onboard CMedia CM6501
- Gehäuse
- Chieftec Dragon DX-01BD-U-OP
- Netzteil
- Enermax Liberty ELT620AWT
- Betriebssystem
- WinVista HomePremium 32 Bit
- Webbrowser
- IE
also wenn das ungefähr genausolange dauert - oder gar ganz gesponnen ist - wie der "Stromspartreiber" dann bleibt es wohl ein Marketingschachzug der sich 2010 bwahrheitet, aber nichts bringt das die aktuelle Genereation das zwar kann aber um 90% einbricht.
Mann stimmt da war doch irgendwas, wurde da nicht auch ein NForce 3 Treiber für Vista versprochen.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
"Our expectation is that this is gonna encourage people to buy even better GPUs. It might - and probably will - encourage people to buy a second GPU for their SLI slot. And for the highest-end gamer, it will encourage them to buy three GPUs. Potentially two for graphics and one for physics, or one for graphics and two for physics."
Ach so läuft der hase, die leute haben sich keine $99 PPUs gekauft aber jetzt werden sie sich ne zweite oder dritte karte kaufen die sicherlich nicht weniger kosten wird und sicherlich nicht schneller die physikberechnungen anstellt. Geschickt eingefädelt!
Wenn daraus überhaupt ein breiter erfolg werden kann, dann nur wen einzelne karten (egal wieviele kerne drauf sind) genug dampf haben um diese berechnungen nebenbei zu machen und dabei deutlich bessere resultate liefern als CPUs mit x kernen.
Übrigens gibts bei AnandTech einen kurzen artikel der ganz andere schlüsse zieht was AMD angeht. Nvidia weiss offenbar ganz genau, dass das ganze (für spiele) nichts wird wenn AMD nicht mitzieht und man deshalb die ganze sache durchaus mit der konkurrenz voranbringen will um sich gegen Intels HavokFX auf vermeintlichen many-cores abzusichern.
(zweite seite, vorletzter abschnitt)
The death of the PPU
Ach so läuft der hase, die leute haben sich keine $99 PPUs gekauft aber jetzt werden sie sich ne zweite oder dritte karte kaufen die sicherlich nicht weniger kosten wird und sicherlich nicht schneller die physikberechnungen anstellt. Geschickt eingefädelt!
Wenn daraus überhaupt ein breiter erfolg werden kann, dann nur wen einzelne karten (egal wieviele kerne drauf sind) genug dampf haben um diese berechnungen nebenbei zu machen und dabei deutlich bessere resultate liefern als CPUs mit x kernen.
Übrigens gibts bei AnandTech einen kurzen artikel der ganz andere schlüsse zieht was AMD angeht. Nvidia weiss offenbar ganz genau, dass das ganze (für spiele) nichts wird wenn AMD nicht mitzieht und man deshalb die ganze sache durchaus mit der konkurrenz voranbringen will um sich gegen Intels HavokFX auf vermeintlichen many-cores abzusichern.
(zweite seite, vorletzter abschnitt)
The death of the PPU
G
gast0815
Guest
War abzusehen, nach der Übernahme von Ageia.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Warum warten?... MS braucht Physik sicherlich, und wenn es nur für die nächste XBOX ist ...
Auf der PS3 und Xbox 360 laufen Spiele mit Ageia-Unterstützung ... nur eben nicht mit einem PhysX-Chip, sondern mit einer Middleware von Ageia.
MFG Bobo(2008 )
Opteron
Redaktion
☆☆☆☆☆☆
Aso .. wurde die da schon lizensiert ..Auf der PS3 und Xbox 360 laufen Spiele mit Ageia-Unterstützung ... nur eben nicht mit einem PhysX-Chip, sondern mit einer Middleware von Ageia.
Wieder was gelernt .. dann ist die Frage, wie es da dann jetzt weitergeht ... nächste Spielekonsolengeneration mit nVidia only ?
Edit:
Fusseltuchs Kommentar gelesen .. also nvidia will vielleicht zusammenarbeiten ... bin ich ja mal gespannt...
ciao
Alex
Zuletzt bearbeitet:
Fortunes
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.066
- Renomée
- 1
- Standort
- Wiesbaden
- Prozessor
- Intel Pentium 250 MMX
- Mainboard
- Epox EP-MVP4A
- Kühlung
- Luftquirl
- Speicher
- 192MB PC100
- Grafikprozessor
- Trident AGP + Voodoo1
- HDD
- 120GB
- Optisches Laufwerk
- LG DVD
- Soundkarte
- SB16 PnP
- Gehäuse
- Highscreen
- Netzteil
- 250W FSP
- Betriebssystem
- Win98SE
Bei der aktuellen Effizienz und Leistung jetziger und kommender Vierkernprozessoren sollten diese Physikbeschleuniger schon bald ein Ende finden. Und ich bin mir sicher, dass AMD/ATI genau darauf baut. Wenn man so gute Prozessoren liefern kann, die die Physikberechnungen quasi "im Vorbeigehen" mitnehmen, sind diese Beschleuniger überflüssig.
Und meine 8800GT bekommt so schon genug zu tun. Da muss es nicht noch mehr Physik sein.
Und meine 8800GT bekommt so schon genug zu tun. Da muss es nicht noch mehr Physik sein.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Bis ein x86-Prozessor auch nur annähernd an die Leistung (bei Physikberechnungen) der PhysX-Karte rankommt vergeht aber noch so einiges an Zeit...
Opteron
Redaktion
☆☆☆☆☆☆
Hmmm .. 1 Jahr ? Dann kommt AMDs erste Fusiongeneration, ne Art Phenom X2 mit R600 Grafikkern & DDR3... hat man zusätzlich zu so einer "CGPU" noch eine extra Grafikkarte könnte der "CGPU" Grafikkern dann das Physikberechnen übernehmen, so denn 2009 irgendeine Physik API die ATi/AMD Chips unterstützt ^^Bis ein x86-Prozessor auch nur annähernd an die Leistung (bei Physikberechnungen) der PhysX-Karte rankommt vergeht aber noch so einiges an Zeit...
Lustig an der ganzen Story ist noch, das die R600 cores VLIW cores sind. Fusion ist deshalb, von nem andren Standpunkt her gesehen, ne Art Itanium light mit Hardware x86
( Natürlich besteht keine Befehlssatzkombatibilität, nur die Art und Weise der Datenverarbeitung zw. R600 und Itanium ist ähnlich).
ciao
Alex
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Optimist!Hmmm .. 1 Jahr ? Dann kommt AMDs erste Fusiongeneration, ne Art Phenom X2 mit R600 Grafikkern & DDR3... hat man zusätzlich zu so einer "CGPU" noch eine extra Grafikkarte könnte der "CGPU" Grafikkern dann das Physikberechnen übernehmen, so denn 2009 irgendeine Physik API die ATi/AMD Chips unterstützt ^^
Außerdem ist dann halt keine x86-CPU mehr...
@[³dgamer]: So siehts aus, nur ist die PhysX-Karte deutlich günstiger.
Allerdings ist die zweite Grafikkarte auch für Grafikberechnungen nutzbar, wenn das Spiele wenig Physikberechnungen ausführt.
[ApoC]
Admiral Special
- Mitglied seit
- 24.11.2002
- Beiträge
- 1.362
- Renomée
- 13
- Standort
- Altenholz bei Kiel
- Prozessor
- Core i5 2500K (4.5 GHz @ 1.304 Volt))
- Mainboard
- Asus "Sabertooth" P67 Rev. 3B
- Kühlung
- Corsair HydroSeries H100 Liquid CPU Cooler
- Speicher
- 4x 4GB Corsair Vengance DDR3-1600 CL8
- Grafikprozessor
- GigaByte GTX 570 SOC @ Stock (845/1690/1900)
- Display
- LG Flatron IPS236
- HDD
- Samsung 840 Pro 256 GB SSD | Samsung SpinPoint F1 & F3
- Optisches Laufwerk
- LG GGC-H20L CD&DVD Recorder / BluRay&HD-DVD Player
- Soundkarte
- Sound Blaster Tactic 3D Wrath Wireless HS
- Gehäuse
- CoolerMaster HAF X
- Netzteil
- Corsair AX850 (80+ Gold zertifiziert)
- Betriebssystem
- Windows 7 Ultimate x64
- Webbrowser
- FireFox 20.0.1
- Verschiedenes
- Schwarz ... bis es was dunkleres gibt!
- Schau Dir das System auf sysprofile.de an
Nennt mich Prophet: Siehe letzter Beitrag.
Naja,
mal gucken wie schnell oder ob das wirklich wie angekündigt umgesetzt wird,
nVidia hat schön öfters angekündigte Dinge 'vergessen'
Sicher ist, dass dieses Konzept von der Grafikleistung abzwacken wird. Wie viel
das sein wird muss man abwarten. Sicher ist aber auch, was NOFX schon gesagt hat:
CPUs werden mit Ihren "allrounder" Fähigkeiten wahrscheinlich nie an die spezielle,
massiv parallele Rechenleistung von GPUs herankommen - aktuelle GPUs kommen
hier schon an die 100 Gflops ran - ein C2D E6400 dümpelt selbst unter Ausnutzung
spezieller SSE-Optimierter Routinen knapp unter 10 Gflops rum.
Nach dem Moorschen Gesetzt könnten CPUs evtl. in 3 Jahren bei 100Gflops sein,
aber ratet mal wo dann GPUs sind - zumal diese noch schneller an Leistung zulegen
als CPUs - GPUs könnten in 3 Jahren schon im Teraflop-Bereich wildern.
Von daher wird es immer einen Vorteil bringen, spezielle Operationen auf dafür optimierte
APUs auszulagern - diese machen das schneller und besser als CPUs - und entlassten
diese damit noch. Nvidias Idee, das nun über Ihre GPUs laufen zu lassen, ist auf jeden
Fall ein interessanter Ansatz, wenn es denn auf der selben Karte, die auch die Grafik
berechnet, mitläuft, ohne die Grafikberechnung zu sehr zu beeinträchtigen.
Eine Extrakarte nur für die Physik hatte Nvidia ja schon einmal versucht - und sind damit
auf die Klappe gefallen - dafür sind die Dinger einfach zu teuer!
Naja,
mal gucken wie schnell oder ob das wirklich wie angekündigt umgesetzt wird,
nVidia hat schön öfters angekündigte Dinge 'vergessen'
Sicher ist, dass dieses Konzept von der Grafikleistung abzwacken wird. Wie viel
das sein wird muss man abwarten. Sicher ist aber auch, was NOFX schon gesagt hat:
CPUs werden mit Ihren "allrounder" Fähigkeiten wahrscheinlich nie an die spezielle,
massiv parallele Rechenleistung von GPUs herankommen - aktuelle GPUs kommen
hier schon an die 100 Gflops ran - ein C2D E6400 dümpelt selbst unter Ausnutzung
spezieller SSE-Optimierter Routinen knapp unter 10 Gflops rum.
Nach dem Moorschen Gesetzt könnten CPUs evtl. in 3 Jahren bei 100Gflops sein,
aber ratet mal wo dann GPUs sind - zumal diese noch schneller an Leistung zulegen
als CPUs - GPUs könnten in 3 Jahren schon im Teraflop-Bereich wildern.
Von daher wird es immer einen Vorteil bringen, spezielle Operationen auf dafür optimierte
APUs auszulagern - diese machen das schneller und besser als CPUs - und entlassten
diese damit noch. Nvidias Idee, das nun über Ihre GPUs laufen zu lassen, ist auf jeden
Fall ein interessanter Ansatz, wenn es denn auf der selben Karte, die auch die Grafik
berechnet, mitläuft, ohne die Grafikberechnung zu sehr zu beeinträchtigen.
Eine Extrakarte nur für die Physik hatte Nvidia ja schon einmal versucht - und sind damit
auf die Klappe gefallen - dafür sind die Dinger einfach zu teuer!
Zuletzt bearbeitet:
The_crow
Grand Admiral Special
- Mitglied seit
- 04.06.2005
- Beiträge
- 2.674
- Renomée
- 80
- Prozessor
- RYZEN 9 7900X
- Mainboard
- ASUS TUF Gaming B650-PLUS -WIFI
- Kühlung
- NOCTUA NH-D15 chromax.black einige Lüfer von Cooler Master die beim Tower schon dabei waren.
- Speicher
- 2 x 16 GB Kingston 5600 mit EXPO
- Grafikprozessor
- AMD ASUS TUF Gaming OC RX7900 XTX 24 GB
- Display
- HP 27xq oder einen LG OLED48C1... an der Yamha Anlage die 5.1.2 kann und auch so genutzt wird.
- SSD
- Hab eine SATA 1 TB SSD Sandisk aber nicht als OS Platte im Moment. M.2 für OS Samsung SSD 980 PRO .
- HDD
- Sicher eine von denen die da sind aber welche?
- Optisches Laufwerk
- Optiarc
- Soundkarte
- Onboard Realtec leider nicht ganz so gut wie der alte. Nun per HDMI an den AVR.
- Gehäuse
- Cooler Master BigTower der bald mal weg muss.
- Netzteil
- be quiet! PURE POWER 12 M 1.000 Watt
- Tastatur
- Einfache Cherry USB
- Maus
- Logitech MX Master 3s
- Betriebssystem
- Win 11 + alle Updates
- Webbrowser
- größten Teils FireFox
Ich weiß nicht. Es ruckelt doch jetzt schon alles bei vielen Spielen, wenn da nun noch Physik auf der GPU gemacht wird, dann muss man ja gleich wieder eine neue Karte kaufen und die Mittelklasse taugt dann ja zum Spielen fast gar nichts mehr.
Ich hoffe der Fusion und oder eine andere CPU/GPU/XY von AMD samt kleiner aber feiner Physikengine zeigt NV wo es lang geht. Von mir aus auch MS und sonstwer.
Hoffe es kommen ein paar GPL Engines oder ein paar mit der Liezens für kommerzielle Produkte auf den Mark die NV und Intel das Fürchten leren und super auf ATI und AMD laufen.
So allmählich kann ich zwar NV verstehen das sie angst um ihre Marktanteile haben, aber für mich ist so was ein Schritt in die falsche Richtung und ein weiter Grund wie so ich nichts mehr von NV haben will.
NV soll erstmal das richtig machen was sie im letzen Jahr verbockt haben und nicht immer Bla Bla machen. Ich würde an NVs stelle mal die Klappe halten bis endlich was lauffähiges da ist und nicht sagen ja ja alle Karten werde das irgend wie unterstützen und am Ende stellt der User fest das war gelogen oder ganz anders gemeint sieh Treiber für NForce 3 Vista zum Beispiel oder der Mist mit dem NForce 4 und Vista damals.
Ich hoffe der Fusion und oder eine andere CPU/GPU/XY von AMD samt kleiner aber feiner Physikengine zeigt NV wo es lang geht. Von mir aus auch MS und sonstwer.
Hoffe es kommen ein paar GPL Engines oder ein paar mit der Liezens für kommerzielle Produkte auf den Mark die NV und Intel das Fürchten leren und super auf ATI und AMD laufen.
So allmählich kann ich zwar NV verstehen das sie angst um ihre Marktanteile haben, aber für mich ist so was ein Schritt in die falsche Richtung und ein weiter Grund wie so ich nichts mehr von NV haben will.
NV soll erstmal das richtig machen was sie im letzen Jahr verbockt haben und nicht immer Bla Bla machen. Ich würde an NVs stelle mal die Klappe halten bis endlich was lauffähiges da ist und nicht sagen ja ja alle Karten werde das irgend wie unterstützen und am Ende stellt der User fest das war gelogen oder ganz anders gemeint sieh Treiber für NForce 3 Vista zum Beispiel oder der Mist mit dem NForce 4 und Vista damals.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ist dir klar über welche Leistungsabgründe du da sprichst?Bei der aktuellen Effizienz und Leistung jetziger und kommender Vierkernprozessoren sollten diese Physikbeschleuniger schon bald ein Ende finden. ...
Eine einzelne aktuelle GPU der Spitzenklasse rechnet in etwa mit einem halben Teraflop.
Eine CPU hingegen hat nur etwa nur einen Bruchteil der Rechenleistung von etwa 5 bis 10 Gigaflop.
MFG Bobo(2008 )
Drohne
Vice Admiral Special
- Mitglied seit
- 27.09.2007
- Beiträge
- 863
- Renomée
- 20
Ist dir klar über welche Leistungsabgründe du da sprichst?
Eine einzelne aktuelle GPU der Spitzenklasse rechnet in etwa mit einem halben Teraflop.
Eine CPU hingegen hat nur etwa nur einen Bruchteil der Rechenleistung von etwa 5 bis 10 Gigaflop.
MFG Bobo(2008 )
... wobei hier sinnlos mit Zahlen herumgeworfen wird, die ihre Repetitoren kaum verstehen. Zum einen: CUDA ist keine Programmiersprache (siehe Eingang). CUDA ist nVidias API zur GPU. AMD hat CTM, rudimentärer ausgelegt, schwieriger zu handhaben, aber letztlich flxibler. Und dennoch: in BEIDEN Fällen ist man ohne spezielle Kenntnisse dieser Schnittstelle kaum in der Lage, diese 'enorme' Fließkommaleistung zu nutzen! Ich gäbe etwas 'drum, wenn ich für meine Arbeit eine C-Bibliothek (wie etwa ATLAS oder die GSL) verwenden könnte, die als Backend eine oder mehrere im System befindliche GPUs verwendet. Außerhalb von Spielen ist die enorme Rechenleistung kaum nutzbar (mal von speziellen Anwendungen in Standford abgesehen). Mir ist unklar, obschon das Potential dieser Rechenknechte bekannt ist, weshalb weder Intel noch AMD hingegangen sind und Shader-Erweiterungen in die FPU der CPU eingebaute haben. Das wäre mal etwas wirklich Neues und würde nach der AXP endlich den Markt vernünftiger Prozessoren beleben. Dieser x86-Müll ruiniert mit seinem massenhaften Erscheinen in grün und blau wie eine Pest das ökologische Gleichgewicht.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Das ist richtig.... CUDA ist nVidias API zur GPU.
AMD hat CTM, rudimentärer ausgelegt, schwieriger zu handhaben, aber letztlich flexibler.
Und dennoch: in BEIDEN Fällen ist man ohne spezielle Kenntnisse dieser Schnittstelle kaum in der Lage, diese 'enorme' Fließkommaleistung zu nutzen! ...
Erschwerdend kommt hinzu, dass die Gleitmommarechenwerke der GPUs nicht völlig identisch mit den Rechenwerken von Prozessoren/Coprozessoren vergleichbar sind (Art der Rundungsweise).
In der Praxis kommen dann auch nicht mehr die Spitzenleistungen zusammen, aber die sind immer noch bemerkenswert. Bei Performance/Watt sieht das mit den aktuellen GPUs dann womöglich doch nicht mehr so gut aus.
MFG Bobo(2008 )
firecracker1
Captain Special
- Mitglied seit
- 29.12.2007
- Beiträge
- 240
- Renomée
- 4
- Standort
- HH
- Prozessor
- e8400@ 3600MhZ
- Mainboard
- Asus P5Q SE
- Kühlung
- ka
- Speicher
- 2x2GB Adata DDR2
- Grafikprozessor
- HD 6950 IceQ
- Display
- Samsung Syncm. XL2370 LED
- HDD
- 1x300GB Hitachi Deskstar1x 1TB externe
- Optisches Laufwerk
- Plextor DVD Brenner, LiteOn DVD Leselaufw.
- Soundkarte
- Audigy 4
- Gehäuse
- Sharkoon t9 Value red
- Netzteil
- Enermax 82+ 425Watt
- Betriebssystem
- Win 7 64 Bit
- Webbrowser
- Firefox
was spricht denn gegen ne extra Karte für Physik?
Auf ner Grafikkarte würde das nur noch mehr Wärme oder weniger Grafikleistung bedeuten.
Ich kann mir denken, dass man ne PhysX Karte auch prima passiv kühlen kann.
Einziger Nachteil ist halt, dass es eine weitere Komponente ist, die man kaufen muss und dass die Spieleunterstützung da sein muss.
Mal schauen wie die weitere Prozessorentwicklung ausschaut
Auf ner Grafikkarte würde das nur noch mehr Wärme oder weniger Grafikleistung bedeuten.
Ich kann mir denken, dass man ne PhysX Karte auch prima passiv kühlen kann.
Einziger Nachteil ist halt, dass es eine weitere Komponente ist, die man kaufen muss und dass die Spieleunterstützung da sein muss.
Mal schauen wie die weitere Prozessorentwicklung ausschaut
Opteron
Redaktion
☆☆☆☆☆☆
Hier gehts weiter:
http://www.planet3dnow.de/vbulletin/showthread.php?t=335080
Kurzinfo: nVidia will das PhysiX SDK öffnen, bietet es AMD/ATi an, eventuell auch ne Chance für Linux, je nachdam was am Ende für eine Lizenz verwendet wird (wenn überhaupt).
ciao
Alex
http://www.planet3dnow.de/vbulletin/showthread.php?t=335080
Kurzinfo: nVidia will das PhysiX SDK öffnen, bietet es AMD/ATi an, eventuell auch ne Chance für Linux, je nachdam was am Ende für eine Lizenz verwendet wird (wenn überhaupt).
ciao
Alex
Ähnliche Themen
- Antworten
- 2
- Aufrufe
- 347
- Antworten
- 0
- Aufrufe
- 471
- Antworten
- 0
- Aufrufe
- 381
- Antworten
- 0
- Aufrufe
- 479
- Antworten
- 0
- Aufrufe
- 341