App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Physik-Beschleunigung mit Grafikkarten vor dem Aus?
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Nach der Übernahme von Havok durch Intel im September, befürchten sowohl AMD als auch NVIDIA, dass die Havok FX Physik-Engine möglicherweise gar nicht oder nur mit mäßiger Unterstützung auf den Markt kommt.
Havok FX soll herstellerunabhängig die Beschleunigung von Physik-Berechnungen auf Grafikkarten ermöglichen. Einzige Voraussetzung an die Grafikkarte sind die Unterstützung von Shader Model 3.0, wie es bei NVIDIA seit der GeForce 6-Reihe und bei AMD seit der Radeon X1-Reihe der Fall ist. Der größte Konkurrent Havoks auf dem Physik-Engine-Markt, Ageia bietet die eigene PhysX-Engine nur für dedizierte Physik-Beschleuniger-Karten an.
NVIDIAs CEO Jen-Hsun Huang sieht ausschließlich "negative Synergien" durch die Übernahme und AMDs Richard Huddy sieht sogar das derzeitige Aus für Physik-Beschleunigung mit Grafikkarten. Es seien nur wenige Spiele am Horizont zu sehen, die entsprechende Berechnungen unterstützen und ohne umfassende Physik-Engine, würde sich diese Situation auch nicht ändern, so Huddy weiter. Erst mit DirectX 11 und der darin enthaltenen Physik-Engine dürfte sich das Blatt wider zu Gunsten der beiden großen Hersteller von Grafikchips wenden.
Diese Strategie Intels ist nicht auf Desinteresse des Prozessorherstellers zurück zu führen, sondern basiert wohl auf strategischen Überlegungen. Gerade realistische Physik-Berechnungen sind sehr rechenaufwändig und können nur mit Grafikkarten oder Multi-Core-Prozessoren effektiv durchgeführt werden. Quad-Core-Prozessoren bieten derzeit bei Spielen selten einen Mehrwert gegenüber Dual-Cores und eine Auslagerung der Physik-Berechnungen auf die (oder eine zusätzliche) Grafikkarte würde diesen Zustand auch auf absehbare Zeit nicht ändern. Mit der Übernahme Havoks besitzt Intel nun die Möglichkeit die bisher erfolgversprechendste Physik-Engine zu verzögern, abzuwerten oder speziell auf die eigenen Produkte anzupassen.
<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/multimedia/display/20071119065621_GPU_Physics_Dead_for_Now_Says_AMD_s_Developer_Relations_Chief.html" target="_blank">GPU Physics Dead for Now, Says AMD’s Developer Relations Chief.</a>
Havok FX soll herstellerunabhängig die Beschleunigung von Physik-Berechnungen auf Grafikkarten ermöglichen. Einzige Voraussetzung an die Grafikkarte sind die Unterstützung von Shader Model 3.0, wie es bei NVIDIA seit der GeForce 6-Reihe und bei AMD seit der Radeon X1-Reihe der Fall ist. Der größte Konkurrent Havoks auf dem Physik-Engine-Markt, Ageia bietet die eigene PhysX-Engine nur für dedizierte Physik-Beschleuniger-Karten an.
NVIDIAs CEO Jen-Hsun Huang sieht ausschließlich "negative Synergien" durch die Übernahme und AMDs Richard Huddy sieht sogar das derzeitige Aus für Physik-Beschleunigung mit Grafikkarten. Es seien nur wenige Spiele am Horizont zu sehen, die entsprechende Berechnungen unterstützen und ohne umfassende Physik-Engine, würde sich diese Situation auch nicht ändern, so Huddy weiter. Erst mit DirectX 11 und der darin enthaltenen Physik-Engine dürfte sich das Blatt wider zu Gunsten der beiden großen Hersteller von Grafikchips wenden.
Diese Strategie Intels ist nicht auf Desinteresse des Prozessorherstellers zurück zu führen, sondern basiert wohl auf strategischen Überlegungen. Gerade realistische Physik-Berechnungen sind sehr rechenaufwändig und können nur mit Grafikkarten oder Multi-Core-Prozessoren effektiv durchgeführt werden. Quad-Core-Prozessoren bieten derzeit bei Spielen selten einen Mehrwert gegenüber Dual-Cores und eine Auslagerung der Physik-Berechnungen auf die (oder eine zusätzliche) Grafikkarte würde diesen Zustand auch auf absehbare Zeit nicht ändern. Mit der Übernahme Havoks besitzt Intel nun die Möglichkeit die bisher erfolgversprechendste Physik-Engine zu verzögern, abzuwerten oder speziell auf die eigenen Produkte anzupassen.
<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/multimedia/display/20071119065621_GPU_Physics_Dead_for_Now_Says_AMD_s_Developer_Relations_Chief.html" target="_blank">GPU Physics Dead for Now, Says AMD’s Developer Relations Chief.</a>
Wildy
Admiral Special
- Mitglied seit
- 13.03.2002
- Beiträge
- 1.701
- Renomée
- 1
- Standort
- Daheim
- Mein Laptop
- Samsung NC10 mit Ubuntu 9.10
- Prozessor
- C2D E6750
- Mainboard
- Intel DG33TL
- Kühlung
- Intel boxed
- Speicher
- 2 GB A-Data 800-Kit
- Grafikprozessor
- Asus GF8600GT silent (passiv gekühlt)
- Display
- Samsung 205BW
- HDD
- Samsung HD252KJ
- Optisches Laufwerk
- Samsung SH-S203B
- Soundkarte
- Sigmatelchip (onboard)
- Gehäuse
- Zirco AX
- Netzteil
- Seasonic S12II 430
- Betriebssystem
- Ubuntu 09.10
Vom strategischen Standpunkt her gar nicht mal so dumm von Intel; sehr schade finde ich es nur, dass so die Entwicklung künstlich verzögert wird.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Vielleicht sollte Ageia dann die Chance nutzen und ihre Karten aufgeben, dafür IP an AMD+Nvidia lizensieren und Physx als Quasi-Standard einführen lassen. Wenn die nämlich weiterhin mit ihren Extra-Karten rummocheln, die sowieso keiner kauft, kommen die auch auf keinen grünen Zweig, d.h. es setzt auch kein Entwickler ein, und Physikbeschleunigung wird wieder jahrelang verzögert, bis AMD oder Nvidia oder beide was selbst entwickelt haben.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
Das habe ich damals als die übernahme bekannt wurde hier schon so vermutet. Intel kauft sich Havok doch nicht einfach zum spass, sondern nur dann wenn sie sich einen vorteil geschäftlicher natur versprechen. Es war also absehbar.
.
EDIT :
.
Stimmt. Allerdings können die zwei auch einfach warten bis der laden den bach runter geht und sich dann billig um die überreste kloppen. Kann aber auch nach hinten los gehen, wenn Intel, mit ihren tiefen taschen, vorher zugreifen.
.
EDIT :
.
Vielleicht sollte Ageia dann die Chance nutzen und ihre Karten aufgeben, dafür IP an AMD+Nvidia lizensieren und Physx als Quasi-Standard einführen lassen. Wenn die nämlich weiterhin mit ihren Extra-Karten rummocheln, die sowieso keiner kauft, kommen die auch auf keinen grünen Zweig, d.h. es setzt auch kein Entwickler ein, und Physikbeschleunigung wird wieder jahrelang verzögert, bis AMD oder Nvidia oder beide was selbst entwickelt haben.
Stimmt. Allerdings können die zwei auch einfach warten bis der laden den bach runter geht und sich dann billig um die überreste kloppen. Kann aber auch nach hinten los gehen, wenn Intel, mit ihren tiefen taschen, vorher zugreifen.
Michl
Grand Admiral Special
- Mitglied seit
- 29.07.2006
- Beiträge
- 2.479
- Renomée
- 32
- Standort
- Graz
- Mein Laptop
- Gericom Blockbuster
- Prozessor
- Intel i7-4770k@3,5 Ghz
- Mainboard
- Gigabyte Z87X-D3H
- Kühlung
- Wakü Cooler Master Seidon 120 V
- Speicher
- 2 x 8 Gig Corsair DDR3 PC1600
- Grafikprozessor
- ATI r9 280X von HIS
- Display
- Samsung 22" TFT
- SSD
- 120 GB SATA III Samsung 849 EVO
- HDD
- 1000 GB SATA 3
- Optisches Laufwerk
- ASUS
- Soundkarte
- Onboard
- Gehäuse
- Enermax Fulmo ST
- Netzteil
- Corsair 650 W VS650
- Betriebssystem
- Win 8.1
- Webbrowser
- Firefox
- Verschiedenes
- Die Mühle hat soviel Power das ich sie derzeit nicht übertakte ^^
Quatsch Ägia Extra-Ober-Power-Pop-Of-Pysikbeschleuniger etc. etc. etc.!
Bei den aktuellen HW Presien möchte ich für mein Geld das ich für ne Graka ausgebe gefälligst auch was haben, incl. Pysikberrechnungen!
Bin doch kein Trottel das ich mir auch noch ne extra Physik -Beschleunigerkarte kaufe.
Das Ägia- Projeckt ist doch von Anfang an zum scheitern verurteilt gewesen.
Was uns wieder einmal zeigen sollte das Marktmacht (INTEL) alles ist.
Bei den aktuellen HW Presien möchte ich für mein Geld das ich für ne Graka ausgebe gefälligst auch was haben, incl. Pysikberrechnungen!
Bin doch kein Trottel das ich mir auch noch ne extra Physik -Beschleunigerkarte kaufe.
Das Ägia- Projeckt ist doch von Anfang an zum scheitern verurteilt gewesen.
Was uns wieder einmal zeigen sollte das Marktmacht (INTEL) alles ist.
Opteron
Redaktion
☆☆☆☆☆☆
Die scheinen wohl die Gunst der Lage anderweitig nutzen zu wollen,Vielleicht sollte Ageia dann die Chance nutzen und ihre Karten aufgeben, dafür IP an AMD+Nvidia lizensieren und Physx als Quasi-Standard einführen lassen. Wenn die nämlich weiterhin mit ihren Extra-Karten rummocheln, die sowieso keiner kauft, kommen die auch auf keinen grünen Zweig, d.h. es setzt auch kein Entwickler ein, und Physikbeschleunigung wird wieder jahrelang verzögert, bis AMD oder Nvidia oder beide was selbst entwickelt haben.
Agaia Preissenkung auf 99 Dollar/Euro:
http://www.theinquirer.net/gb/inquirer/news/2007/11/21/ageia-bangs-gpu-physics-death
ciao
Alex
Dhamster
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 5.860
- Renomée
- 23
- Standort
- vorm bollerwagen
- Prozessor
- Athlon 64 x2 4200+
- Mainboard
- Gigabyte GA-MA69G-S3H
- Kühlung
- Arctic Cooling Freezer 64 PWM
- Speicher
- 4x GEIL Black Dragon 2GB
- Grafikprozessor
- Xpert Vision GF 7600 GT
- Display
- LG 21" TFT
- HDD
- 1x200GB SATA, 1x 500GB SATA
- Optisches Laufwerk
- LiteOn CD-Brenner / Plextor DVD-Brenner
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Chieftech 901
- Netzteil
- BeQuiet Straight Power 450W
- Betriebssystem
- Kubuntu 9.10 x86_64
- Webbrowser
- Firefox
Ich find die PhysX gar nicht mal so schlecht, Cell Faktor ist schon recht nett anzuschaun (bin praktisch begeistert ). Schade dass hier wieder was künstlich verzögert wird nur wegen irgendwelchen Ferengi.
Physik Engine in DX11? Über CPU GPU oder auch PPU?
.
EDIT :
.
UT3-Levels für PhysX - und schon hat sichs gelohnt
Physik Engine in DX11? Über CPU GPU oder auch PPU?
.
EDIT :
.
UT3-Levels für PhysX - und schon hat sichs gelohnt
Wan_Mateng
Admiral Special
Eventuell plant ja Intel die Physikberechnung in seine CPU zu integrieren oder zumindest einen gewissen Teil?
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
Eventuell plant ja Intel die Physikberechnung in seine CPU zu integrieren oder zumindest einen gewissen Teil?
du meinst, als eine art gegenpol zu AMDs Fusion? Wäre denkbar.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Wenn Intel tatsächlich nun den Kurs festlegen sollte, dann ist Ageia noch lange nicht tot ... ganz im Gegenteil.Vielleicht sollte Ageia dann die Chance nutzen und ihre Karten aufgeben, dafür IP an AMD+Nvidia lizensieren und Physx als Quasi-Standard einführen lassen. Wenn die nämlich weiterhin mit ihren Extra-Karten rummocheln, die sowieso keiner kauft, kommen die auch auf keinen grünen Zweig, d.h. es setzt auch kein Entwickler ein, und Physikbeschleunigung wird wieder jahrelang verzögert, bis AMD oder Nvidia oder beide was selbst entwickelt haben.
Der Larrabee und das Polarisprojekt sind genau das, was Ageia nutzen könnte.
Abgesehen davon lizensierten Sony für die PS3 und Microsoft für die Xbox 360 die Ageia-Physik-Engine.
Ageia ist mehr als nur ein Stück gegossenes Silizium, wenngleich der erste Eindruck bislang von zweifelhaften Start vom letzten Jahr das so vermitteln mag ...
MFG Bobo(2007)
Wan_Mateng
Admiral Special
du meinst, als eine art gegenpol zu AMDs Fusion? Wäre denkbar.
Wäre ja möglich da ja jetzt schon etwas über Nehalem bekannt ist, bzw. vielleicht spielt es eine größere Rolle im Larrabee Projekt. ( Ist aber sehr Spekulativ )
Wenn es eine Physik Engine in DX11geben soll / wird würde es sich doch quasi anbieten jetzt schon so langsam in diese Richtung die Hardware zu entwickeln und wie ein Paukenschlag auf den Markt zu werfen. Zumal auch nicht bekannt ist wann das DX11 auf den Markt kommt.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Reicht imho nicht, 100 sind immer noch ne Menge Geld für im Grunde nichts.Die scheinen wohl die Gunst der Lage anderweitig nutzen zu wollen,
Agaia Preissenkung auf 99 Dollar/Euro:
http://www.theinquirer.net/gb/inquirer/news/2007/11/21/ageia-bangs-gpu-physics-death
Stimmt, könnte so kommen. Was mir daran nicht gefällt, ist das Wort "warten" - wie gesagt gibt es wohl eine Verzögerung, auf die ein oder andere Art.Stimmt. Allerdings können die zwei auch einfach warten bis der laden den bach runter geht und sich dann billig um die überreste kloppen. Kann aber auch nach hinten los gehen, wenn Intel, mit ihren tiefen taschen, vorher zugreifen.
Ich meine, es kann doch wohl nicht sein, daß wir uns mal in drei Jahren freuen, daß Crysis flüssig läuft.
Patmaniac
Grand Admiral Special
- Mitglied seit
- 21.05.2001
- Beiträge
- 14.789
- Renomée
- 266
Richtiger Ansatz. Intel arbeitet ja an der Raytracing-Technologie maßgeblich, welche besonders von Multi-Core profitiert. Da werden also zukünftige Verkaufsargumente für Multi-Cores geschaffen. Ist ja auch net so dumm. Erstens wird es eh immer mehr Kerne geben und zweitens kann man diese ja dann kostengünstig zur Physik-Berechnung benutzen ohne extra (teure) Physik-Karten.Eventuell plant ja Intel die Physikberechnung in seine CPU zu integrieren oder zumindest einen gewissen Teil?
Michl
Grand Admiral Special
- Mitglied seit
- 29.07.2006
- Beiträge
- 2.479
- Renomée
- 32
- Standort
- Graz
- Mein Laptop
- Gericom Blockbuster
- Prozessor
- Intel i7-4770k@3,5 Ghz
- Mainboard
- Gigabyte Z87X-D3H
- Kühlung
- Wakü Cooler Master Seidon 120 V
- Speicher
- 2 x 8 Gig Corsair DDR3 PC1600
- Grafikprozessor
- ATI r9 280X von HIS
- Display
- Samsung 22" TFT
- SSD
- 120 GB SATA III Samsung 849 EVO
- HDD
- 1000 GB SATA 3
- Optisches Laufwerk
- ASUS
- Soundkarte
- Onboard
- Gehäuse
- Enermax Fulmo ST
- Netzteil
- Corsair 650 W VS650
- Betriebssystem
- Win 8.1
- Webbrowser
- Firefox
- Verschiedenes
- Die Mühle hat soviel Power das ich sie derzeit nicht übertakte ^^
Physik Engine in DX11? Über CPU GPU oder auch PPU?
Gute Frage. Hab ich mich auch schon gefragt. Ob da Intel und Billyboy wieder packeln?
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.760
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
Intel hat sich meiner Meinung nach mit dem Erwerb von Havoc ein paar interessante Optionen erkauft.
1) Sie koennten Havoc einfach sterben lassen... was sich Intel zwar vermutlich leisten koennte, ich aber nicht glaube, weils echt doof waere, und andere (AMD, Nv, etc.) auf die Idee kommen wuerden ihr eigenes Physiksueppchen zu kochen.
2) Intel koennte Havoc modifzieren und so optimieren, dass das Ding auf den eigenen Multicore CPUs bestens laeuft - damit waere dann gleichzeitig auch ein weiteres Argument fuer den Kauf von Intel Multicore CPUs geschaffen.
1) Sie koennten Havoc einfach sterben lassen... was sich Intel zwar vermutlich leisten koennte, ich aber nicht glaube, weils echt doof waere, und andere (AMD, Nv, etc.) auf die Idee kommen wuerden ihr eigenes Physiksueppchen zu kochen.
2) Intel koennte Havoc modifzieren und so optimieren, dass das Ding auf den eigenen Multicore CPUs bestens laeuft - damit waere dann gleichzeitig auch ein weiteres Argument fuer den Kauf von Intel Multicore CPUs geschaffen.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
War zu erwarten. Macht ja aus Intels Sicht sinn. Nur wirft das die ganze Branche mal wieder um Jahre zurück.
Großer Manitu
Lieutnant
- Mitglied seit
- 28.05.2007
- Beiträge
- 63
- Renomée
- 1
Physik-Engines in Hardware halt ich für Käse. Das ist alles sehr umständlich zu programmieren und die Anzahl der CPU-Kerne geht eh in Richtung vier für die Standard-Ausstattung eines PCs, und dann werden die HW-Engines uninteressant weil eh genug Rechenleistung für solche Zwecke da ist.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Der Vorteil dieser expliziten Physik-Engines wie Havok oder PhysX ist ja, dass sie unabhängig von der Spiel-Engine sind und eine gemeinsame Basis darstellen.Physik-Engines in Hardware halt ich für Käse. Das ist alles sehr umständlich zu programmieren und die Anzahl der CPU-Kerne geht eh in Richtung vier für die Standard-Ausstattung eines PCs, und dann werden die HW-Engines uninteressant weil eh genug Rechenleistung für solche Zwecke da ist.
Eine Physik-Karte oder Physik-Berechnungen mit Hilfe von Grafikkarten ist außerdem wesentlich leistungsfähiger als dies per CPU möglich wäre, da die Berechnungen massiv parallelisierbar sind.
Das habe ich damals als die übernahme bekannt wurde hier schon so vermutet. Intel kauft sich Havok doch nicht einfach zum spass, sondern nur dann wenn sie sich einen vorteil geschäftlicher natur versprechen. Es war also absehbar.
.
EDIT :
.
Stimmt. Allerdings können die zwei auch einfach warten bis der laden den bach runter geht und sich dann billig um die überreste kloppen. Kann aber auch nach hinten los gehen, wenn Intel, mit ihren tiefen taschen, vorher zugreifen.
Ist wohl wie immer nur eine Frage des Preises: AMD considers buying Ageia
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
AMD hat das Geld ja schließlich über...Ist wohl wie immer nur eine Frage des Preises: AMD considers buying Ageia
Vor7ex
Captain Special
- Mitglied seit
- 09.09.2005
- Beiträge
- 235
- Renomée
- 11
- Aktuelle Projekte
- was gerade anfällt
- BOINC-Statistiken
- Prozessor
- AMD RyZen 3700X
- Mainboard
- MSI B550 A-Pro
- Kühlung
- Wraith Prism
- Speicher
- 2x8GB Corsair XMP3600
- Grafikprozessor
- Zotac GTX 1050 Ti 4GB
- Display
- LG W2452
- SSD
- Samsung 980 Pro 1TB
- Gehäuse
- Chieftech LCX Mesh
- Netzteil
- beQuiet! P6 BQT 470W
- Tastatur
- RaZer Oranata Chroma
- Maus
- RaZer Deathadder v2
- Betriebssystem
- Win 10 Pro
Wäre ein Ansatz des damals erwogenen Anti-HTT, siehe hier:Richtiger Ansatz. Intel arbeitet ja an der Raytracing-Technologie maßgeblich, welche besonders von Multi-Core profitiert. Da werden also zukünftige Verkaufsargumente für Multi-Cores geschaffen. Ist ja auch net so dumm. Erstens wird es eh immer mehr Kerne geben und zweitens kann man diese ja dann kostengünstig zur Physik-Berechnung benutzen ohne extra (teure) Physik-Karten.
Link (der Artikel und die Idee sind zwar schon Monde alt, kann aber dadurch jetz vllt Aufwand erfahren <- Spekulation)
Großer Manitu
Lieutnant
- Mitglied seit
- 28.05.2007
- Beiträge
- 63
- Renomée
- 1
Das kann man auch mit einer Library erreichen.Der Vorteil dieser expliziten Physik-Engines wie Havok oder PhysX ist ja, dass sie unabhängig von der Spiel-Engine sind und eine gemeinsame Basis darstellen.
Das ist aber garnicht notwendig. Die Physik-Berechnungen liegen vom Aufwand her in einem Bereich, dass sie von heutigen CPUs noch gerechnet werden können. Bei einem einzelnen Kern mag das noch bremsen, aber auf einer Vier-Kern-CPU interessiert das keinen mehr.Eine Physik-Karte oder Physik-Berechnungen mit Hilfe von Grafikkarten ist außerdem wesentlich leistungsfähiger als dies per CPU möglich wäre, da die Berechnungen massiv parallelisierbar sind.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Wenn man sich die Cell Factor Demo auf einem System ohne PhysX-KArte anschaut, wird man aber eines Besseren belehrt.Das ist aber garnicht notwendig. Die Physik-Berechnungen liegen vom Aufwand her in einem Bereich, dass sie von heutigen CPUs noch gerechnet werden können. Bei einem einzelnen Kern mag das noch bremsen, aber auf einer Vier-Kern-CPU interessiert das keinen mehr.
Cell Factor ist natürlich ein Parade-Beispiel für gigantisch Einsatz von beweglichen Objekten, zeigt aber, dass mit normalen CPUs nicht an die Leistung der PhysX-Karte ranzukommen ist.
Großer Manitu
Lieutnant
- Mitglied seit
- 28.05.2007
- Beiträge
- 63
- Renomée
- 1
Ja, sieht man da, dass das mit einer CPU nicht geht?Wenn man sich die Cell Factor Demo auf einem System ohne PhysX-KArte anschaut, wird man aber eines Besseren belehrt.
Ich halte das für Käse; mit einer Mehrkern-CPU geht das auf jeden Fall.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 44K
- Antworten
- 0
- Aufrufe
- 71K
- Antworten
- 14
- Aufrufe
- 3K