App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA kauft PhysX-Hersteller AGEIA
- Ersteller cruger
- Erstellt am
2006 startete mit <a href="http://www.ageia.com/" target="b">AGEIA</a> der erste Hersteller mit einer Zusatzkarte, die sich mit einem spezialisierten und als "Physics Processing Unit" (PPU) benannten Prozessor ausschließlich um die Berechnung physikalischer Effekte kümmern und damit zu einem höheren Grad an Realismus in Computerspielen beitragen sollte (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143133448">wir berichteten</a>).
Auch wenn AGEIAs PhysX-Karten kein großer Erfolg beschieden war (bis heute), rückte das Thema Physikbeschleunigung nun auch in den Fokus anderer Hersteller. So arbeiteten sowohl NVIDIA (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1142887080">wir berichteten</a>) als auch ATI (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143110547">wir berichteten</a>) zusammen mit <a href="http://www.havok.com/" target="b">Havok</a>, dem Hersteller der gleichnamigen Physik-Engine, an Möglichkeiten, Grafikprozessoren als Physikbeschleuniger einzusetzen.
War es um das Thema Physikbeschleunigung im Jahr 2007 etwas ruhig geworden, sorgte Intel im September des letzten Jahres mit der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">Übernahme</a> von Havok für Schlagzeilen. In Folge dieser Übernahme <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195675455">äußerten</a> sich sowohl AMD/ATI als auch NVIDIA skeptisch über die weitere Zusammenarbeit mit Havok und die (Weiter-)Entwicklung GPU-basierter Physikbeschleunigung.
Nach Spekulationen über einen möglichen Havok-Support in Intels Many-Core GPU-Project "<a href="http://en.wikipedia.org/wiki/Larrabee_(GPU)" target="b">Larrabee</a>" stellte sich in den letzten Monaten immer wieder die Frage um die Zukunft und Überlebensfähigkeit von AGEIA.
<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195749701">Dementierte</a> AMD im November 2007 ein konkretes Interesse an AGEIA, so kursierten im Internet zuletzt erneut Gerüchte über eine mögliche Übernahme durch einen unbekannten Anbieter. Auch wenn AGEIA auf die Übernahmespekulationen ebenfalls mit einem Dementi reagierte, bewahrheiten sich die Gerüchte nun. Dabei ist der Käufer kein geringerer als NVIDIA.
NVIDIA gibt in einer <a href="http://www.nvidia.com/object/io_1202161567170.html" target="b">Pressemitteilung</a> die Übernahme von AGEIA bekannt. Finanzielle Details werden dabei nicht genannt. Offenbar wird man mit Hilfe von AGEIA zur GPU-basierten Physikbeschleunigung zurückkehren (oder vielleicht eine PhysX-PPU als zusätzlichen Chip auf einer Grafikkarte?). So lässt sich zumindest folgender Auszug aus der Pressemitteilung deuten.
<blockquote cite="http://www.nvidia.com/object/io_1202161567170.html"><i>"By combining the teams that created the world's most pervasive GPU and physics engine brands, we can now bring GeForce®-accelerated PhysX to hundreds of millions of gamers around the world."</i></blockquote>
Unklar bleibt dabei die Zukunft der bisherigen PhysX-Erweiterungskarten, gab es im August 2007 doch erste <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1188553458">Anzeichen</a> für eine neue PhysX-Generation. Ebenso spannend dürfte die Frage sein, wie AMD auf die AGEIA-Übernahme reagiert. Mit Havok und nun auch AGEIA wurden die beiden namhaftesten Entwickler im Bereich der Physikbeschleunigung von AMDs wichtigsten Konkurrenten aufgekauft, die sich damit stark in diesem Marktsegment positionieren.
Vielen Dank an <a href="http://www.planet3dnow.de/vbulletin/member.php?u=12809">Ole</a> für den Hinweis!
Auch wenn AGEIAs PhysX-Karten kein großer Erfolg beschieden war (bis heute), rückte das Thema Physikbeschleunigung nun auch in den Fokus anderer Hersteller. So arbeiteten sowohl NVIDIA (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1142887080">wir berichteten</a>) als auch ATI (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1143110547">wir berichteten</a>) zusammen mit <a href="http://www.havok.com/" target="b">Havok</a>, dem Hersteller der gleichnamigen Physik-Engine, an Möglichkeiten, Grafikprozessoren als Physikbeschleuniger einzusetzen.
War es um das Thema Physikbeschleunigung im Jahr 2007 etwas ruhig geworden, sorgte Intel im September des letzten Jahres mit der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1189853089">Übernahme</a> von Havok für Schlagzeilen. In Folge dieser Übernahme <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195675455">äußerten</a> sich sowohl AMD/ATI als auch NVIDIA skeptisch über die weitere Zusammenarbeit mit Havok und die (Weiter-)Entwicklung GPU-basierter Physikbeschleunigung.
Nach Spekulationen über einen möglichen Havok-Support in Intels Many-Core GPU-Project "<a href="http://en.wikipedia.org/wiki/Larrabee_(GPU)" target="b">Larrabee</a>" stellte sich in den letzten Monaten immer wieder die Frage um die Zukunft und Überlebensfähigkeit von AGEIA.
<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1195749701">Dementierte</a> AMD im November 2007 ein konkretes Interesse an AGEIA, so kursierten im Internet zuletzt erneut Gerüchte über eine mögliche Übernahme durch einen unbekannten Anbieter. Auch wenn AGEIA auf die Übernahmespekulationen ebenfalls mit einem Dementi reagierte, bewahrheiten sich die Gerüchte nun. Dabei ist der Käufer kein geringerer als NVIDIA.
NVIDIA gibt in einer <a href="http://www.nvidia.com/object/io_1202161567170.html" target="b">Pressemitteilung</a> die Übernahme von AGEIA bekannt. Finanzielle Details werden dabei nicht genannt. Offenbar wird man mit Hilfe von AGEIA zur GPU-basierten Physikbeschleunigung zurückkehren (oder vielleicht eine PhysX-PPU als zusätzlichen Chip auf einer Grafikkarte?). So lässt sich zumindest folgender Auszug aus der Pressemitteilung deuten.
<blockquote cite="http://www.nvidia.com/object/io_1202161567170.html"><i>"By combining the teams that created the world's most pervasive GPU and physics engine brands, we can now bring GeForce®-accelerated PhysX to hundreds of millions of gamers around the world."</i></blockquote>
Unklar bleibt dabei die Zukunft der bisherigen PhysX-Erweiterungskarten, gab es im August 2007 doch erste <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1188553458">Anzeichen</a> für eine neue PhysX-Generation. Ebenso spannend dürfte die Frage sein, wie AMD auf die AGEIA-Übernahme reagiert. Mit Havok und nun auch AGEIA wurden die beiden namhaftesten Entwickler im Bereich der Physikbeschleunigung von AMDs wichtigsten Konkurrenten aufgekauft, die sich damit stark in diesem Marktsegment positionieren.
Vielen Dank an <a href="http://www.planet3dnow.de/vbulletin/member.php?u=12809">Ole</a> für den Hinweis!
Makso
Grand Admiral Special
- Mitglied seit
- 15.02.2006
- Beiträge
- 3.393
- Renomée
- 142
- Standort
- Österreich
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, POEM, Docking
- Lieblingsprojekt
- Folding@Home
- Folding@Home-Statistiken
- Mein Laptop
- Desktopsystem
- Prozessor
- AMD Ryzen 5 1400@3,8GHz
- Mainboard
- Asrock B350 Pro4
- Kühlung
- Scythe Mugan 5
- Speicher
- 2x4GB ADATA
- Grafikprozessor
- RX 550
- Display
- BenQ 21,5
- SSD
- Samsung 960Pro
- HDD
- 1TB WD
- Optisches Laufwerk
- LG schwarz
- Soundkarte
- AC 97
- Gehäuse
- NZXT Beta Evo
- Netzteil
- AXP SimplePower 630W
- Betriebssystem
- Win 10
- Webbrowser
- Chrome
nasupiiiiiii ob das AMD/ATI gut tut ist die frage
hoffe wir das das nicht der Untergang für AMD/ATI wird.
hoffe wir das das nicht der Untergang für AMD/ATI wird.
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
nasupiiiiiii ob das AMD/ATI gut tut ist die frage
hoffe wir das das nicht der Untergang für AMD/ATI wird.
Wie kommst du denn da drauf?
Ageia hat bislang keine rolle gespielt und wird es auch weiterhin unter nvidias regie nicht tun, bis MS irgendwann mal physikbeschleunigung in directX einfliessen lässt, dann wird das ganze interessant. Vorher ist das alles nur gebastel das spielehersteller ein haufen geld kostet ohne das es ein killerfeature wäre.
Wenn es dann mal soweit ist, dann hat nvidia möglicherweise einen vorsprung. Aber zu dem zeitpunkt wird nvidia wohl eher mit anderen problemen zu kämpfen haben, wie beispielsweise CPUs mit integrierten GPUs sowohl von Intel als auch AMD...
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Nvidia schaufelt sich ein Millionen Grab. Ohne breite Hardwarebasis wird es keine Games dafür geben und ohne AMD/ATI schaffen sie es nicht eine breite Basis aufzubauen.
Intel wird schneller eine Breite Basis schaffen können(?!), also noch ein Grund mehr warum sie es nicht ohne AMD/ATI schaffen. Mal sehen wie schnell die das merken...
Es gibt zwei Optionen für Nvidia:
1. Mit AMD zusammen arbeiten um eine Breite Basis schneller Intel aufbauen zu können.
2. Es alleine versuchen und scheitern, und Millionen verbrennen. -> Intel gewinnt.
Intel wird schneller eine Breite Basis schaffen können(?!), also noch ein Grund mehr warum sie es nicht ohne AMD/ATI schaffen. Mal sehen wie schnell die das merken...
Es gibt zwei Optionen für Nvidia:
1. Mit AMD zusammen arbeiten um eine Breite Basis schneller Intel aufbauen zu können.
2. Es alleine versuchen und scheitern, und Millionen verbrennen. -> Intel gewinnt.
N1truX
Admiral Special
- Mitglied seit
- 06.07.2007
- Beiträge
- 1.155
- Renomée
- 64
- Standort
- Berlin
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC
- Lieblingsprojekt
- QMC
- Meine Systeme
- Athlon II X4 620, Athlon II X2 250, Phenom II X4 940 BE
- BOINC-Statistiken
- Mein Laptop
- ASUS U38N
- Prozessor
- AMD FX-8150 @4 GHz
- Mainboard
- GIGABYTE GA-990XA-UD3
- Kühlung
- Antec H2O 920
- Speicher
- 4x4 GB DDR3-1866 CL9
- Grafikprozessor
- Sapphire Radeon HD 5770 (940/1290))
- Display
- 2x Eizo EV2333W-BK
- HDD
- SanDisk Extreme SSD 120 GB + 9 TB Storage-Server
- Optisches Laufwerk
- LiteOn iHOS104 (BluRay-ROM)
- Soundkarte
- Denon AVR-1610 :)
- Gehäuse
- Antec P183
- Netzteil
- Be Quiet! Dark Power 430W
- Betriebssystem
- Windows7 Ultimate x64
- Webbrowser
- Opera
- Schau Dir das System auf sysprofile.de an
Bevor Physik kein Thema in DirectX ist (was es bei DX11 ja werden soll) wird NV damit auch keienn großen Gewinn machen. Und wenn Physik über DX möglich ist, kann AMD/ATi und auch Intel über entsprechende Funktionseinheiten beschlaunigen. So gesehen hat NV nich nen riesen Vorteil.
Intel hat Havok, und damit Softwaeerfahrung, Nv hat Ageia und damit ne menge KnowHow in sachen Hardware, AMD hat ATi und kann mit deren Hardwarebeschleunigung auch was ausrichten (ich sage nur mal Fusion/Swift)... Also recht ausgeglichen würde ich sagen^^
Intel hat Havok, und damit Softwaeerfahrung, Nv hat Ageia und damit ne menge KnowHow in sachen Hardware, AMD hat ATi und kann mit deren Hardwarebeschleunigung auch was ausrichten (ich sage nur mal Fusion/Swift)... Also recht ausgeglichen würde ich sagen^^
eine spezialisierte physikberechnung macht im prinzip nur im highend-bereich sinn, wo sowohl grafik- als auch cpu-leistung stimmen. und ich wüßte nicht, warum nvidia da keine breite basis haben sollte. zwar ist das mit der erhebung von marktanteilen immer so eine sache und bei DigiTimes war auch nicht ausdrücklich erwähnt, um welche leistungsklasse es sich gehandelt hat, aber nvidia hatte zuletzt einen marktanteil bei "discrete graphics" von 70% (vorher 90%). wenn der leistungsabstand zwischen nvidia und amd so bleibt und damit auch die marktanteile, hätte nvidia sehr wohl die basis, um physikbeschleunigung im spiele-bereich massentauglich zu machen.Nvidia schaufelt sich ein Millionen Grab. Ohne breite Hardwarebasis wird es keine Games dafür geben und ohne AMD/ATI schaffen sie es nicht eine breite Basis aufzubauen.
The_crow
Grand Admiral Special
- Mitglied seit
- 04.06.2005
- Beiträge
- 2.674
- Renomée
- 80
- Prozessor
- RYZEN 9 7900X
- Mainboard
- ASUS TUF Gaming B650-PLUS -WIFI
- Kühlung
- NOCTUA NH-D15 chromax.black einige Lüfer von Cooler Master die beim Tower schon dabei waren.
- Speicher
- 2 x 16 GB Kingston 5600 mit EXPO
- Grafikprozessor
- AMD ASUS TUF Gaming OC RX7900 XTX 24 GB
- Display
- HP 27xq oder einen LG OLED48C1... an der Yamha Anlage die 5.1.2 kann und auch so genutzt wird.
- SSD
- Hab eine SATA 1 TB SSD Sandisk aber nicht als OS Platte im Moment. M.2 für OS Samsung SSD 980 PRO .
- HDD
- Sicher eine von denen die da sind aber welche?
- Optisches Laufwerk
- Optiarc
- Soundkarte
- Onboard Realtec leider nicht ganz so gut wie der alte. Nun per HDMI an den AVR.
- Gehäuse
- Cooler Master BigTower der bald mal weg muss.
- Netzteil
- be quiet! PURE POWER 12 M 1.000 Watt
- Tastatur
- Einfache Cherry USB
- Maus
- Logitech MX Master 3s
- Betriebssystem
- Win 11 + alle Updates
- Webbrowser
- größten Teils FireFox
So ein Mist!
Das wird ja immer komischer der Markt.
Was will NV mit denen? Nur mal wieder protzen?
Physik ist zwar wichtig, aber so wichtig ist es auch nicht. Ich hoffe bei AMD wird schon an was ähnlichem gebastelt.
Ein weiterer Grund bei AMD zu bleiben und Intel und NV links liegen zu lassen.
So langsam kann man sagen: Spiele auf dem PC werden nichts mehr dank den 3 Streithanseln.
Das wird ja immer komischer der Markt.
Was will NV mit denen? Nur mal wieder protzen?
Physik ist zwar wichtig, aber so wichtig ist es auch nicht. Ich hoffe bei AMD wird schon an was ähnlichem gebastelt.
Ein weiterer Grund bei AMD zu bleiben und Intel und NV links liegen zu lassen.
So langsam kann man sagen: Spiele auf dem PC werden nichts mehr dank den 3 Streithanseln.
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.472
- Renomée
- 82
- Standort
- Switzerland
- Mein Laptop
- LENOVO Y520-15, Intel i7-7700HQ, W10-Home
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Jo, würd ich auch sagen - Intel spielt in diesem Bereich sowieso keine Rolle.wenn der leistungsabstand zwischen nvidia und amd so bleibt und damit auch die marktanteile, hätte nvidia sehr wohl die basis, um physikbeschleunigung im spiele-bereich massentauglich zu machen
Aber war es nicht mal so, dass es geplant war die ganze PPU in die CPU einzubauen?
Dann wäre das sehr schnell verbreitet...
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
eine spezialisierte physikberechnung macht im prinzip nur im highend-bereich sinn, wo sowohl grafik- als auch cpu-leistung stimmen. und ich wüßte nicht, warum nvidia da keine breite basis haben sollte. zwar ist das mit der erhebung von marktanteilen immer so eine sache und bei DigiTimes war auch nicht ausdrücklich erwähnt, um welche leistungsklasse es sich gehandelt hat, aber nvidia hatte zuletzt einen marktanteil bei "discrete graphics" von 70% (vorher 90%). wenn der leistungsabstand zwischen nvidia und amd so bleibt und damit auch die marktanteile, hätte nvidia sehr wohl die basis, um physikbeschleunigung im spiele-bereich massentauglich zu machen.
Ich denke es wird wie immer abgespeckte Produkte geben. Denn wer will schon für einen 5% Highend Markt extra Programmieren, es muss erst eine Marktdurchdringung statt finden. Ageia konnte auch bisher den HighEnd Markt bestens bedienen und wie weit sie gekommen sind sieht man. Es wird durch NV etwas besser werden, aber lösen werden sie so das Problem nicht.
neax
Grand Admiral Special
Hi,
sicherlich eine gute Idee von Nvidia, wobei natürlich der Kaufpreis (Wie hoch ist der eigentlich?) in Ordnung sein sollte. Nvidia investiert damit nicht nur Hardware (sicherlich der nicht entscheidende Punkt) sondern in knowhow und sondern auch in Software
Greetz
neax
sicherlich eine gute Idee von Nvidia, wobei natürlich der Kaufpreis (Wie hoch ist der eigentlich?) in Ordnung sein sollte. Nvidia investiert damit nicht nur Hardware (sicherlich der nicht entscheidende Punkt) sondern in knowhow und sondern auch in Software
Ageias APEX soll der Unreal Engine 3.0 ab Anfang 2008 kostenlos beiliegen. Ageia plant auch, APEX in Zukunft für weitere Engines anzubieten und dieses in ähnlicher Form beizulegen. APEX soll nicht nur den PC, sondern auch Konsolenplattformen wie Xbox 360 und PlayStation 3 unterstützen. "Mit Ageia APEX ist Physik-basiertes Spieledesign nun leichter geworden", wirbt Ageia-Chef Manju Hegde.
Quelle
Greetz
neax
Lexxington
Vice Admiral Special
- Mitglied seit
- 28.12.2004
- Beiträge
- 807
- Renomée
- 6
- Standort
- Zwischen Hannover und Braunschweig
- Aktuelle Projekte
- Constellation
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad L420 // Samsung Galaxy Note GT-N7000 4.1.2
- Prozessor
- AMD Phenom II X2 555 => X4 B55 (3 Kerne funktionieren) @1,30V
- Mainboard
- ASUS M4A89GTD PRO/USB3 @2201
- Kühlung
- Noctua NH-D14 @7V
- Speicher
- 16 GB TeamGroup Elite (TED38192M1333HC9DC) CL9@1,3V mit 9-9-9-24
- Grafikprozessor
- Gainward GTX 560 Ti Phantom²
- Display
- Dell UltraSharp U2412M silber
- HDD
- 4x 1TB Samsung Spinpoint F1 HD103UJ, 1x Western Digital Caviar Green 2TB (EARS)
- Optisches Laufwerk
- SATA Brenner mit Lightscribe
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe x1
- Gehäuse
- LianLi PC 7 SE-B @ich-bin-leise-Schalldämmung mit 2x BQ Silent Wings USC@7V
- Netzteil
- Seasonic S12-500W
- Betriebssystem
- Windows 7 Ultimate x64
- Webbrowser
- FireFox
- Verschiedenes
- Lian Li EX-332B mit 3x Samsung Spinpoint F1 HD103UJ @BQ Silent Wings USC@7V
Weiß jemand den Kaufpreis?
Golem schreibt
Finanzielle Details zur Übernahme haben Nvidia und Ageia noch nicht verkündet. Noch ungewiss ist zudem, was Nvidia mit PhysX-Steckkarten zu tun gedenkt - durch die Konzentration auf CPUs und GPUs dürften sie wohl bald in der Versenkung verschwinden.
EDIT: Grad bei Hartware.net gefunden:
Nähere Informationen zur Akquisition gibt es anlässlich NVIDIAs Quartals-Telekonferenz am 13. Ferbuar um 23 Uhr deutscher Zeit. Die Einwahlnummer: 001-212-231-2901. Ein Passwort wird nicht benötigt. Ein Live-Webcast wird unter www.nvidia.com und www.streetevents.com übertragen. Eine Aufzeichnung der Telekonferenz ist via Telefon (001-402-977-9140; Passwort: 21354792) bis zum 20. Februar 2008 verfügbar.
Zuletzt bearbeitet:
neax
Grand Admiral Special
Hi,
grundlegender Gedanke von Nvidia ist wohl die Physik auf Grafikkarten zu berechnen. ein Features für die Geforce, das andere vielleicht so nicht hätten.
Über Erfolg oder Misserfolg entscheidet wohl letztendlich Microsoft. Nämlich dann wenn DirectX um eine Physik-Programmierschnittstelle ergänzt. Bis dahin sind zum jetzigen Zeitpunkt nur Insellösungen zu erwarten.
Ich hoffe, dass ist nicht das Ende von den Standards...wenn jeder seine eigene Suppe köchelt, wäre das für den Zocker nicht wirklich eine prima Lösung.
Greetz
neax
grundlegender Gedanke von Nvidia ist wohl die Physik auf Grafikkarten zu berechnen. ein Features für die Geforce, das andere vielleicht so nicht hätten.
Über Erfolg oder Misserfolg entscheidet wohl letztendlich Microsoft. Nämlich dann wenn DirectX um eine Physik-Programmierschnittstelle ergänzt. Bis dahin sind zum jetzigen Zeitpunkt nur Insellösungen zu erwarten.
Ich hoffe, dass ist nicht das Ende von den Standards...wenn jeder seine eigene Suppe köchelt, wäre das für den Zocker nicht wirklich eine prima Lösung.
Greetz
neax
I
ITpassion-de
Guest
grundlegender Gedanke von Nvidia ist wohl die Physik auf Grafikkarten zu berechnen. ein Features für die Geforce, das andere vielleicht so nicht hätten.
Physikberechnung auf einer Grafikkarte die ohnehin schon G(e)Force heißt ist doch alleine vom Namen her schon witzig .
Saulus
Grand Admiral Special
- Mitglied seit
- 11.07.2005
- Beiträge
- 8.747
- Renomée
- 95
- Mein Laptop
- ACER 5930G
- Prozessor
- ii7-4790K
- Mainboard
- GIGABYTE GA-Z97P-D3
- Kühlung
- HR-02 Macho Rev. B
- Speicher
- 16 GB DDR3-1600
- Grafikprozessor
- GTX 980ti
- Display
- 27" iiyama B2776HDS
- SSD
- 2x SSD 256GB
- HDD
- 1x HDD 750GB
- Optisches Laufwerk
- keins mehr
- Soundkarte
- nur noch Onboard
- Gehäuse
- ANTEC Sonata III
- Netzteil
- Enermax Liberty ECO II 720W
- Betriebssystem
- W7
- Webbrowser
- FireFox
Natürlich hat nV davon einen großen Vorteil, und gerade weil physik mit DX11 kommt.
Sie haben jetzt von 0 auf 100 viel know how, Patente, und Hardware.
AMD muss für DX11 von ganz vorne anfangen. nV muss nur ein wenig umbauen. Dazu sitzt nVidia nun sicher auf dem einen oder anderen wichtigen Patent was weder für intel noch für AMD besonders toll sein dürfte.
Sie haben jetzt von 0 auf 100 viel know how, Patente, und Hardware.
AMD muss für DX11 von ganz vorne anfangen. nV muss nur ein wenig umbauen. Dazu sitzt nVidia nun sicher auf dem einen oder anderen wichtigen Patent was weder für intel noch für AMD besonders toll sein dürfte.
denjo
Grand Admiral Special
- Mitglied seit
- 28.12.2005
- Beiträge
- 3.748
- Renomée
- 117
- Standort
- Kellinghusen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PDM <--- sowas gabs mal :(
- Lieblingsprojekt
- all
- Meine Systeme
- Ryzen 7 1700, 3.60GHz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen 9 3900X, 4,1Ghz All Core VID 1.13
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Thermalright Le Grand Macho RT
- Speicher
- Gskill F4-3600C16-8GTZNC -> 4*8 GB 3733Mhz (16-19-19-19-35)
- Grafikprozessor
- 5700XT Nitro+
- Display
- LG UltraGear 27GL850-B
- SSD
- Samsung 970 NVMe 1 TB
- HDD
- Western Digital Blue 4TB + 500 Samsung
- Optisches Laufwerk
- gehören der Vergangenheit an.
- Soundkarte
- Onboard
- Gehäuse
- bequite! PURE BASE 500
- Netzteil
- Enermax Revolution87+ 550 W GOLD -> Thx p3d
- Betriebssystem
- Windows X
- Webbrowser
- Chrome, Firefox
- Verschiedenes
- MEHR POWER ^^
- Internetanbindung
- ▼600 ▲50
ich glaube immer noch das nvidia in 2 jahren nur noch die 2 geige im gpu bereich spielen wird da amd mit ati einfach mehr ressourcen haben um potenziel gute gpu's zu konstruieren siehe r700 der wird ja schon mit 2 kleinen cores auf einem die kommen .... soetwas hat nvidia dan nicht und ich denke das es dan auch kein problem wäre nen X4 gpu zu konstruieren.
was soll nvidia den gegen ein solchen gpu entgegensetzen singlecore vs multicore ........ und zusätlich kommt noch die kleinere vertigungsstruktur der ati's hinzu ...........
http://www.hardware-mag.de/artikel/sonstiges/physikbeschleuniger_bfg_physx_im_test/4/
und selbst wenn dx11 physikbeschläunigung unterstützt bringt es beim einem leistungsstarken cpu soweiso nichts.
was soll nvidia den gegen ein solchen gpu entgegensetzen singlecore vs multicore ........ und zusätlich kommt noch die kleinere vertigungsstruktur der ati's hinzu ...........
http://www.hardware-mag.de/artikel/sonstiges/physikbeschleuniger_bfg_physx_im_test/4/
und selbst wenn dx11 physikbeschläunigung unterstützt bringt es beim einem leistungsstarken cpu soweiso nichts.
Zuletzt bearbeitet:
Vahdi
Fleet Captain Special
-flasch- sorry
neax
Grand Admiral Special
Hi,
Physik auf Grafikkarten zu berechnen wird schon etwas bringen. Wenn man sich die Entwicklung Anforderungen an Highend-Gamer-Ausstattung denkt.....hat auch die CPU mehr zu tun und die GPU kann vermutlich einiges einfach besser als die derzeitigen CPU (Natürlich stellt sich hier die Frage, wie sehen CPU der Zukunft aus (Fusion)/ Welcher Standard setzt sich durch?)
Nvidias Entwicklung ist noch nicht abzusehen. Vielleicht heißt Via bald auch Nvidia und es gibt CPUs mit Nvidia Logo....wer weiß.
Klar muss sich Nvidia zwischen AMD und Intel nun strategisch ausrichten. Derzeit besteht aber noch kein Handlungsbedarf....zumindest kein akuter.
Greetz
neax
Physik auf Grafikkarten zu berechnen wird schon etwas bringen. Wenn man sich die Entwicklung Anforderungen an Highend-Gamer-Ausstattung denkt.....hat auch die CPU mehr zu tun und die GPU kann vermutlich einiges einfach besser als die derzeitigen CPU (Natürlich stellt sich hier die Frage, wie sehen CPU der Zukunft aus (Fusion)/ Welcher Standard setzt sich durch?)
Nvidias Entwicklung ist noch nicht abzusehen. Vielleicht heißt Via bald auch Nvidia und es gibt CPUs mit Nvidia Logo....wer weiß.
Klar muss sich Nvidia zwischen AMD und Intel nun strategisch ausrichten. Derzeit besteht aber noch kein Handlungsbedarf....zumindest kein akuter.
Greetz
neax
Saulus
Grand Admiral Special
- Mitglied seit
- 11.07.2005
- Beiträge
- 8.747
- Renomée
- 95
- Mein Laptop
- ACER 5930G
- Prozessor
- ii7-4790K
- Mainboard
- GIGABYTE GA-Z97P-D3
- Kühlung
- HR-02 Macho Rev. B
- Speicher
- 16 GB DDR3-1600
- Grafikprozessor
- GTX 980ti
- Display
- 27" iiyama B2776HDS
- SSD
- 2x SSD 256GB
- HDD
- 1x HDD 750GB
- Optisches Laufwerk
- keins mehr
- Soundkarte
- nur noch Onboard
- Gehäuse
- ANTEC Sonata III
- Netzteil
- Enermax Liberty ECO II 720W
- Betriebssystem
- W7
- Webbrowser
- FireFox
Nichts für ungut aber das sind wirklich teils lächerliche Mutmaßungen.ich glaube immer noch das nvidia in 2 jahren nur noch die 2 geige im gpu bereich spielen wird da amd mit ati einfach mehr ressourcen haben um potenziel gute gpu's zu konstruieren siehe r700 der wird ja schon mit 2 kleinen cores auf einem die kommen .... soetwas hat nvidia dan nicht und ich denke das es dan auch kein problem wäre nen X4 gpu zu konstruieren.
was soll nvidia den gegen ein solchen gpu entgegensetzen singlecore vs multicore ........ und zusätlich kommt noch die kleinere vertigungsstruktur der ati's hinzu ...........
ATi hat seit vielen Jahren Marktanteile verloren Jahr für Jahr immer weniger, bis ATi so klein war das einen poplige Firma wie AMD sie aufkaufen konnte. Es gab mal Zeiten da hätte ATi AMD kaufen können. Es gab bei ATI nur mal eine kleiner Erholungspause und das war als nVidia mit der XBOX1 Entwicklung etwas den Anschluss verloren hatte. Was dann wieder aufgeholt wurde, und nachdem ATi für die XBox2 entwinkelte sogar deutlich überholt wurde. Das wollte mir damals keiner glauben das ATI an der XBox2 zu viel Ressourcen verschwenden wird. Aber mittlerweile kann man das gut sehen.
Dual GPU... gähn wenn das alles ist was ATI schaft. Das ist eine reine Verzweiflungstat. Ich prophezeie das das Teil nicht die Bohne schneller ist als das was nVidia anbieten kann. Und nVidia dann noch immer eine zweite GPU auf das PBC löten kann.
http://www.hardware-mag.de/artikel/sonstiges/physikbeschleuniger_bfg_physx_im_test/4/
und selbst wenn dx11 physikbeschläunigung unterstützt bringt es beim einem leistungsstarken cpu soweiso nichts.
Ich bin ja total begeistert....
Ich habe damals vor dem Start der Physikkarten schon gesagt die Bandbreite vom PCI Bus ist viel zu gering für besondere Berechnungen und eine moderne CPU entlasten könnte. Auch das wollte mir keiner glauben. Das Ergebnis hat dann ja so ein Test wie dieser schön gezeigt. Aber in einem PCIe X16 dürfte ausreichend Bandbreite vorhanden sein das so eine extra CPU Sinn macht.
denjo
Grand Admiral Special
- Mitglied seit
- 28.12.2005
- Beiträge
- 3.748
- Renomée
- 117
- Standort
- Kellinghusen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PDM <--- sowas gabs mal :(
- Lieblingsprojekt
- all
- Meine Systeme
- Ryzen 7 1700, 3.60GHz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen 9 3900X, 4,1Ghz All Core VID 1.13
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Thermalright Le Grand Macho RT
- Speicher
- Gskill F4-3600C16-8GTZNC -> 4*8 GB 3733Mhz (16-19-19-19-35)
- Grafikprozessor
- 5700XT Nitro+
- Display
- LG UltraGear 27GL850-B
- SSD
- Samsung 970 NVMe 1 TB
- HDD
- Western Digital Blue 4TB + 500 Samsung
- Optisches Laufwerk
- gehören der Vergangenheit an.
- Soundkarte
- Onboard
- Gehäuse
- bequite! PURE BASE 500
- Netzteil
- Enermax Revolution87+ 550 W GOLD -> Thx p3d
- Betriebssystem
- Windows X
- Webbrowser
- Chrome, Firefox
- Verschiedenes
- MEHR POWER ^^
- Internetanbindung
- ▼600 ▲50
Nichts für ungut aber das sind wirklich teils lächerliche Mutmaßungen.
klar ist ja auch spekulatios ^^ mal gucken was in einem jahr ist
G
Gast17122020
Guest
Imho wird es eh in absehbarer Zeit nur noch die 2 Lager geben: Intel Systeme und AMD/Ati Systeme. Dazu ein paar Grakas die eh irgenwann Realismus erreicht haben und dann (leg mich jetzt nicht auf Jahre fest) im Gamingbereich Ende ist.
ICh weiss nciht mehr die Ausgabe der C´t wo darauf eingegangen wurde. CPÚ´s werden noch sehr lange LEistungssteigerungen bringen da auch benötigt.
Grakas? Definitiv irgendwann Ende.
UNd wie Nvidia gegen die Lager AMd/Ati , Intel bestehen will weiss ich nicht.
Imho spekulier: Intel kauft Nvidia ?!?!
Morpheus
ICh weiss nciht mehr die Ausgabe der C´t wo darauf eingegangen wurde. CPÚ´s werden noch sehr lange LEistungssteigerungen bringen da auch benötigt.
Grakas? Definitiv irgendwann Ende.
UNd wie Nvidia gegen die Lager AMd/Ati , Intel bestehen will weiss ich nicht.
Imho spekulier: Intel kauft Nvidia ?!?!
Morpheus
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Ich finde es gut, dass Nvidia Ageia gekauft hat. Noch besser finde ich es allerdings, dass AMD es nicht getan hat. Die Vorteile sehe ich ganz klar in der Konkurrenz. Durch den Aufkauf von Havok durch Intel drohte eine massive Dominanz von, was auch immer Intel vor hat. Nvidia hat durch seine Grakas eine gute Marktdurchdringung und auch genügend Kapital, um eine PPU-Lösung zu forcieren. Ob das nun durch einen Zusatzchip oder in die Grakas integriert sein wird kann uns erstmal egal sein. Auch Microsoft kann nicht so einfach über die Wünsche von Nvidia hinweggehen, das hat für uns hoffentlich den Vorteil, dass die Physikschnittstelle offen für mehrere Standards (Physik per CPU oder PPU) wird. Also lasst den Kampf um die beste Lösung beginnen.
AMD wollte nach meiner Erinnerung eh eine eigene Lösug anbieten. Durch den Kauf müssen sie das nun forcieren oder sie sagen sich, unsere Quadcores sind für CPU-Physik gut gerüstet. Eigentlich kann sich AMD genüsslich zurücklehnen und abwarten, welche Lösung sich durchsetzt bis sie mit eigenen Produkten kommen.
AMD wollte nach meiner Erinnerung eh eine eigene Lösug anbieten. Durch den Kauf müssen sie das nun forcieren oder sie sagen sich, unsere Quadcores sind für CPU-Physik gut gerüstet. Eigentlich kann sich AMD genüsslich zurücklehnen und abwarten, welche Lösung sich durchsetzt bis sie mit eigenen Produkten kommen.
Ich weiss gar nicht, was ihr euch da Sorgen macht. AMD/ATI hat sicher genug Manpower um eine eigene Lösung auf die Beine zu stellen. Sobald Physikbeschleunigung in Directx integriert ist, existiert ein Standard auf den man sich einschiessen kann. AMD spart sich halt die Grundlagenarbeit und ich denke nicht dass das ein so großer Nachteil ist.
Nvidia hat Ageia doch nur gekauft, damits kein anderer macht. Deshalb hat doch auch Intel Havok gekauft, damit die Physikbeschleunigung per Grafikkarte die Bedeutung der CPUs nicht noch weiter verringert.
Denkt an den Crysis-Quadcore Hoax...
Nvidia hat Ageia doch nur gekauft, damits kein anderer macht. Deshalb hat doch auch Intel Havok gekauft, damit die Physikbeschleunigung per Grafikkarte die Bedeutung der CPUs nicht noch weiter verringert.
Denkt an den Crysis-Quadcore Hoax...
Ähnliche Themen
- Antworten
- 21
- Aufrufe
- 5K
- Antworten
- 39
- Aufrufe
- 10K
- Antworten
- 14
- Aufrufe
- 4K
- Antworten
- 27
- Aufrufe
- 5K