App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
hl² vollkommen flüssig mit dx9 auf ner fx!
- Ersteller c0ld.aS.iCe
- Erstellt am
c0ld.aS.iCe
Cadet
- Mitglied seit
- 27.10.2004
- Beiträge
- 17
- Renomée
- 0
Oh, it's pretty sad really.
Basically, some guys on Guru3d figured out what Valve did to cripple nVidia cards.
First off, you need 3dAnalyze. I'm assuming everyone knows that you can force HL2 to run in DX9 mode on FX cards, right? Only, you get artifacts in the water and other areas?
Well, that's pretty easy to fix. Just have the 3dAnalyze util report your card as an ATI Radeon instead of a GeForce FX.
*taddah* All the artifacts go away, and you get true DX9 reflections!
Okay, but there IS a performance hit doing that. How to get around that?
Well, the funny thing is that Valve coded Half-Life 2 to use FP24 shaders all the time every time. And it's really not needed. Nope. In fact, FP16 seems to do the trick all the time - as seen in that above pic. FP16 and FP24 are indistinguishable in Half-Life 2.
Again, using 3dAnalyze you can test this. It is capable of forcing a card to use only FP16 shaders no matter what is requested. You'll see no image quality difference doing that - just a HUGE performance boost. Why? Well, because while FP16 is all that Half-Life 2 *needs*, if they let the GeForce FX cards do THAT, they might have been competitive! So, instead, they forced FP24 (unneeded), which caused the GF-FX cards to render the DX9 mode in FP32 all the time. With the obvious associated performance hit.
Try it yourself. The link to the article is here. Download 3dAnalyze, and follow these instructions:
Quote:
Originally Posted by Presi
Open it and follow the numbers:
1. select HL2.exe file in half-life 2 folder
2. select any file inside the folder half-life 2\bin
3. select Steam.exe
than check these options:
- Under the section Pixel and Vertex Shader: FORCE LOW PRECISION PIXEL SHADER
- Under the section Remove stuttering: PERFORMANCE MODE
- on the bottom left: FORCE HOOK.DLL
If you haven't change the file dxsupport.cfg with the method described in the beginnig of this thread, you can obtain the same result typing in the section DIRECTX DEVICE ID'S the ATI Vendor and Device ID, there are just two device though.
....
In the end 3D ANALYZE gives me an error, CREATEPROCESS FAILED, I launch HL2 anyway, the water looked awesome, awesome detail and I noticed a boost in performance too. I think around 20/30% which allowed me to play the WATER HAZARD level with this setting: 1024x768 everything max, water relection to ALL, 2xAA, 4xAnisotropic with a range of fps of 40 and >150.
Amazing, huh?
Basically, some guys on Guru3d figured out what Valve did to cripple nVidia cards.
First off, you need 3dAnalyze. I'm assuming everyone knows that you can force HL2 to run in DX9 mode on FX cards, right? Only, you get artifacts in the water and other areas?
Well, that's pretty easy to fix. Just have the 3dAnalyze util report your card as an ATI Radeon instead of a GeForce FX.
*taddah* All the artifacts go away, and you get true DX9 reflections!
Okay, but there IS a performance hit doing that. How to get around that?
Well, the funny thing is that Valve coded Half-Life 2 to use FP24 shaders all the time every time. And it's really not needed. Nope. In fact, FP16 seems to do the trick all the time - as seen in that above pic. FP16 and FP24 are indistinguishable in Half-Life 2.
Again, using 3dAnalyze you can test this. It is capable of forcing a card to use only FP16 shaders no matter what is requested. You'll see no image quality difference doing that - just a HUGE performance boost. Why? Well, because while FP16 is all that Half-Life 2 *needs*, if they let the GeForce FX cards do THAT, they might have been competitive! So, instead, they forced FP24 (unneeded), which caused the GF-FX cards to render the DX9 mode in FP32 all the time. With the obvious associated performance hit.
Try it yourself. The link to the article is here. Download 3dAnalyze, and follow these instructions:
Quote:
Originally Posted by Presi
Open it and follow the numbers:
1. select HL2.exe file in half-life 2 folder
2. select any file inside the folder half-life 2\bin
3. select Steam.exe
than check these options:
- Under the section Pixel and Vertex Shader: FORCE LOW PRECISION PIXEL SHADER
- Under the section Remove stuttering: PERFORMANCE MODE
- on the bottom left: FORCE HOOK.DLL
If you haven't change the file dxsupport.cfg with the method described in the beginnig of this thread, you can obtain the same result typing in the section DIRECTX DEVICE ID'S the ATI Vendor and Device ID, there are just two device though.
....
In the end 3D ANALYZE gives me an error, CREATEPROCESS FAILED, I launch HL2 anyway, the water looked awesome, awesome detail and I noticed a boost in performance too. I think around 20/30% which allowed me to play the WATER HAZARD level with this setting: 1024x768 everything max, water relection to ALL, 2xAA, 4xAnisotropic with a range of fps of 40 and >150.
Amazing, huh?
darki
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.279
- Renomée
- 4
- Standort
- Austria
- Mein Laptop
- HP Compaq nc8430
- Prozessor
- AMD Athlon 64 3700+
- Mainboard
- ASRock 939Dual-SATA2
- Kühlung
- AMD Boxed
- Speicher
- 2x 1024MB PC400 Kingston
- Grafikprozessor
- ATI X800XT-PE
- Display
- 19" NEC 90GX2
- HDD
- Samsung SP1213C
- Optisches Laufwerk
- Pioneer DVD-106
- Soundkarte
- Creative SB Audigy 2 ZS
- Netzteil
- Enermax EG465AX-VE
- Betriebssystem
- Windows Vista Ultimate 64bit / Windows XP
Gleich mal testen, wenn ich meine tin box mal bekommen sollte.
Hier steht noch ein bisschen was darüber: http://forums.nvidia.com/index.php?showtopic=233
u.a. ist da auch ein Bild.
Das Wasser sieht vollkommen ok aus.
u.a. ist da auch ein Bild.
Das Wasser sieht vollkommen ok aus.
darki
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.279
- Renomée
- 4
- Standort
- Austria
- Mein Laptop
- HP Compaq nc8430
- Prozessor
- AMD Athlon 64 3700+
- Mainboard
- ASRock 939Dual-SATA2
- Kühlung
- AMD Boxed
- Speicher
- 2x 1024MB PC400 Kingston
- Grafikprozessor
- ATI X800XT-PE
- Display
- 19" NEC 90GX2
- HDD
- Samsung SP1213C
- Optisches Laufwerk
- Pioneer DVD-106
- Soundkarte
- Creative SB Audigy 2 ZS
- Netzteil
- Enermax EG465AX-VE
- Betriebssystem
- Windows Vista Ultimate 64bit / Windows XP
Ja, sieht nicht schlecht aus.
IVIaraud3R
Grand Admiral Special
- Mitglied seit
- 18.07.2002
- Beiträge
- 6.844
- Renomée
- 196
I hope I can re-animate my 5900 ... could be quite interesting to make a head-to-head with my 9700Pro
Hübie
Grand Admiral Special
- Mitglied seit
- 25.06.2002
- Beiträge
- 3.037
- Renomée
- 83
- Mein Laptop
- Honor MagicBook Pro AMD Mystic Silver
- Prozessor
- AMD Ryzen 7 5800X3D @Wakü
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Mora3 @9*eLoops
- Speicher
- G.Skill Trident Z RGB 32GB DDR4-3600
- Grafikprozessor
- AMD Radeon RX 6800 XT @Wakü
- Display
- LC-M34-UWQHD-144-C (UWQHD)
- SSD
- Corsair 600p 1TB (System), Crucial MX500 2TB (Spiele), Crucial 2TB (Daten)
- Soundkarte
- Logitech G735
- Gehäuse
- be quiet! Dark Base Pro 900
- Netzteil
- be quiet! Dark Power 13 850W ATX 3.0
- Tastatur
- Logitech G915 TKL weiß
- Maus
- Logitech G Pro X weiß
- Betriebssystem
- Windows 11 x64 Professional + Updates
- Webbrowser
- Vivaldi
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼70 MBit/s ▲50 MBit/s
Also wenn ihr mich fragt spinnen die Spielehersteller doch allmälig. Erst die Sache bei Doom³ und nun bei Half-Life² ...Was soll das denn?
Ich möchte zocken und net mir zu jedem Spiel die passende Graka kaufen müssen... tztztzzz... Bin zwar ATi-Jünger aber sowas is doch einfach net okay - für beide "Seiten" net!
bye Hübie
Ich möchte zocken und net mir zu jedem Spiel die passende Graka kaufen müssen... tztztzzz... Bin zwar ATi-Jünger aber sowas is doch einfach net okay - für beide "Seiten" net!
bye Hübie
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.757
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
warum jetzt alle auf Valve hinhacken ist mir rein logisch nicht klar. Wenn hier jemand schuld ist dann sehr wahrscheinlich ATi (und das sage ich als ATi user). Valve waere doch unendlich doof wenn sie die FX user aufgrund von den kuenstlich erzwungenen 24/32 Bit praezision ausschliessen wurden! ich bin mir zu 100% sicher, dass diese "vorgabe" von ATi gekommen ist als teil der abmachung zwischen beiden marken. nebenbei bin ich trotzdem der meinung dass die FX generation die mit abstand schwaechste war, die NVidia jemals rausgebracht hat, mit dem NV30 als totaler katastrophe.
Exlua
Grand Admiral Special
- Mitglied seit
- 26.10.2002
- Beiträge
- 3.955
- Renomée
- 4
- Standort
- W:\EU\GER\BW\VAI
- Aktuelle Projekte
- Spinhenge@Home
- Lieblingsprojekt
- Spinhenge@Home
- BOINC-Statistiken
Original geschrieben von DarkRain
Gleich mal testen, wenn ich meine tin box mal bekommen sollte.
Meine wurde heute abgeschickt.
Original geschrieben von OnYX
warum jetzt alle auf Valve hinhacken ist mir rein logisch nicht klar. Wenn hier jemand schuld ist dann sehr wahrscheinlich ATi (und das sage ich als ATi user). Valve waere doch unendlich doof wenn sie die FX user aufgrund von den kuenstlich erzwungenen 24/32 Bit praezision ausschliessen wurden! ich bin mir zu 100% sicher, dass diese "vorgabe" von ATi gekommen ist als teil der abmachung zwischen beiden marken. nebenbei bin ich trotzdem der meinung dass die FX generation die mit abstand schwaechste war, die NVidia jemals rausgebracht hat, mit dem NV30 als totaler katastrophe.
Sicher ist ATI Schuld. Aber nicht alleine verantwortlich. Wenn ATI Valve so einen Deal vorschlägt, muss Valve ja nicht darauf eingehen... Also ist Valve schon Schuld. Eigentlich sogar mehr, da es dabei um IHRE Kunden geht. Es hat sich aber gezeigt, dass Valve nicht das geringste Interesse an den Kunden hat, sondern nur an dem Geld der Kunden. (Oder halt am Geld von ATI. Und da kam bestimmt nicht zuwenig rüber.)
Damit hier kein ATI-NVIDIA Streit ausbricht:
Beide stellen gute Karten her. Beide versuchen teils schmutzig den anderen auszustechen.
Schuld an der HL² Sache ist hauptsächlich Valve. Die würden für Geld wahrscheinlich sogar ihre Großmütter verkaufen. (Spass )
Redphil
Grand Admiral Special
- Mitglied seit
- 13.02.2004
- Beiträge
- 6.415
- Renomée
- 152
- Standort
- L, FG
- Mein Laptop
- Dell Vostro 1510 mit Celeron-M 540
- Prozessor
- Intel Pentium G6950
- Mainboard
- Intel DP55KG
- Kühlung
- Scythe Yasya
- Speicher
- 4 GB Crucial Tracer DDR3
- Grafikprozessor
- Sapphire Radeon HD 5830
- Display
- EIZO S1901
- HDD
- WD800HLFS; WD6400AAKS
- Optisches Laufwerk
- Samsung SH-S203N
- Gehäuse
- Lian-Li PC-P60
- Netzteil
- PC Power&Cooling Silencer Quad Crossfire
- Betriebssystem
- Win7
- Webbrowser
- Firefox
Original geschrieben von DaBrain
Die würden für Geld wahrscheinlich sogar ihre Großmütter verkaufen. (Spass ) [/B]
->hab neulich 3 davon bei ebay ersteigert. 8)
Ernst: Kann nvidia das nicht mit optimiertem Treiber beheben ( die beta 67.02 (?) soll ja auch schon hl2 optimiert sein).
darki
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.279
- Renomée
- 4
- Standort
- Austria
- Mein Laptop
- HP Compaq nc8430
- Prozessor
- AMD Athlon 64 3700+
- Mainboard
- ASRock 939Dual-SATA2
- Kühlung
- AMD Boxed
- Speicher
- 2x 1024MB PC400 Kingston
- Grafikprozessor
- ATI X800XT-PE
- Display
- 19" NEC 90GX2
- HDD
- Samsung SP1213C
- Optisches Laufwerk
- Pioneer DVD-106
- Soundkarte
- Creative SB Audigy 2 ZS
- Netzteil
- Enermax EG465AX-VE
- Betriebssystem
- Windows Vista Ultimate 64bit / Windows XP
Original geschrieben von Exlua
Meine wurde heute abgeschickt.
ARGH....
Ich wünsch dir noch viel spass damit!
Exlua
Grand Admiral Special
- Mitglied seit
- 26.10.2002
- Beiträge
- 3.955
- Renomée
- 4
- Standort
- W:\EU\GER\BW\VAI
- Aktuelle Projekte
- Spinhenge@Home
- Lieblingsprojekt
- Spinhenge@Home
- BOINC-Statistiken
Original geschrieben von DarkRain
ARGH....
Ich wünsch dir noch viel spass damit!
Die leute von www.okaysoft.de sind eben fix die wohlten erst eigentlich am 3.12 verschicken ,aber die wird schon am 1.12 verschickt.
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Das Problem liegt eher bei der DX9 Vorgabe welche nunmal 24 Bit Präzision als Standard ansieht. Die FX-Reihe (wie auch die Gf 6) kann aber nur entweder 16- oder 32 Bit, wobei 32 Bit Präzision bei der FX deutlich Perfomance frisst.
Valve musste nun abwägen wie die FX nun angesprochen werden soll: Mit 16 Bit Präzision (schnell aber bei Overbrighteffekten z.T. eine Verschlechterung der Bildquali gegenüber 24/32 Bit) oder mit der langsamen 32 Bit Präzision.
Das letztere wurde genommen und daher die FX eingebremst! Warum Valve so entschieden hat mag dahingestellt sein, ich möchte hier nichts unterstellen.
MfG 8)
Valve musste nun abwägen wie die FX nun angesprochen werden soll: Mit 16 Bit Präzision (schnell aber bei Overbrighteffekten z.T. eine Verschlechterung der Bildquali gegenüber 24/32 Bit) oder mit der langsamen 32 Bit Präzision.
Das letztere wurde genommen und daher die FX eingebremst! Warum Valve so entschieden hat mag dahingestellt sein, ich möchte hier nichts unterstellen.
MfG 8)
Exlua
Grand Admiral Special
- Mitglied seit
- 26.10.2002
- Beiträge
- 3.955
- Renomée
- 4
- Standort
- W:\EU\GER\BW\VAI
- Aktuelle Projekte
- Spinhenge@Home
- Lieblingsprojekt
- Spinhenge@Home
- BOINC-Statistiken
Original geschrieben von James Ryan
Das Problem liegt eher bei der DX9 Vorgabe welche nunmal 24 Bit Präzision als Standard ansieht. Die FX-Reihe (wie auch die Gf 6) kann aber nur entweder 16- oder 32 Bit, wobei 32 Bit Präzision bei der FX deutlich Perfomance frisst.
Valve musste nun abwägen wie die FX nun angesprochen werden soll: Mit 16 Bit Präzision (schnell aber bei Overbrighteffekten z.T. eine Verschlechterung der Bildquali gegenüber 24/32 Bit) oder mit der langsamen 32 Bit Präzision.
Das letztere wurde genommen und daher die FX eingebremst! Warum Valve so entschieden hat mag dahingestellt sein, ich möchte hier nichts unterstellen.
MfG 8)
Lieber ein schönes Bild ,als ein schlechte Bildqualität.
LOCHFRASS
Admiral Special
- Mitglied seit
- 25.02.2002
- Beiträge
- 1.816
- Renomée
- 2
- Mein Laptop
- Thinkpad X60t SXGA+
- Prozessor
- C2D L7400
- Speicher
- 3 GB
- Betriebssystem
- Debian/SID
Original geschrieben von c0ld.aS.iCe
Again, using 3dAnalyze you can test this. It is capable of forcing a card to use only FP16 shaders no matter what is requested. You'll see no image quality difference doing that - just a HUGE performance boost. Why? Well, because while FP16 is all that Half-Life 2 *needs*, if they let the GeForce FX cards do THAT, they might have been competitive! So, instead, they forced FP24 (unneeded), which caused the GF-FX cards to render the DX9 mode in FP32 all the time. With the obvious associated performance hit.
Wenn man Bencht, sollte die ATi, der Fairness halber, dann aber auch auf FP16 laufen.
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.757
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
Original geschrieben von DaBrain
Soweit ich weiss bringt macht FP16 kaum einen Unterschied zu FP24 bei ATI. (Performance)
soweit ich weiss unterstuetzt ATi NUR 24bit (dafuer aber recht flott )
LarsPower
Vice Admiral Special
- Mitglied seit
- 25.03.2002
- Beiträge
- 937
- Renomée
- 3
- Standort
- Hamburg
- Aktuelle Projekte
- Rosetta@Home
- Lieblingsprojekt
- Rosetta@Home
- BOINC-Statistiken
- Mein Laptop
- Dell XPS 1730
- Prozessor
- iCore7 2600K@4500
- Mainboard
- Asrock Z86 Extreme 3 Gen 3
- Kühlung
- EKL Brocken
- Speicher
- 4*4096 RipjawsX F3-12800CL9D-4GBXL
- Grafikprozessor
- Asus Geforce 680 GTX
- Display
- 27" Dell U2711 & 22" EIZO S2231 1600*1080
- HDD
- OCZ Vertex2 120 Gig, Intel Postville G2 160 Gig, WD 640GB AAKS, WD 500 GB AAKS, WD 1000 GB
- Optisches Laufwerk
- Optiaric
- Soundkarte
- Creativ X-Fi
- Gehäuse
- Coolermaster Wavemaster
- Netzteil
- Cougar SX 700
- Betriebssystem
- Windows 7 Home Premium
- Webbrowser
- Firefox
Stellt sich doch die Frage, warum man den FX Usern nicht die Wahl läßt (per Einstellung) ob sie doch nicht DX9 meinetwegen auch mit 32 Bit Präzision wollen. Ich denke schon das eine FX5950 das noch in flüssig schaffen könnte. Ich sehe da schon eine Bevormundung des Kunden von Valve mit einem Deal von ATI. Und wer hier denkt, ich flame weil ich ne Nvidia habe, meine letzte Karte davor war auch ne Radeon9800Pro und die war sehr gut. Aber die neuen Atis waren einfach zu schwer zu besorgen und die neue Geforce Generation finde ich wieder gar nicht schlecht. Die FX5 Generation war in der Tat meiner Meinung nach die schlechteste von Nvidia ever. ABER trotzdem den Spieler so zu verarschen is dreist, man hätte default,mäßig DX8 einschalten sollen, und wenn der Spieler auf DX9 switcht ihn meinetwegen noch mit einer Warnung das die Performance wahrscheinlich nicht ausreichen könnte warnen können.
Hübie
Grand Admiral Special
- Mitglied seit
- 25.06.2002
- Beiträge
- 3.037
- Renomée
- 83
- Mein Laptop
- Honor MagicBook Pro AMD Mystic Silver
- Prozessor
- AMD Ryzen 7 5800X3D @Wakü
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Mora3 @9*eLoops
- Speicher
- G.Skill Trident Z RGB 32GB DDR4-3600
- Grafikprozessor
- AMD Radeon RX 6800 XT @Wakü
- Display
- LC-M34-UWQHD-144-C (UWQHD)
- SSD
- Corsair 600p 1TB (System), Crucial MX500 2TB (Spiele), Crucial 2TB (Daten)
- Soundkarte
- Logitech G735
- Gehäuse
- be quiet! Dark Base Pro 900
- Netzteil
- be quiet! Dark Power 13 850W ATX 3.0
- Tastatur
- Logitech G915 TKL weiß
- Maus
- Logitech G Pro X weiß
- Betriebssystem
- Windows 11 x64 Professional + Updates
- Webbrowser
- Vivaldi
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼70 MBit/s ▲50 MBit/s
Naja ich denke auch, dass nVidia sich ATi und DX9 hätte anpassen können und einen 24bit präzisen Vertexshader hätten nehmen sollen. Oder halt umgekehrt...ATi und DX9 wie nVidia...was auch immer... was ich sagen will is das die ein Brei kochen sollen... nVidia hat bei Doom³ doch auch mist gemacht. Da musste sich n ATi mitarbeiter an kopp fassen als er den shadercode sah.
Naja. In Zukunft: Für jedes Spiel gibts eine eigene Grafikkarte und n Lottoschein
bye Hübie
Naja. In Zukunft: Für jedes Spiel gibts eine eigene Grafikkarte und n Lottoschein
bye Hübie
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.757
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
das problem der FX karten ist einfach die saumiese shader performance unter 32bit. offenbar hat NVidia diese selbst durch massive treiberoptimierungen nicht verbessern koennen. das deutet darauf hin dass die hardware lahm sein muss (oder NVidias coder, was ich nicht glaube). der 32bit support bei FX karten war nichts anderes als ein werbegag bzw. ein pseudofeature seitens NVidia um kunden zu fangen und ATi mit deren "nur 24 bit" auszustechen. ich ziehe hier nur ueber die FX generation her, die 6800er sind allesamt sehr gute karten meiner meinung nach.
Redphil
Grand Admiral Special
- Mitglied seit
- 13.02.2004
- Beiträge
- 6.415
- Renomée
- 152
- Standort
- L, FG
- Mein Laptop
- Dell Vostro 1510 mit Celeron-M 540
- Prozessor
- Intel Pentium G6950
- Mainboard
- Intel DP55KG
- Kühlung
- Scythe Yasya
- Speicher
- 4 GB Crucial Tracer DDR3
- Grafikprozessor
- Sapphire Radeon HD 5830
- Display
- EIZO S1901
- HDD
- WD800HLFS; WD6400AAKS
- Optisches Laufwerk
- Samsung SH-S203N
- Gehäuse
- Lian-Li PC-P60
- Netzteil
- PC Power&Cooling Silencer Quad Crossfire
- Betriebssystem
- Win7
- Webbrowser
- Firefox
So, ich bin stolzer fx 5900xt Besitzer und habe dementsprechend mal auch nach Anleitung im verlinkten Forum die directx9-Variante von hl2 probiert (ich glaube aber noch ohne low-precision pixel shader, da muss ich nochmal schauen).
Schon ulkig, wenn man vorgaukelt, eine Radeon9800 zu benutzen.
Wasser wurde besser, aber am Interessantesten fand ich folgendes:
-hatte die Veränderungen in den Konfigurationsdateien wieder rückgängig gemacht, den dx9
launchlevel- Befehl aber beibehalten
->schwupdiwup, war das Wasser weg!
War gerade im Buggy-Level, wo man nett am Meer entlangdüst, und bin erstmal im unsichtbaren Wasser ertrunken. Man sieht also nur braune Meeresbodentexturen, wie, als würde der Strand normal weitergehen, nur ist eben da schon Wasser.
Mal sehen, werde noch die 16 Shader Geschichte probieren.
Schon ulkig, wenn man vorgaukelt, eine Radeon9800 zu benutzen.
Wasser wurde besser, aber am Interessantesten fand ich folgendes:
-hatte die Veränderungen in den Konfigurationsdateien wieder rückgängig gemacht, den dx9
launchlevel- Befehl aber beibehalten
->schwupdiwup, war das Wasser weg!
War gerade im Buggy-Level, wo man nett am Meer entlangdüst, und bin erstmal im unsichtbaren Wasser ertrunken. Man sieht also nur braune Meeresbodentexturen, wie, als würde der Strand normal weitergehen, nur ist eben da schon Wasser.
Mal sehen, werde noch die 16 Shader Geschichte probieren.
Original geschrieben von OnYX
das problem der FX karten ist einfach die saumiese shader performance unter 32bit. offenbar hat NVidia diese selbst durch massive treiberoptimierungen nicht verbessern koennen. das deutet darauf hin dass die hardware lahm sein muss (oder NVidias coder, was ich nicht glaube). der 32bit support bei FX karten war nichts anderes als ein werbegag bzw. ein pseudofeature seitens NVidia um kunden zu fangen und ATi mit deren "nur 24 bit" auszustechen. ich ziehe hier nur ueber die FX generation her, die 6800er sind allesamt sehr gute karten meiner meinung nach.
Die FP Präzision hat doch nichts mit Farbtiefe zu tuu, oder?
Ansonsten kann man sich den Vorteil von FP32 gut vorstellen.
32-Bit = 24-Bit + Alpha Channel
Mit dem Alpha Channel kann man allerlei nette Sachen anstellen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 347
- Antworten
- 0
- Aufrufe
- 564
- Antworten
- 0
- Aufrufe
- 440