App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Benchmarkoptimierungen bei NVIDIA und ATI.
- Ersteller jensibensi
- Erstellt am
jensibensi
Admiral Special
<a href="http://www.3dcenter.de/" target="b">3DCenter</a> hat sich noch einmal des leidigen Themas "Benchmarkoptimierung" angenommen. Wobei man für "optimieren" auch noch andere Ausdrücke verwenden könnte, die nicht ganz so freundlich klingen.
In einem ziemlich umfangreichen Test wurden Grafikkarten von <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> und <a href="http://www.ati.de/" target="b">ATI</a> diversen Benchmark Tests unterzogen. Hierbei hat sich <a href="http://www.3dcenter.de/" target="b">3DCenter</a> die Mühe gemacht nicht nur diverse Benchmarks zum Test heranzuziehen, sondern auch diverse Treiber mit zu testen. So wurden bei <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> die Treiber 44.03 bis 44.90 und bei <a href="http://www.ati.de/" target="b">ATI</a> die Treiber 03.4 bis 03.6 getestet.
Ist der Einsatz bei synthetischen Benchmarks wie <a href="http://www.futuremark.com/" target="b">3DMark</a> mehr als fraglich, so kann man bei "Optimierungen" die generell für ein Spiel geschrieben werden geteilter Meinung sein. Schließlich könnte es durchaus sinnvoll sein gewisse Qualitätseinbußen hinzunehmen, die gerade bei diesem Spiel nicht so sehr ins Gewicht fallen, dafür aber eine deutlich bessere Performance bieten.
<a href="http://www.3dcenter.de/" target="b">3DCenter</a> kommt zu dem Ergebnis das sowohl <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> als auch <a href="http://www.ati.de/" target="b">ATI</a> "optimierte" Treiber verwenden. Den größten Geschwindigkeitsvorteil erzielen Beide indem bei der trilinearen Filterung "optimiert" wird.
Bei dem <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> Treiber wurde sogar angeblich eine kleine Absicherung gefunden, die verhindert, daß mit dem Hilfsprogramm <a href="http://www.3dcenter.de/downloads/ie-4-0-128bit.php" target="b">"D3D AF-Tester"</a> diese "Optimierungen" gefunden werden.<ul><i> Ganz offensichtlich hat nVidia also in seinen Treiber eine kleine Absicherung eingebaut, welche diesen Trick der Umbenennung in "UT2003.exe" ausgerechnet beim D3D AF-Tester verhindern soll. Der einzige uns dafür derzeit einleuchteten Grund dieser Absicherung ist, daß man seitens nVidia wohl verhindern will, daß die Hardware-Tester mit eben jenem (mittlerweile sogar von nVidia empfohlenen) Werkzeug die schlechtere Filterqualität unter Unreal Tournament 2003 sauber ermitteln können. </i></ul>
Zum Artikel gelangt ihr <a href="http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/" target="b">hier</a>.
In einem ziemlich umfangreichen Test wurden Grafikkarten von <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> und <a href="http://www.ati.de/" target="b">ATI</a> diversen Benchmark Tests unterzogen. Hierbei hat sich <a href="http://www.3dcenter.de/" target="b">3DCenter</a> die Mühe gemacht nicht nur diverse Benchmarks zum Test heranzuziehen, sondern auch diverse Treiber mit zu testen. So wurden bei <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> die Treiber 44.03 bis 44.90 und bei <a href="http://www.ati.de/" target="b">ATI</a> die Treiber 03.4 bis 03.6 getestet.
Ist der Einsatz bei synthetischen Benchmarks wie <a href="http://www.futuremark.com/" target="b">3DMark</a> mehr als fraglich, so kann man bei "Optimierungen" die generell für ein Spiel geschrieben werden geteilter Meinung sein. Schließlich könnte es durchaus sinnvoll sein gewisse Qualitätseinbußen hinzunehmen, die gerade bei diesem Spiel nicht so sehr ins Gewicht fallen, dafür aber eine deutlich bessere Performance bieten.
<a href="http://www.3dcenter.de/" target="b">3DCenter</a> kommt zu dem Ergebnis das sowohl <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> als auch <a href="http://www.ati.de/" target="b">ATI</a> "optimierte" Treiber verwenden. Den größten Geschwindigkeitsvorteil erzielen Beide indem bei der trilinearen Filterung "optimiert" wird.
Bei dem <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> Treiber wurde sogar angeblich eine kleine Absicherung gefunden, die verhindert, daß mit dem Hilfsprogramm <a href="http://www.3dcenter.de/downloads/ie-4-0-128bit.php" target="b">"D3D AF-Tester"</a> diese "Optimierungen" gefunden werden.<ul><i> Ganz offensichtlich hat nVidia also in seinen Treiber eine kleine Absicherung eingebaut, welche diesen Trick der Umbenennung in "UT2003.exe" ausgerechnet beim D3D AF-Tester verhindern soll. Der einzige uns dafür derzeit einleuchteten Grund dieser Absicherung ist, daß man seitens nVidia wohl verhindern will, daß die Hardware-Tester mit eben jenem (mittlerweile sogar von nVidia empfohlenen) Werkzeug die schlechtere Filterqualität unter Unreal Tournament 2003 sauber ermitteln können. </i></ul>
Zum Artikel gelangt ihr <a href="http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/" target="b">hier</a>.
Zuletzt bearbeitet:
Moinsen
Also ich schnall das nicht.
Da erwarten die Hersteller, das man ~500€ für eine Grafikkarte ausgibt und dann sind die nicht in der Lage, dem Kunden verständlich zu machen, warum er unbedingt diese eine Karte haben muss.
Ohne dieses ganze Hin und Her um die "optimierten" Treiber wäre es auf dem Graka-Markt wesentlich übersichtlicher und die Kunden müssten nicht rätseln und zögern, welche Karte denn nun die optimale für den jeweiligen Fall ist.
Grenzt schon an den selben marketingstrategischen Palaver und Halbwahrheiten wie bei den Prozessoren.
Prozessor : mehr Mhz = besser/schneller
Graka : mehr FPS = mehr 3DMark Punkte = besser/schneller
Also ich schnall das nicht.
Da erwarten die Hersteller, das man ~500€ für eine Grafikkarte ausgibt und dann sind die nicht in der Lage, dem Kunden verständlich zu machen, warum er unbedingt diese eine Karte haben muss.
Ohne dieses ganze Hin und Her um die "optimierten" Treiber wäre es auf dem Graka-Markt wesentlich übersichtlicher und die Kunden müssten nicht rätseln und zögern, welche Karte denn nun die optimale für den jeweiligen Fall ist.
Grenzt schon an den selben marketingstrategischen Palaver und Halbwahrheiten wie bei den Prozessoren.
Prozessor : mehr Mhz = besser/schneller
Graka : mehr FPS = mehr 3DMark Punkte = besser/schneller
DvP
Vice Admiral Special
- Mitglied seit
- 26.11.2002
- Beiträge
- 619
- Renomée
- 0
so kleine "betrügerein" ist man ja schon in der computerindustire gewohnt.
wenn sie schon unbedingt "optimieren" wollen, sollen sie alle aktuellen Spiele optimieren. das wäre dann mehr leistung wo man sie wirklich braucht, aber dafür reicht ja das geld nicht...
mfg DvP
wenn sie schon unbedingt "optimieren" wollen, sollen sie alle aktuellen Spiele optimieren. das wäre dann mehr leistung wo man sie wirklich braucht, aber dafür reicht ja das geld nicht...
mfg DvP
FragThief
Captain Special
- Mitglied seit
- 24.09.2002
- Beiträge
- 219
- Renomée
- 0
- Mein Laptop
- HP Pavilion g6-1351eg
- Prozessor
- AMD Phenom II X4 965 (Stepping: RB-C3, Sockel-Typ AM3, 3413.8 MHz)
- Mainboard
- Gigabyte GA-MA790XT-UD4P (AMD SP5100 Rev. A14 PCI Chipset)
- Kühlung
- Scythe Mugen 4 SCMG-4000
- Speicher
- Crucial DIMM 8 GB DDR3-1866 Kit (PC3-14900, CL9)
- Grafikprozessor
- Sapphire Radeon HD5850 1024MB PCIe
- Display
- LG Electronics Flatron L227WT, 1680x1050
- SSD
- 128GB Crucial m4 SATA SSD 6 GB/s
- HDD
- Western Digital Black 640 GB
- Optisches Laufwerk
- noname stuff
- Soundkarte
- Onboard Realtek ALC889A
- Gehäuse
- Xigmatek Midgard II
- Netzteil
- be quiet! Pure Power L8 CM 630 Watt
- Betriebssystem
- Windows 7 Professional
- Webbrowser
- Mozilla Firefox
Tja, heutzutage is das halt "normal"....
Knife
Commodore Special
Original geschrieben von ThePsycho
irgendwie ziehen sich beide firmen immer weiter in den schlamm
und als kunde sieht man zu und weiss schon gar nicht mehr was man sagen soll
/me wartet auf serie 5 (powervr)
Tja, Wenn sich zwei streiten, freut sich der dritte (vierte und folgende).
Vielleicht "beschenkt" uns ja Matrox oder 3DLabs, oder eben PowerVR mit einem leistungsstarken Grafikchip ohne Mogeltreiber Da würden die Beiden (Mogel)Steithühner wohl dumm schauen, wenn ihnen die Marktanteile an diese Hersteller verloren gingen... Sowieso könnte der Grafikmarkt mehr konkurenz vertragen!
Aber eben...
H.a.n.d.
Knife
Steinkalt
Admiral Special
Die Optimierungen sind sowieso für die Katz, genauso wie die ganzen Topleistungen in den verschiedenen Benchmarks. Die Grafikhardware ist der Software im Moment mehr als eine Generation voraus und auch "alte" Karten reichen im Moment zum Spielgenuss zwischendurch.
Die Benchmarkwerte werden doch nur als Verkaufsargument "missbraucht", damit die Unternehmen wenigstens einen Verkaufsgrund für die neuen Superkarten haben.
Wenn wir mal ehrlich sind brauch niemand eine Auflösung von 1600x1200@32Bit, dazu noch 8xAF und 8xAA, das Ganze am besten bei >100fps oder mehr. Wer da noch bei Shootern bei der Geschwindigkeit Qualitätsunterschiede sieht
Für Rollenspiele etc. sind sowieso >35fps ausreichend. Ein gelegentliches Stocken bei 25fps bringt auch da niemanden zum verzweifeln.
Irgendwie läuft im Moment in der Grafikkarten-Industrie alles auf noch schneller hinaus, diese Entwicklung geht mir schon seit dem Untergang von 3dfx auf den Keks.
"Hey ich habe 400fps in Quake, die Bildqualität ist zwar absolut mies aber ich merke den Unterschied zwischen 350 und 400fps deutlich."
Die Benchmarkwerte werden doch nur als Verkaufsargument "missbraucht", damit die Unternehmen wenigstens einen Verkaufsgrund für die neuen Superkarten haben.
Wenn wir mal ehrlich sind brauch niemand eine Auflösung von 1600x1200@32Bit, dazu noch 8xAF und 8xAA, das Ganze am besten bei >100fps oder mehr. Wer da noch bei Shootern bei der Geschwindigkeit Qualitätsunterschiede sieht
Für Rollenspiele etc. sind sowieso >35fps ausreichend. Ein gelegentliches Stocken bei 25fps bringt auch da niemanden zum verzweifeln.
Irgendwie läuft im Moment in der Grafikkarten-Industrie alles auf noch schneller hinaus, diese Entwicklung geht mir schon seit dem Untergang von 3dfx auf den Keks.
"Hey ich habe 400fps in Quake, die Bildqualität ist zwar absolut mies aber ich merke den Unterschied zwischen 350 und 400fps deutlich."
DiGiTaL
Lieutnant
- Mitglied seit
- 03.12.2002
- Beiträge
- 71
- Renomée
- 0
Etwas muss man aber sagen: ATI "optimiert" einfach generell bei allen D3D-Anwendungen ( AF ) gaber denen macht man viel weniger Vorwürfe !
Komisch oder ?
Und das finde ich der Oberhammer ( von 3dcenter.de )
Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".
Ist ja wirklich voll lame von ATI
Komisch oder ?
Und das finde ich der Oberhammer ( von 3dcenter.de )
Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".
Ist ja wirklich voll lame von ATI
Nach diesem ganzen Hickhack, der Augenwischerei die betrieben wird und der Tatsache, daß MadOnion klein bei gegeben hat, besser gesagt bezahlt worden ist, sind die Benches für mich gestorben.
Gelöscht und erledigt. Verarschen kann ich mich selber.
Als Bench die q3 Timedemo reicht mir völlig, da ich eh nur Q3 spiele, also was solls.
Opi
Gelöscht und erledigt. Verarschen kann ich mich selber.
Als Bench die q3 Timedemo reicht mir völlig, da ich eh nur Q3 spiele, also was solls.
Opi
Original geschrieben von Opi43
Als Bench die q3 Timedemo reicht mir völlig, da ich eh nur Q3 spiele, also was solls.
Opi
Naja, dann brauchst du sowieso keine neue Grafikkarte, da reicht schon eine GF 2 mit 32MB völlig aus. Hast auch schon an die 100 Fps. Ich weiss das, weil ich vor nem halben jahr noch eine gehabt habe. Aber die Zeiten ändern sich, weil ich nicht nur Q3 Spiele. Jetzt hab ich sicher so an die 300fps und wahrscheinlich mehr, deshalb geile ich mich auch nicht auf, in dem ich ne Q3-Timedemo starte.
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Original geschrieben von Knife
Tja, Wenn sich zwei streiten, freut sich der dritte (vierte und folgende).
Vielleicht "beschenkt" uns ja Matrox oder 3DLabs, oder eben PowerVR mit einem leistungsstarken Grafikchip ohne Mogeltreiber Da würden die Beiden (Mogel)Steithühner wohl dumm schauen, wenn ihnen die Marktanteile an diese Hersteller verloren gingen... Sowieso könnte der Grafikmarkt mehr konkurenz vertragen!
Aber eben...
H.a.n.d.
Knife
Da bist du aber optimistisch
Das halte ich für eher unwahrscheinlich.
Die Entwicklung einer neuen Generation von Grafikkarten einschlisslich der Mainstream und Low Cost Ableger, kostet um die 300 Mio Dollar rum.
Das sind Summen, die kann weder Matrox noch PowerVR noch sonst irgendein kleiner Aufbringen.
Wenn dann ein Kleiner mal ein tolles High End Produkt bringt, steht er vor dem Problem, dass es ewig dauert bis sich das rumspricht und dass er vom High End alleine nicht überleben kann.
Ohne Design Wins bei First Tier OEMs im Mainstreambereich, kann man diese Entwicklung nicht finanzieren.
Sollte also ein Kleiner mal einen kleinen Erfolg verbuchen, so wird ihm leider die Zeit davonlaufen das in Geld umzusetzen.
Die großen werden hinter den Kulissen Druck ausüben und die OEMs wechseln sowieso nicht so gern.
Man muss also genug Geld haben um 2 bis 3 Jahre mitmachen zu können ohne von Anfang an in den schwarzen Zahlen zu sein.
Das ist für Start-ups oder kleine Grafikschmieden ausgeschlossen. Außerdem kommt hinzu, dass die großen automatisch ihr Tempo anziehen würden.
Ich seh da keine vernünftige Konkurenz. Da müssten dann schon Milliarden Dollar schwere Konzerne dahinter stehen, die die Trockenperiode von mindestens 2 bis 3 Jahren finanzieren.
CapJo
Admiral Special
Etwas muss man aber sagen: ATI "optimiert" einfach generell bei allen D3D-Anwendungen ( AF ) gaber denen macht man viel weniger Vorwürfe !
Komisch oder ?
Und das finde ich der Oberhammer ( von 3dcenter.de )
Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".
Ist ja wirklich voll lame von ATI
ATI gab es von Anfang an offen zu das sie einen optimierten/intelligenten AF einsetzen, der die Qualtität nicht sichtbar beeinträchtigt.
So eine Meldung gab es von NVIDIA nicht.
[Wook]Demogorg
Grand Admiral Special
- Mitglied seit
- 24.04.2003
- Beiträge
- 3.410
- Renomée
- 4
- Standort
- www.WooK.de
- Prozessor
- Winnie 3000+
- Mainboard
- DFI Ultra-D
- Kühlung
- Zalman 7700Cu
- Speicher
- 2*512MB Adata Vitesta 4000
- Grafikprozessor
- X850Xt
- Display
- BENQ FP 937s (19"TFT)
- Soundkarte
- Onboard
- Gehäuse
- Coolermaster Stacker 830
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Windows XP
also ich verstehe hier manche nicht aber was ist schlecht an optimierung ??
Also zu ner guten grafikkarte gehören auch gute treiber (auch diese entwicklung kostet geld und auch dafür bezahlt man natürlich)
Also es ist doch ganz schön gut wenn man seine grafikkarten auf die spiele optimiert die wohl wahrscheinlich eine zukunft haben (UT 2k3 engine z.B).
Ich glaube manche verstehen das ein bisschen falsch es ist nichts schlechtes an guten treibern oder wie oder watt
mfg
Demogorg
Also zu ner guten grafikkarte gehören auch gute treiber (auch diese entwicklung kostet geld und auch dafür bezahlt man natürlich)
Also es ist doch ganz schön gut wenn man seine grafikkarten auf die spiele optimiert die wohl wahrscheinlich eine zukunft haben (UT 2k3 engine z.B).
Ich glaube manche verstehen das ein bisschen falsch es ist nichts schlechtes an guten treibern oder wie oder watt
mfg
Demogorg
Original geschrieben von RICHTHOFEN
Da bist du aber optimistisch
Das halte ich für eher unwahrscheinlich.
Die Entwicklung einer neuen Generation von Grafikkarten einschlisslich der Mainstream und Low Cost Ableger, kostet um die 300 Mio Dollar rum.
Das sind Summen, die kann weder Matrox noch PowerVR noch sonst irgendein kleiner Aufbringen.
1. PowerVr bzw ImgTech ist nicht klein
2. Serie 5 ist bereits in Arbeit
und würde alles in der it-welt so laufen wie du es schilderst, hätte es nie einen amd k7 gegeben, hätte nvidia nie 3dfx übernommen, etc.
Seraphim
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.986
- Renomée
- 0
- Standort
- Capitol City
- Prozessor
- Intel Core 2 Duo e8200 @ 3230MHz (8x405@1,18V)
- Mainboard
- ASUS Maximus Formula
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x A-Data Vitesta Extreme DDR2-800 4-4-4-12 @ 450MHz 5-5-5-15
- Grafikprozessor
- Sapphire HD 4870
- Display
- 22" Samsung SyncMaster 226BW
- HDD
- 4x WDC WD3200AAKS Raid 10
- Optisches Laufwerk
- Pioneer DVR-212
- Soundkarte
- Xi-Fi Xtreme Gamer
- Gehäuse
- Lian Li PC-V1010A
- Netzteil
- Enermax Modu 82+ 525W
- Betriebssystem
- Vista Ultimate 64Bit
- Webbrowser
- Firefox 3
- Verschiedenes
- 3D Mark 06: http://service.futuremark.com/compare?3dm06=7482769 , Vantage: http://service.futuremark.
wenn's auf kosten der bildqualität geht, ist es sehr wohl daneben. ausserdem wird nicht generell "optimiert" (jaja ati...), sondern gezielt in bestimmten, kurioserweise oft von zum benchmarken genutzten programmen. damit ist es keine optimierung mehr, sondern eine verzerrung der tatsächlichen leistungsfähigkeit. und der kunde ist der doofe...Original geschrieben von [Wook]Demogorg
also ich verstehe hier manche nicht aber was ist schlecht an optimierung ??
Also zu ner guten grafikkarte gehören auch gute treiber (auch diese entwicklung kostet geld und auch dafür bezahlt man natürlich)
Also es ist doch ganz schön gut wenn man seine grafikkarten auf die spiele optimiert die wohl wahrscheinlich eine zukunft haben (UT 2k3 engine z.B).
Ich glaube manche verstehen das ein bisschen falsch es ist nichts schlechtes an guten treibern oder wie oder watt
mfg
Demogorg
Denniss
Grand Admiral Special
- Mitglied seit
- 25.04.2002
- Beiträge
- 4.921
- Renomée
- 63
- Standort
- Region Hannover
- Prozessor
- AMD Phenom II X6 1050T
- Mainboard
- Asrock M3A770DE
- Kühlung
- Alpenföhn Ben Nevis
- Speicher
- Kingston 2x 8 GiB PC3-12800
- Grafikprozessor
- Radeon RX 460 2 GiB
- Display
- Asus VS 278
- SSD
- 2x 480GB Crucial BX300, 1TB Crucial MX500
- HDD
- 4TB WD Red
- Optisches Laufwerk
- LG DVD-Brenner
- Soundkarte
- VIA Envy24
- Netzteil
- 400W Pure Power 11
- Tastatur
- Cherry
- Betriebssystem
- Win7 x64
- Webbrowser
- FF + SM
Original geschrieben von Seraphim
wenn's auf kosten der bildqualität geht, ist es sehr wohl daneben. ausserdem wird nicht generell "optimiert" (jaja ati...), sondern gezielt in bestimmten, kurioserweise oft von zum benchmarken genutzten programmen. damit ist es keine optimierung mehr, sondern eine verzerrung der tatsächlichen leistungsfähigkeit. und der kunde ist der doofe...
Würde ich genauso unterschreiben
Und Optimierungen haben in reinen Benchmarkprogrammen überhaupt nichts zu suchen - immerhin hat ATI die 3DMurks-03 Opts rausgenommen aber wohl die 3DMurks01 Opts "vergessen" aber von NV ist anscheinend immer noch alles drin
Laut Aussagen von NV benutzen viele Firmen den 3D-Mark als Kauf/Verkaufsargument und wer da gut aussieht verkauft sich besser
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
Original geschrieben von DiGiTaL
Etwas muss man aber sagen: ATI "optimiert" einfach generell bei allen D3D-Anwendungen ( AF ) gaber denen macht man viel weniger Vorwürfe !
Komisch oder ?
Und das finde ich der Oberhammer ( von 3dcenter.de )
Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".
Ist ja wirklich voll lame von ATI
hast du geraucht??
sieh dir doch mal die unterschiede zwischen dem original-treiber mit cheat und ohne cheat von ati an....
na siehste es??
fast keine unterschiede --> heißt nix gecheatet...
gecheatet wurde aber bei nvidia auf kosten der bildquali
bei ati nur sehr minimal...
das steht da ja auch...
also erst lesen...
zu dem finde ich es nicht schlimm, wenn nicht sichtbares weggelassen wird um performance zu bekommen...was is daran soooooo schlimm bildquali is doch nahezu identisch!!
mfg
CapJo
Admiral Special
Du brauchst ATI nicht schön reden, die haben auch ein wenig in 3DMark2003 gemogelt, selbst zugegeben und diese "spezielle" Optimierung wieder entfernt.
ATI gab es von Anfang an offen zu das sie einen optimierten/intelligenten AF einsetzen, der die Qualtität nicht sichtbar beeinträchtigt.
So eine Meldung gab es von NVIDIA nicht und sie haben ihre Optimierungen auch nicht entfernt.
Das ist wohl totaler Schwachsinn. Übertragen in den Sport würde es bedeuten: Wenn Doping nichts bringt ist es kein Doping obwohl verbotene Substanzen benutzt werden.
Man kann nicht mehr genau sagen, was erlaubt ist und was nicht. Wer stellt hier die Regeln auf? Außerdem kann man die graphische Qualtit nur subjektiv bewerten. Was ich als Cheaten empfinde, ist das starke Optimieren auf einen Bestimmten Benchmark, denn diese Ergebnisse spiegeln sich nicht in andere Anwendungen wieder --> Cheaten
NVIDIAs Optimierungen bringen da viel mehr Performance, was in anderen Anwendungen nicht der Fall ist. NVIDIA cheatet als heftiger als ATI, trotzdem optmiert ATI auch ihre Treiber auf ganz bestimmte Anwendungen/Benchmarks/Spiele.
ATI gab es von Anfang an offen zu das sie einen optimierten/intelligenten AF einsetzen, der die Qualtität nicht sichtbar beeinträchtigt.
So eine Meldung gab es von NVIDIA nicht und sie haben ihre Optimierungen auch nicht entfernt.
fast keine unterschiede --> heißt nix gecheatet...
Das ist wohl totaler Schwachsinn. Übertragen in den Sport würde es bedeuten: Wenn Doping nichts bringt ist es kein Doping obwohl verbotene Substanzen benutzt werden.
Man kann nicht mehr genau sagen, was erlaubt ist und was nicht. Wer stellt hier die Regeln auf? Außerdem kann man die graphische Qualtit nur subjektiv bewerten. Was ich als Cheaten empfinde, ist das starke Optimieren auf einen Bestimmten Benchmark, denn diese Ergebnisse spiegeln sich nicht in andere Anwendungen wieder --> Cheaten
NVIDIAs Optimierungen bringen da viel mehr Performance, was in anderen Anwendungen nicht der Fall ist. NVIDIA cheatet als heftiger als ATI, trotzdem optmiert ATI auch ihre Treiber auf ganz bestimmte Anwendungen/Benchmarks/Spiele.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
Original geschrieben von CapJo
es sollte auch eher heißen "fast nix gecheatet"
das mit dem doping is ein schrottvergleich...
um nur mal kurz zu sagen, das in allen bereichen der welt optimiert wird, finde ich es nicht verwerflich, wenn man optimiert ohne die wichtigsten aspekte außer augenschein zu lassen, wie in diesem fall die bildquali.
um auch ein beispiel zu bringen, das eher in richtung technik geht:
motoroptimierung (auto) für geringeren verbrauch und oder mehr ps, mehr laufruhe etc...
je nach anforderung unterschiedlich (ich stelle gerade fest, daß kann man ja ewig so weiter ausführen ohne ende )
aber er muss z.b. 200000km halten...dieses augenmerk wird dann nie außer acht gelassen und drumherum-optimiert...wenn es dann nur 150000km hält is das konzept schrott...wenn es aber 199000km hält druchaus akzeptabel, WENN denn dann die anderen sachen auch noch erfüllt sind...
und das ist ati gelungen...aber 100%ig
wenn mir allerdings die bildquali wurscht is, dann brauch man sich auch nich sone tolle teure karte kaufen und einen treiber dazu, der wieder alles zunichte macht, indem er die bilder aussehen lässt wie auf einer tnt2 oder was...
mfg
CapJo
Admiral Special
Es geht nicht darum, dass die Grafikkartenhersteller ihr Treiber im allgemeinen optimieren. Dies ist auf jeden Fall positiv zu sehen, da es mehr Performance bringt und die Qualität kaum verschlechtert.
Sie optimieren jedoch Spiele und Benchmarks, die in Tests benutzen sehr stark und dies verzerrt die Realtität und ist als Cheat anzusehen. Das Spiel X, dass bei den Tests verwendet wird läuft mit 100 FPS alle anderen Spiele die nicht bei solchen Tests verwendet werden laufen dagegen nur halb so schnell.
Welche Aussage kann man nun über diesen Test machen indem nur optimierte Spiele und Benchmarks verwendet werden? Eigentlich gar nichts mehr, denn sie haben ja keine Aussagekraft über die tatsächliche Performance einer Grafikkarte.
Der optimierte/intelligente AF von ATI wird ja bei allen Anwendung/Spielen/Benchmarks verwendet und ist nicht für etwas bestimmtes optimiert, also auch kein Cheat.
Bei NVIDIA ist es dagegen so, dass die Optimierungen nur auf bestimmte Spiele und Benchmarks zutreffen und bei der restlichen Software nicht benutzt werden, Cheat!
Wie ich schon vorher geschrieben habe hat ATI auch Optimierungen genutzt, aber nur auf sehr geringem Niveau und ohne die graphische Qulität zu verschlechtern.
Sie optimieren jedoch Spiele und Benchmarks, die in Tests benutzen sehr stark und dies verzerrt die Realtität und ist als Cheat anzusehen. Das Spiel X, dass bei den Tests verwendet wird läuft mit 100 FPS alle anderen Spiele die nicht bei solchen Tests verwendet werden laufen dagegen nur halb so schnell.
Welche Aussage kann man nun über diesen Test machen indem nur optimierte Spiele und Benchmarks verwendet werden? Eigentlich gar nichts mehr, denn sie haben ja keine Aussagekraft über die tatsächliche Performance einer Grafikkarte.
Der optimierte/intelligente AF von ATI wird ja bei allen Anwendung/Spielen/Benchmarks verwendet und ist nicht für etwas bestimmtes optimiert, also auch kein Cheat.
Bei NVIDIA ist es dagegen so, dass die Optimierungen nur auf bestimmte Spiele und Benchmarks zutreffen und bei der restlichen Software nicht benutzt werden, Cheat!
Wie ich schon vorher geschrieben habe hat ATI auch Optimierungen genutzt, aber nur auf sehr geringem Niveau und ohne die graphische Qulität zu verschlechtern.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
Original geschrieben von CapJo
ati aber auf vernachlassigbar geringem niveau wie ich finde
die benches sind fast alle gleich im gegensatz zu nvidia...
ati also minimal und vernachlässigbar
nvidia extrem und die erkennung des cheats auch noch verdecken
mfg
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 196
- Antworten
- 611
- Aufrufe
- 46K
- Antworten
- 227
- Aufrufe
- 24K