3DCenter hat sich noch einmal des leidigen Themas "Benchmarkoptimierung" angenommen. Wobei man für "optimieren" auch noch andere Ausdrücke verwenden könnte, die nicht ganz so freundlich klingen.
In einem ziemlich umfangreichen Test wurden Grafikkarten von NVIDIA und ATI diversen Benchmark Tests unterzogen. Hierbei hat sich 3DCenter die Mühe gemacht nicht nur diverse Benchmarks zum Test heranzuziehen, sondern auch diverse Treiber mit zu testen. So wurden bei NVIDIA die Treiber 44.03 bis 44.90 und bei ATI die Treiber 03.4 bis 03.6 getestet.
Ist der Einsatz bei synthetischen Benchmarks wie 3DMark mehr als fraglich, so kann man bei "Optimierungen" die generell für ein Spiel geschrieben werden geteilter Meinung sein. Schließlich könnte es durchaus sinnvoll sein gewisse Qualitätseinbußen hinzunehmen, die gerade bei diesem Spiel nicht so sehr ins Gewicht fallen, dafür aber eine deutlich bessere Performance bieten.
3DCenter kommt zu dem Ergebnis das sowohl NVIDIA als auch ATI "optimierte" Treiber verwenden. Den größten Geschwindigkeitsvorteil erzielen Beide indem bei der trilinearen Filterung "optimiert" wird.
Bei dem NVIDIA Treiber wurde sogar angeblich eine kleine Absicherung gefunden, die verhindert, daß mit dem Hilfsprogramm "D3D AF-Tester" diese "Optimierungen" gefunden werden.
Ganz offensichtlich hat nVidia also in seinen Treiber eine kleine Absicherung eingebaut, welche diesen Trick der Umbenennung in "UT2003.exe" ausgerechnet beim D3D AF-Tester verhindern soll. Der einzige uns dafür derzeit einleuchteten Grund dieser Absicherung ist, daß man seitens nVidia wohl verhindern will, daß die Hardware-Tester mit eben jenem (mittlerweile sogar von nVidia empfohlenen) Werkzeug die schlechtere Filterqualität unter Unreal Tournament 2003 sauber ermitteln können.
Diesen Artikel bookmarken oder senden an ...
