Benchmarkoptimierungen bei NVIDIA und ATI.

jensibensi

Admiral Special
Mitglied seit
10.05.2002
Beiträge
1.132
Renomée
8
Standort
Lübeck
<a href="http://www.3dcenter.de/" target="b">3DCenter</a> hat sich noch einmal des leidigen Themas "Benchmarkoptimierung" angenommen. Wobei man für "optimieren" auch noch andere Ausdrücke verwenden könnte, die nicht ganz so freundlich klingen.

In einem ziemlich umfangreichen Test wurden Grafikkarten von <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> und <a href="http://www.ati.de/" target="b">ATI</a> diversen Benchmark Tests unterzogen. Hierbei hat sich <a href="http://www.3dcenter.de/" target="b">3DCenter</a> die Mühe gemacht nicht nur diverse Benchmarks zum Test heranzuziehen, sondern auch diverse Treiber mit zu testen. So wurden bei <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> die Treiber 44.03 bis 44.90 und bei <a href="http://www.ati.de/" target="b">ATI</a> die Treiber 03.4 bis 03.6 getestet.

Ist der Einsatz bei synthetischen Benchmarks wie <a href="http://www.futuremark.com/" target="b">3DMark</a> mehr als fraglich, so kann man bei "Optimierungen" die generell für ein Spiel geschrieben werden geteilter Meinung sein. Schließlich könnte es durchaus sinnvoll sein gewisse Qualitätseinbußen hinzunehmen, die gerade bei diesem Spiel nicht so sehr ins Gewicht fallen, dafür aber eine deutlich bessere Performance bieten.

<a href="http://www.3dcenter.de/" target="b">3DCenter</a> kommt zu dem Ergebnis das sowohl <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> als auch <a href="http://www.ati.de/" target="b">ATI</a> "optimierte" Treiber verwenden. Den größten Geschwindigkeitsvorteil erzielen Beide indem bei der trilinearen Filterung "optimiert" wird.

Bei dem <a href="https://www.nvidia.de/page/home" target="b">NVIDIA</a> Treiber wurde sogar angeblich eine kleine Absicherung gefunden, die verhindert, daß mit dem Hilfsprogramm <a href="http://www.3dcenter.de/downloads/ie-4-0-128bit.php" target="b">"D3D AF-Tester"</a> diese "Optimierungen" gefunden werden.<ul><i> Ganz offensichtlich hat nVidia also in seinen Treiber eine kleine Absicherung eingebaut, welche diesen Trick der Umbenennung in "UT2003.exe" ausgerechnet beim D3D AF-Tester verhindern soll. Der einzige uns dafür derzeit einleuchteten Grund dieser Absicherung ist, daß man seitens nVidia wohl verhindern will, daß die Hardware-Tester mit eben jenem (mittlerweile sogar von nVidia empfohlenen) Werkzeug die schlechtere Filterqualität unter Unreal Tournament 2003 sauber ermitteln können. </i></ul>

Zum Artikel gelangt ihr <a href="http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/" target="b">hier</a>.
 
Zuletzt bearbeitet:
irgendwie ziehen sich beide firmen immer weiter in den schlamm

und als kunde sieht man zu und weiss schon gar nicht mehr was man sagen soll

/me wartet auf serie 5 (powervr)
 
Moinsen :D

Also ich schnall das nicht.
Da erwarten die Hersteller, das man ~500€ für eine Grafikkarte ausgibt und dann sind die nicht in der Lage, dem Kunden verständlich zu machen, warum er unbedingt diese eine Karte haben muss.
Ohne dieses ganze Hin und Her um die "optimierten" Treiber wäre es auf dem Graka-Markt wesentlich übersichtlicher und die Kunden müssten nicht rätseln und zögern, welche Karte denn nun die optimale für den jeweiligen Fall ist.

Grenzt schon an den selben marketingstrategischen Palaver und Halbwahrheiten wie bei den Prozessoren.

Prozessor : mehr Mhz = besser/schneller
Graka : mehr FPS = mehr 3DMark Punkte = besser/schneller
 
so kleine "betrügerein" ist man ja schon in der computerindustire gewohnt.

wenn sie schon unbedingt "optimieren" wollen, sollen sie alle aktuellen Spiele optimieren. das wäre dann mehr leistung wo man sie wirklich braucht, aber dafür reicht ja das geld nicht...


mfg DvP
 
Tja, heutzutage is das halt "normal"....
 
Original geschrieben von ThePsycho
irgendwie ziehen sich beide firmen immer weiter in den schlamm

und als kunde sieht man zu und weiss schon gar nicht mehr was man sagen soll

/me wartet auf serie 5 (powervr)

Tja, Wenn sich zwei streiten, freut sich der dritte (vierte und folgende).
Vielleicht "beschenkt" uns ja Matrox oder 3DLabs, oder eben PowerVR mit einem leistungsstarken Grafikchip ohne Mogeltreiber :-/ Da würden die Beiden (Mogel)Steithühner wohl dumm schauen, wenn ihnen die Marktanteile an diese Hersteller verloren gingen... Sowieso könnte der Grafikmarkt mehr konkurenz vertragen!
Aber eben...

H.a.n.d.
Knife
 
Die Optimierungen sind sowieso für die Katz, genauso wie die ganzen Topleistungen in den verschiedenen Benchmarks. Die Grafikhardware ist der Software im Moment mehr als eine Generation voraus und auch "alte" Karten reichen im Moment zum Spielgenuss zwischendurch.

Die Benchmarkwerte werden doch nur als Verkaufsargument "missbraucht", damit die Unternehmen wenigstens einen Verkaufsgrund für die neuen Superkarten haben.

Wenn wir mal ehrlich sind brauch niemand eine Auflösung von 1600x1200@32Bit, dazu noch 8xAF und 8xAA, das Ganze am besten bei >100fps oder mehr. Wer da noch bei Shootern bei der Geschwindigkeit Qualitätsunterschiede sieht *noahnung*

Für Rollenspiele etc. sind sowieso >35fps ausreichend. Ein gelegentliches Stocken bei 25fps bringt auch da niemanden zum verzweifeln.

Irgendwie läuft im Moment in der Grafikkarten-Industrie alles auf noch schneller hinaus, diese Entwicklung geht mir schon seit dem Untergang von 3dfx auf den Keks.
"Hey ich habe 400fps in Quake, die Bildqualität ist zwar absolut mies aber ich merke den Unterschied zwischen 350 und 400fps deutlich." *lol*
 
Etwas muss man aber sagen: ATI "optimiert" einfach generell bei allen D3D-Anwendungen ( AF ) gaber denen macht man viel weniger Vorwürfe !

Komisch oder ?



Und das finde ich der Oberhammer ( von 3dcenter.de )

Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".

Ist ja wirklich voll lame von ATI *lol*
 
Nach diesem ganzen Hickhack, der Augenwischerei die betrieben wird und der Tatsache, daß MadOnion klein bei gegeben hat, besser gesagt bezahlt worden ist, sind die Benches für mich gestorben.

Gelöscht und erledigt. Verarschen kann ich mich selber.

Als Bench die q3 Timedemo reicht mir völlig, da ich eh nur Q3 spiele, also was solls.

Opi
 
Original geschrieben von Opi43
Als Bench die q3 Timedemo reicht mir völlig, da ich eh nur Q3 spiele, also was solls.

Opi

Naja, dann brauchst du sowieso keine neue Grafikkarte, da reicht schon eine GF 2 mit 32MB völlig aus. Hast auch schon an die 100 Fps. ;) Ich weiss das, weil ich vor nem halben jahr noch eine gehabt habe. Aber die Zeiten ändern sich, weil ich nicht nur Q3 Spiele. Jetzt hab ich sicher so an die 300fps und wahrscheinlich mehr, deshalb geile ich mich auch nicht auf, in dem ich ne Q3-Timedemo starte.
 
Original geschrieben von Knife
Tja, Wenn sich zwei streiten, freut sich der dritte (vierte und folgende).
Vielleicht "beschenkt" uns ja Matrox oder 3DLabs, oder eben PowerVR mit einem leistungsstarken Grafikchip ohne Mogeltreiber :-/ Da würden die Beiden (Mogel)Steithühner wohl dumm schauen, wenn ihnen die Marktanteile an diese Hersteller verloren gingen... Sowieso könnte der Grafikmarkt mehr konkurenz vertragen!
Aber eben...

H.a.n.d.
Knife

Da bist du aber optimistisch :)
Das halte ich für eher unwahrscheinlich.
Die Entwicklung einer neuen Generation von Grafikkarten einschlisslich der Mainstream und Low Cost Ableger, kostet um die 300 Mio Dollar rum.
Das sind Summen, die kann weder Matrox noch PowerVR noch sonst irgendein kleiner Aufbringen.

Wenn dann ein Kleiner mal ein tolles High End Produkt bringt, steht er vor dem Problem, dass es ewig dauert bis sich das rumspricht und dass er vom High End alleine nicht überleben kann.
Ohne Design Wins bei First Tier OEMs im Mainstreambereich, kann man diese Entwicklung nicht finanzieren.

Sollte also ein Kleiner mal einen kleinen Erfolg verbuchen, so wird ihm leider die Zeit davonlaufen das in Geld umzusetzen.
Die großen werden hinter den Kulissen Druck ausüben und die OEMs wechseln sowieso nicht so gern.
Man muss also genug Geld haben um 2 bis 3 Jahre mitmachen zu können ohne von Anfang an in den schwarzen Zahlen zu sein.

Das ist für Start-ups oder kleine Grafikschmieden ausgeschlossen. Außerdem kommt hinzu, dass die großen automatisch ihr Tempo anziehen würden.

Ich seh da keine vernünftige Konkurenz. Da müssten dann schon Milliarden Dollar schwere Konzerne dahinter stehen, die die Trockenperiode von mindestens 2 bis 3 Jahren finanzieren.
 
Etwas muss man aber sagen: ATI "optimiert" einfach generell bei allen D3D-Anwendungen ( AF ) gaber denen macht man viel weniger Vorwürfe !

Komisch oder ?



Und das finde ich der Oberhammer ( von 3dcenter.de )

Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".

Ist ja wirklich voll lame von ATI *lol*

ATI gab es von Anfang an offen zu das sie einen optimierten/intelligenten AF einsetzen, der die Qualtität nicht sichtbar beeinträchtigt.

So eine Meldung gab es von NVIDIA nicht.
 
also ich verstehe hier manche nicht aber was ist schlecht an optimierung ??

Also zu ner guten grafikkarte gehören auch gute treiber (auch diese entwicklung kostet geld und auch dafür bezahlt man natürlich)

Also es ist doch ganz schön gut wenn man seine grafikkarten auf die spiele optimiert die wohl wahrscheinlich eine zukunft haben (UT 2k3 engine z.B).
Ich glaube manche verstehen das ein bisschen falsch es ist nichts schlechtes an guten treibern oder wie oder watt

mfg
Demogorg
 
Original geschrieben von RICHTHOFEN
Da bist du aber optimistisch :)
Das halte ich für eher unwahrscheinlich.
Die Entwicklung einer neuen Generation von Grafikkarten einschlisslich der Mainstream und Low Cost Ableger, kostet um die 300 Mio Dollar rum.
Das sind Summen, die kann weder Matrox noch PowerVR noch sonst irgendein kleiner Aufbringen.

1. PowerVr bzw ImgTech ist nicht klein

2. Serie 5 ist bereits in Arbeit

und würde alles in der it-welt so laufen wie du es schilderst, hätte es nie einen amd k7 gegeben, hätte nvidia nie 3dfx übernommen, etc.
 
Original geschrieben von [Wook]Demogorg
also ich verstehe hier manche nicht aber was ist schlecht an optimierung ??

Also zu ner guten grafikkarte gehören auch gute treiber (auch diese entwicklung kostet geld und auch dafür bezahlt man natürlich)

Also es ist doch ganz schön gut wenn man seine grafikkarten auf die spiele optimiert die wohl wahrscheinlich eine zukunft haben (UT 2k3 engine z.B).
Ich glaube manche verstehen das ein bisschen falsch es ist nichts schlechtes an guten treibern oder wie oder watt

mfg
Demogorg
wenn's auf kosten der bildqualität geht, ist es sehr wohl daneben. ausserdem wird nicht generell "optimiert" (jaja ati...), sondern gezielt in bestimmten, kurioserweise oft von zum benchmarken genutzten programmen. damit ist es keine optimierung mehr, sondern eine verzerrung der tatsächlichen leistungsfähigkeit. und der kunde ist der doofe...
 
Original geschrieben von Seraphim
wenn's auf kosten der bildqualität geht, ist es sehr wohl daneben. ausserdem wird nicht generell "optimiert" (jaja ati...), sondern gezielt in bestimmten, kurioserweise oft von zum benchmarken genutzten programmen. damit ist es keine optimierung mehr, sondern eine verzerrung der tatsächlichen leistungsfähigkeit. und der kunde ist der doofe...

Würde ich genauso unterschreiben

Und Optimierungen haben in reinen Benchmarkprogrammen überhaupt nichts zu suchen - immerhin hat ATI die 3DMurks-03 Opts rausgenommen aber wohl die 3DMurks01 Opts "vergessen" aber von NV ist anscheinend immer noch alles drin

Laut Aussagen von NV benutzen viele Firmen den 3D-Mark als Kauf/Verkaufsargument und wer da gut aussieht verkauft sich besser
 
Original geschrieben von DiGiTaL
Etwas muss man aber sagen: ATI "optimiert" einfach generell bei allen D3D-Anwendungen ( AF ) gaber denen macht man viel weniger Vorwürfe !

Komisch oder ?



Und das finde ich der Oberhammer ( von 3dcenter.de )

Offenbar ist ATi auf HardOCP zugegangen und hat jene auf die Treiber-"Optimierungen" seitens nVidia unter Unreal Tournament 2003 aufmerksam gemacht. Was an Ironie wohl kaum noch zu überbieten ist: Denn jenes, was nVidia unter Unreal Tournament 2003 "optimiert", ist durchaus vergleichbar mit diesem, was ATi laut unserem Artikel generell unter allen Direct3D-Anwendungen "optimiert".

Ist ja wirklich voll lame von ATI *lol*


hast du geraucht??

sieh dir doch mal die unterschiede zwischen dem original-treiber mit cheat und ohne cheat von ati an....

na siehste es??

fast keine unterschiede --> heißt nix gecheatet...

gecheatet wurde aber bei nvidia auf kosten der bildquali

bei ati nur sehr minimal...
das steht da ja auch...


also erst lesen...

zu dem finde ich es nicht schlimm, wenn nicht sichtbares weggelassen wird um performance zu bekommen...was is daran soooooo schlimm??? bildquali is doch nahezu identisch!!


mfg
 
Du brauchst ATI nicht schön reden, die haben auch ein wenig in 3DMark2003 gemogelt, selbst zugegeben und diese "spezielle" Optimierung wieder entfernt.

ATI gab es von Anfang an offen zu das sie einen optimierten/intelligenten AF einsetzen, der die Qualtität nicht sichtbar beeinträchtigt.

So eine Meldung gab es von NVIDIA nicht und sie haben ihre Optimierungen auch nicht entfernt.

fast keine unterschiede --> heißt nix gecheatet...

Das ist wohl totaler Schwachsinn. Übertragen in den Sport würde es bedeuten: Wenn Doping nichts bringt ist es kein Doping obwohl verbotene Substanzen benutzt werden.

Man kann nicht mehr genau sagen, was erlaubt ist und was nicht. Wer stellt hier die Regeln auf? Außerdem kann man die graphische Qualtit nur subjektiv bewerten. Was ich als Cheaten empfinde, ist das starke Optimieren auf einen Bestimmten Benchmark, denn diese Ergebnisse spiegeln sich nicht in andere Anwendungen wieder --> Cheaten

NVIDIAs Optimierungen bringen da viel mehr Performance, was in anderen Anwendungen nicht der Fall ist. NVIDIA cheatet als heftiger als ATI, trotzdem optmiert ATI auch ihre Treiber auf ganz bestimmte Anwendungen/Benchmarks/Spiele.
 
Original geschrieben von CapJo


es sollte auch eher heißen "fast nix gecheatet"
das mit dem doping is ein schrottvergleich...

um nur mal kurz zu sagen, das in allen bereichen der welt optimiert wird, finde ich es nicht verwerflich, wenn man optimiert ohne die wichtigsten aspekte außer augenschein zu lassen, wie in diesem fall die bildquali.

um auch ein beispiel zu bringen, das eher in richtung technik geht:
motoroptimierung (auto) für geringeren verbrauch und oder mehr ps, mehr laufruhe etc...
je nach anforderung unterschiedlich (ich stelle gerade fest, daß kann man ja ewig so weiter ausführen ohne ende ;) )
aber er muss z.b. 200000km halten...dieses augenmerk wird dann nie außer acht gelassen und drumherum-optimiert...wenn es dann nur 150000km hält is das konzept schrott...wenn es aber 199000km hält druchaus akzeptabel, WENN denn dann die anderen sachen auch noch erfüllt sind...

und das ist ati gelungen...aber 100%ig
wenn mir allerdings die bildquali wurscht is, dann brauch man sich auch nich sone tolle teure karte kaufen und einen treiber dazu, der wieder alles zunichte macht, indem er die bilder aussehen lässt wie auf einer tnt2 oder was...

mfg :-*
 
Es geht nicht darum, dass die Grafikkartenhersteller ihr Treiber im allgemeinen optimieren. Dies ist auf jeden Fall positiv zu sehen, da es mehr Performance bringt und die Qualität kaum verschlechtert.

Sie optimieren jedoch Spiele und Benchmarks, die in Tests benutzen sehr stark und dies verzerrt die Realtität und ist als Cheat anzusehen. Das Spiel X, dass bei den Tests verwendet wird läuft mit 100 FPS alle anderen Spiele die nicht bei solchen Tests verwendet werden laufen dagegen nur halb so schnell.

Welche Aussage kann man nun über diesen Test machen indem nur optimierte Spiele und Benchmarks verwendet werden? Eigentlich gar nichts mehr, denn sie haben ja keine Aussagekraft über die tatsächliche Performance einer Grafikkarte.

Der optimierte/intelligente AF von ATI wird ja bei allen Anwendung/Spielen/Benchmarks verwendet und ist nicht für etwas bestimmtes optimiert, also auch kein Cheat.

Bei NVIDIA ist es dagegen so, dass die Optimierungen nur auf bestimmte Spiele und Benchmarks zutreffen und bei der restlichen Software nicht benutzt werden, Cheat!

Wie ich schon vorher geschrieben habe hat ATI auch Optimierungen genutzt, aber nur auf sehr geringem Niveau und ohne die graphische Qulität zu verschlechtern.
 
Original geschrieben von CapJo


ati aber auf vernachlassigbar geringem niveau wie ich finde ;)
die benches sind fast alle gleich im gegensatz zu nvidia...

ati also minimal und vernachlässigbar
nvidia extrem und die erkennung des cheats auch noch verdecken


mfg
 
Zurück
Oben Unten