Futuremark 3DMark03 Patch 330

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Futuremark hat für seinen synthetischen Grafikkarten-Test 3DMark03 erneut einen Patch nachgeschoben. Dieses mal allerdings nicht, um Features hinzuzufügen oder Fehler zu korrigieren, sondern um diverse Grafikkarten-Hersteller am "cheaten" zu hindern!

nVidia hatte dem neuen Grafiktreiber 44.03 für die GeForce FX 5900 offenbar "beigebracht", zu erkennen, ob es sich bei der gerade ausgeführten Anwendung um den 3DMark03 handelt oder nicht. Falls ja, wurde durch Eingriffe in den Programmablauf das Ergebnis manipuliert. Als Folge davon spuckte der Benchmark natürlich einen besseren Wert aus, als der Grafikkarte eigentlich zustehen würde.

Mit dem Patch 330 schließt Futuremark diese Lücke. Als Resultat davon büßt die FX 5900 Ultra beinahe 25% des Gesamtindex ein und liegt damit wieder hinter seinem Widersacher aus dem Hause ATI, der Radeon 9800 Pro. Doch auch ATI hatte seine Treiber offensichtlich geringfügig manipuliert, da auch mit den ATI-Karten ein Performance-Rückgang von 2% (Gesamtergebnis) bis 8% (Natureszene) zu messen ist. Weitere Informationen dazu gibt's bei <a href="http://www.computerbase.de/news.php?id=5316" TARGET="b">ComputerBase</A>.

<b>Download:</b><li><a href="http://www.futuremark.com/download/?3dmark03patch330.shtml" TARGET="b">3DMark03 Patch 330 (Mirrors)</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/file/get.pl?20030525162018">3DMark03 Patch 330 (eDonkey)</a></li>

THX astronautix für den Hinweis
 
Ist schon peinlich, wenn diese Schummeleien ans Tageslicht kommen.
Ist ja eigentlich selten blöde von Nvivia, irgendwann kommt sowas immer raus und könnte einen herben Imageverlust nach sich ziehen.
 
Boa,

Bei mir läuft 3DMark2003 gar nicht zusammen mit 44.03 Treiber von nVidia. :(
 
War ja klar das sowas irgendwann kommen würde.

Deswegen sollte man beim Graka auch ned auf Featuremark Benches schaun ;D
 
Da steht aber auch was von ATI!!!!
Zwar sind es nicht 25% wie bei Nvidia,aber Schummelei ist und bleibt schummelei.
 
Da siehts man wieder wer die Treiber besser und schneller optimieren kann ;)
 
Bei Heise gestern stand was von wegen knapp 50% für NVidias GF5900FX. Das muß man sich mal reintun! Wie schlecht muß der Code von Futuremark geschrieben sein, wenn bei den paar Optimierung seitens eines GPU-Herstellers und anschließendem gleichen Bildergebnis die Grafikleistung einer Karte so gewaltig steigt? *kopfkratz
Das Gegenargument, daß man so eine Art unoptimierten Einheitscode bereitstellen müsse, der die speziellen Fähigkeit einer GPU nicht berücksichtigen darf, um eine andere nicht zu benachteiligen oder weil man einfach mal so trallala meint, daß Grafikcode in 2 Jahren so aussehen müsse, ist doch mehr als dämlich. Jedes Kind weiß, daß nirgends so viel getuned wird, um das letzte Quäntchen Leistung herauszukriegen, wie bei Grafiktreibern, Grafikchips und den entsprechenden Anwendungen. Jedes Game wird schließlich entsprechend auf maximale Performance angepaßt, da es sich auch verkaufen soll

PS:
Ich bin nun wirklich nicht auf eine GPU-Firma fixiert. Von mir aus kann meine nächste GPU Fred heißen und in Timbuktu aus der Rinde eines angeschimmelten Affenbrotbaumes geschnitzt worden sein (wenn 'se taugt), aber dieses letzte MadOnion-murks-gedöns-dingsbumms'03 ist doch voll peinlich!

Futuremark != seriös
 
Original geschrieben von Nosyboy
Da siehts man wieder wer die Treiber besser und schneller optimieren kann ;)

Hm,
man könnte natürlich auch feststellen:
Jetzt wissen wir, warum Nvidia sein einem halben Jahr keine funktionierenden Nforce2 IDE-Treiber herstellen kann: sie hatten "WICHTIGERES" zu tun! ;)

Issja wichtiger, die ganzen 13-jährigen Flachwi**er beim 3DMurks zu befriedigen. sonst koofen die sich am Ende noch ihre nächste neue Graka erst nach einem halben Jahr, und nicht mehr alle 3 Monate (... wie das Nfurz Plansoll vorgesehen hatte). Oder gar noch schlimmer: sie greifen zu einem Konkurrenzprodukt! :o

Schnellschnell, Herr Nvidia: Sofort einen neuen Nforce2 AGP-Treiber basteln, mit dem nur mehr GFurz-Grakas auf Nfurz-boards funzen! ;D
 
Original geschrieben von BadMoon
Hm,
man könnte natürlich auch feststellen:
Jetzt wissen wir, warum Nvidia sein einem halben Jahr keine funktionierenden Nforce2 IDE-Treiber herstellen kann: sie hatten "WICHTIGERES" zu tun! ;)

Issja wichtiger, die ganzen 13-jährigen Flachwi**er beim 3DMurks zu befriedigen. sonst koofen die sich am Ende noch ihre nächste neue Graka erst nach einem halben Jahr, und nicht mehr alle 3 Monate (... wie das Nfurz Plansoll vorgesehen hatte). Oder gar noch schlimmer: sie greifen zu einem Konkurrenzprodukt! :o

Schnellschnell, Herr Nvidia: Sofort einen neuen Nforce2 AGP-Treiber basteln, mit dem nur mehr GFurz-Grakas auf Nfurz-boards funzen! ;D

lol wenn das tatsächlich kääme (nvidia trau ich alles zu ;D)
dann bin ich wieder via fan hehe
 
Original geschrieben von SirThor
Bei Heise gestern stand was von wegen knapp 50% für NVidias GF5900FX. Das muß man sich mal reintun! Wie schlecht muß der Code von Futuremark geschrieben sein, wenn bei den paar Optimierung seitens eines GPU-Herstellers und anschließendem gleichen Bildergebnis die Grafikleistung einer Karte so gewaltig steigt? *kopfkratz

Die Bildqualität bleibt halt nicht gleich. Wenn du den Artikel bei Heise nochmal liest, wirst du feststellen, daß gewisse Sachen beim Rendern einfach weggelassen werden. Das mag zwar beim spielen/betrachten nicht wirklich auffallen, das Bild ist aber nicht mehr das gleiche.

puck
 
bischen schummeln darf jeder war schon immer so und wird wohl auch in zukunft so bleiben

aber 25 % hallo !!! :o
das wäre ja quasi schon die nächste graka-serie 6000 oder so :P

sowas is nur noch peinlich :]
 
Tja tja, Was "man" ("man" durch jeden beliebigen Hersteller ersetzen) nicht alles tut, um gut dazustehen! tz tz tz *zweifel* mir scheint, als ob "mehr schein als sein" total in Mode ist *kopfkratz

Ich hoffe ja immer noch, dass 3DLabs mit ihrer VPU mal einen gewaltigen Schritt vorwärts machen und auch etwas mitmischen (Aber bitte ohne zu schummeln!!!)

H.a.n.d.
Knife
 
Nun wirds interessant. News.com zitiert einen namentlich nicht benannten offiziellen von nVidia, welcher behauptet das Furturemark einen "Patch" eingebaut hat welcher nVidia Karten absichtlich schlecht aussehen lässt.

"Since Nvidia is not part of the Futuremark beta program (a program which costs of hundreds of thousands of dollars to participate in), we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer," the representative said. "We don't know what they did, but it looks like they have intentionally tried to create a scenario that makes our products look bad."

Wenn es nVidia gelingt diese Aussage zu beweisen, kommt Futuremark aber in Erklärungsnot.

Er ist aber nicht weiter darauf eingegangen, warum nVidia letztendlich geschummelt hat. :]
 
Zuletzt bearbeitet:
Einfach nur LOL *lol*
 
Original geschrieben von Mighty
Nun wirds interessant. News.com zitiert einen namentlich nicht benannten offiziellen von nVidia, welcher behauptet das Furturemark einen "Patch" eingebaut hat welcher nVidia Karten absichtlich schlecht aussehen lässt.

Wenn es nVidia gelingt diese Aussage zu beweisen, kommt Futuremark aber in Erklärungsnot.

Er ist aber nicht weiter darauf eingegangen, warum nVidia letztendlich geschummelt hat. :]

*lol* *lol* Mach mich nass! *prust* *lol* *lol*

Seit Jahr und Tag verkauft diese Nvidia-Blenderpartie ihre Karten ausschliesslich aufgrund nichtssagender 3DMurks Punkteergebnisse, und nu machen sie einen auf "schmollender LOSER, den man beim bigtime Cheaten erwischt hat".
"Räbääähhh! Mutti, ich war's nich! Die anderen ..." ;)
 
Original geschrieben von BadMoon
*lol* *lol* Mach mich nass! *prust* *lol* *lol*

Seit Jahr und Tag verkauft diese Nvidia-Blenderpartie ihre Karten ausschliesslich aufgrund nichtssagender 3DMurks Punkteergebnisse, und nu machen sie einen auf "schmollender LOSER, den man beim bigtime Cheaten erwischt hat".
"Räbääähhh! Mutti, ich war's nich! Die anderen ..." ;)

BIG ZUSTIMM!!
das is nur noch PEINLICH *lol* *lol* *lol* *lol*
 
Also die Sache hat für mich 2 Seiten:

Die eine: Nvidia kann ohne großartige Grafikverlusste 25% mehr Leistung herbeizaubern.

Die andere ETWAS größere Kehrseite: Sie verschweigt das die Ergebnisse auf grund eben dieser Optimierungen so gut sind.

Die zweite auch recht große Kehrseite: Nvidia war SEHR darauf konzentriert den Treiber für dieses Programm zu tunen. Macht Nvidia das nur für die Vozeigebenches??? Wer weiß ob das bei Den Quake-Benchs, Serious Sam 2-Benchs usw usw genauso ist???

Ich weiß es ist nur eine Theorie aber NVidia weiß genau welche Spiele meist für Benchs genutzt werden... ATI übrigens genauso. Wird bei DIESEN Spielen dann extrem getunt (was anscheinend sehrt gut klappt) aber bei den weniger gut zum Benchen geeigneten Spielen nicht??? Sitzten Spieler von NICHT-Bench Games dumm da???

Also ich finde es wäre eine beeindruckende Sache von NVIDIA gewesen wenn sie gesagt hätten "Hey schaut mal her: Wir haben ohne wirklich merkbaren Bildqualitätsverlusst 25% mehr Leistung herbei gezaubert!!! Das soll die Konkurenz erstmal nachmachen!!!"

Also entweder sind die von NVIDIA einfach nur dämlich oder sie wissen das ATI diese 25% mehr Leistung auch hinbekommen würde wenn sie wollten. Nur das die es nicht machen weil sie um den Imageverlusst wissen wenn dieses rauskäme, was den Nvidia-Spacken anscheinend net in den Sinn kommt.

Aber NEIN. Es muss ja immer alles verpfuscht, verheimlicht und rumgeschoben werden. Ich finde diese methoden sowas von lächerlich und ich mag diese Methoden auch nicht. Und solange von ATI nichts dergleichen gesagt werden kann bleib ich FÜRS ERSTE bei denen...
 
Zuletzt bearbeitet:
so wies scheint haben die ganz sicher auch bei den doom3 benchs gefuscht GANZ SICHER..;D
ich find echt erbärmlich wie tief nvidia schon gesunken is
;D
mfg
 
Zitat von der C'T Newsmeldung :

So sollen die Nvidia-Treiber 43.51 und 44.03 im DirectX-9-Test "Mother Nature" von der Kamera nicht erfasste Bereiche der besonders rechenintensiven Himmelskuppel durch Clip-Planes begrenzen und teilweise gar nicht berechnen. Damit verschafft sich Nvidia natürlich einen Vorteil gegenüber seinem Konkurrenten ATI, der den gesammten Himmel berechnet.

Ist klar das diese Auslassen der Berechnung eine großen Geschwindigkeitsvorteil mit sich bringt
 
Zurück
Oben Unten