App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Futuremark 3DMark03 Patch 330
- Ersteller Nero24
- Erstellt am
★ Themenstarter ★
Futuremark hat für seinen synthetischen Grafikkarten-Test 3DMark03 erneut einen Patch nachgeschoben. Dieses mal allerdings nicht, um Features hinzuzufügen oder Fehler zu korrigieren, sondern um diverse Grafikkarten-Hersteller am "cheaten" zu hindern!
nVidia hatte dem neuen Grafiktreiber 44.03 für die GeForce FX 5900 offenbar "beigebracht", zu erkennen, ob es sich bei der gerade ausgeführten Anwendung um den 3DMark03 handelt oder nicht. Falls ja, wurde durch Eingriffe in den Programmablauf das Ergebnis manipuliert. Als Folge davon spuckte der Benchmark natürlich einen besseren Wert aus, als der Grafikkarte eigentlich zustehen würde.
Mit dem Patch 330 schließt Futuremark diese Lücke. Als Resultat davon büßt die FX 5900 Ultra beinahe 25% des Gesamtindex ein und liegt damit wieder hinter seinem Widersacher aus dem Hause ATI, der Radeon 9800 Pro. Doch auch ATI hatte seine Treiber offensichtlich geringfügig manipuliert, da auch mit den ATI-Karten ein Performance-Rückgang von 2% (Gesamtergebnis) bis 8% (Natureszene) zu messen ist. Weitere Informationen dazu gibt's bei <a href="http://www.computerbase.de/news.php?id=5316" TARGET="b">ComputerBase</A>.
<b>Download:</b><li><a href="http://www.futuremark.com/download/?3dmark03patch330.shtml" TARGET="b">3DMark03 Patch 330 (Mirrors)</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/file/get.pl?20030525162018">3DMark03 Patch 330 (eDonkey)</a></li>
THX astronautix für den Hinweis
nVidia hatte dem neuen Grafiktreiber 44.03 für die GeForce FX 5900 offenbar "beigebracht", zu erkennen, ob es sich bei der gerade ausgeführten Anwendung um den 3DMark03 handelt oder nicht. Falls ja, wurde durch Eingriffe in den Programmablauf das Ergebnis manipuliert. Als Folge davon spuckte der Benchmark natürlich einen besseren Wert aus, als der Grafikkarte eigentlich zustehen würde.
Mit dem Patch 330 schließt Futuremark diese Lücke. Als Resultat davon büßt die FX 5900 Ultra beinahe 25% des Gesamtindex ein und liegt damit wieder hinter seinem Widersacher aus dem Hause ATI, der Radeon 9800 Pro. Doch auch ATI hatte seine Treiber offensichtlich geringfügig manipuliert, da auch mit den ATI-Karten ein Performance-Rückgang von 2% (Gesamtergebnis) bis 8% (Natureszene) zu messen ist. Weitere Informationen dazu gibt's bei <a href="http://www.computerbase.de/news.php?id=5316" TARGET="b">ComputerBase</A>.
<b>Download:</b><li><a href="http://www.futuremark.com/download/?3dmark03patch330.shtml" TARGET="b">3DMark03 Patch 330 (Mirrors)</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/file/get.pl?20030525162018">3DMark03 Patch 330 (eDonkey)</a></li>
THX astronautix für den Hinweis
zapbranigan
Admiral Special
- Mitglied seit
- 07.01.2003
- Beiträge
- 1.904
- Renomée
- 9
könnte?
wird es!
wird es!
shadow
Admiral Special
- Mitglied seit
- 01.08.2001
- Beiträge
- 1.780
- Renomée
- 9
- Standort
- Reutlingen
- Details zu meinem Desktop
- Prozessor
- Intel core i5-2500K@4.2GHz
- Mainboard
- ASRock Z77 Pro3
- Kühlung
- Noctua NH-U12P (620 rpm)
- Speicher
- 2x8GB Kingston HyperX Fury DDR3 1866
- Grafikprozessor
- EVGA GTX 1070 FTW
- Display
- Dell U2212HM
- SSD
- Samsung SSD 830
- HDD
- Samsung HD204UI (2TB)
- Optisches Laufwerk
- Samsung SH223Q
- Soundkarte
- Onboard Realtek HD Audio
- Gehäuse
- Fractal Design R5
- Netzteil
- Enermax Platimax 500W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Mozilla Firefox
War ja klar das sowas irgendwann kommen würde.
Deswegen sollte man beim Graka auch ned auf Featuremark Benches schaun
Deswegen sollte man beim Graka auch ned auf Featuremark Benches schaun

Kalle
Vice Admiral Special
- Mitglied seit
- 17.06.2002
- Beiträge
- 842
- Renomée
- 0
- Standort
- Berlin
- Details zu meinem Desktop
- Prozessor
- AMD Athlon II X3 445 3x3.10GHz
- Mainboard
- MSI 870A-G54
- Kühlung
- ARCTIC COOLING Freezer 13
- Speicher
- 4GB CORSAIR CL9 XMS3 PC3-1600 KIT 4GB CORSAIR CL9 XMS3 PC3-1600 KIT
- Grafikprozessor
- ATI Radeon HD 4870
- Display
- Samsung SyncMaster P2270
- HDD
- 2x80 GB Maxtor Raid 0 ATA 133+WD 500GB ATA-300
Da steht aber auch was von ATI!!!!
Zwar sind es nicht 25% wie bei Nvidia,aber Schummelei ist und bleibt schummelei.
Zwar sind es nicht 25% wie bei Nvidia,aber Schummelei ist und bleibt schummelei.
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.616
- Renomée
- 123
- Standort
- Switzerland
- Mein Laptop
- Lenovo IdeaPad Slim 3 (16", AMD Ryzen 5 7530U, 16GB) WIN11 / Zorin OS
- Details zu meinem Desktop
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Da siehts man wieder wer die Treiber besser und schneller optimieren kann 

thegrompf
Vice Admiral Special
Original geschrieben von Nosyboy
Da siehts man wieder wer die Treiber besser und schneller optimieren kann![]()



SirThor
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 3.058
- Renomée
- 20
- Standort
- Sachsen
- Mein Laptop
- Acer Extensa 5220
- Details zu meinem Desktop
- Prozessor
- i7-4790k
- Mainboard
- ASUS Z97 Deluxe
- Kühlung
- Brocken Rev.2
- Speicher
- 32 GB DDR3 (4x8GB Corsair Vengeance)
- Grafikprozessor
- MSI GeForce GTX 980Ti Gaming
- Display
- iiyama proLite XB2779QS-1 (WQHD 2560 x 1440)
- SSD
- Samsung 840 EVO 1TB, Cruical MX200 1TB
- HDD
- SATA: Seagate Barracuda 3GB ST3000DM001
- Optisches Laufwerk
- SATA: Optiarc DVD RW AD-7203S, LG HL-DT-ST BDDVDRW CH10LS20
- Soundkarte
- SB Z
- Gehäuse
- Corsair C70
- Netzteil
- Corsair AX760
- Betriebssystem
- Windows7 64bit Professional
- Webbrowser
- Firefox Version irgendwas gegen unendlich
- Verschiedenes
- mechanische Tastatur: Corsair Vengeance K60 ...nie wieder Gumminoppen :-)
Bei Heise gestern stand was von wegen knapp 50% für NVidias GF5900FX. Das muß man sich mal reintun! Wie schlecht muß der Code von Futuremark geschrieben sein, wenn bei den paar Optimierung seitens eines GPU-Herstellers und anschließendem gleichen Bildergebnis die Grafikleistung einer Karte so gewaltig steigt? 
Das Gegenargument, daß man so eine Art unoptimierten Einheitscode bereitstellen müsse, der die speziellen Fähigkeit einer GPU nicht berücksichtigen darf, um eine andere nicht zu benachteiligen oder weil man einfach mal so trallala meint, daß Grafikcode in 2 Jahren so aussehen müsse, ist doch mehr als dämlich. Jedes Kind weiß, daß nirgends so viel getuned wird, um das letzte Quäntchen Leistung herauszukriegen, wie bei Grafiktreibern, Grafikchips und den entsprechenden Anwendungen. Jedes Game wird schließlich entsprechend auf maximale Performance angepaßt, da es sich auch verkaufen soll
PS:
Ich bin nun wirklich nicht auf eine GPU-Firma fixiert. Von mir aus kann meine nächste GPU Fred heißen und in Timbuktu aus der Rinde eines angeschimmelten Affenbrotbaumes geschnitzt worden sein (wenn 'se taugt), aber dieses letzte MadOnion-murks-gedöns-dingsbumms'03 ist doch voll peinlich!
Futuremark != seriös

Das Gegenargument, daß man so eine Art unoptimierten Einheitscode bereitstellen müsse, der die speziellen Fähigkeit einer GPU nicht berücksichtigen darf, um eine andere nicht zu benachteiligen oder weil man einfach mal so trallala meint, daß Grafikcode in 2 Jahren so aussehen müsse, ist doch mehr als dämlich. Jedes Kind weiß, daß nirgends so viel getuned wird, um das letzte Quäntchen Leistung herauszukriegen, wie bei Grafiktreibern, Grafikchips und den entsprechenden Anwendungen. Jedes Game wird schließlich entsprechend auf maximale Performance angepaßt, da es sich auch verkaufen soll
PS:
Ich bin nun wirklich nicht auf eine GPU-Firma fixiert. Von mir aus kann meine nächste GPU Fred heißen und in Timbuktu aus der Rinde eines angeschimmelten Affenbrotbaumes geschnitzt worden sein (wenn 'se taugt), aber dieses letzte MadOnion-murks-gedöns-dingsbumms'03 ist doch voll peinlich!
Futuremark != seriös
Original geschrieben von Nosyboy
Da siehts man wieder wer die Treiber besser und schneller optimieren kann![]()
Hm,
man könnte natürlich auch feststellen:
Jetzt wissen wir, warum Nvidia sein einem halben Jahr keine funktionierenden Nforce2 IDE-Treiber herstellen kann: sie hatten "WICHTIGERES" zu tun!

Issja wichtiger, die ganzen 13-jährigen Flachwi**er beim 3DMurks zu befriedigen. sonst koofen die sich am Ende noch ihre nächste neue Graka erst nach einem halben Jahr, und nicht mehr alle 3 Monate (... wie das Nfurz Plansoll vorgesehen hatte). Oder gar noch schlimmer: sie greifen zu einem Konkurrenzprodukt!

Schnellschnell, Herr Nvidia: Sofort einen neuen Nforce2 AGP-Treiber basteln, mit dem nur mehr GFurz-Grakas auf Nfurz-boards funzen!

StreifenKarl
Admiral Special
Original geschrieben von BadMoon
Hm,
man könnte natürlich auch feststellen:
Jetzt wissen wir, warum Nvidia sein einem halben Jahr keine funktionierenden Nforce2 IDE-Treiber herstellen kann: sie hatten "WICHTIGERES" zu tun!![]()
Issja wichtiger, die ganzen 13-jährigen Flachwi**er beim 3DMurks zu befriedigen. sonst koofen die sich am Ende noch ihre nächste neue Graka erst nach einem halben Jahr, und nicht mehr alle 3 Monate (... wie das Nfurz Plansoll vorgesehen hatte). Oder gar noch schlimmer: sie greifen zu einem Konkurrenzprodukt!![]()
Schnellschnell, Herr Nvidia: Sofort einen neuen Nforce2 AGP-Treiber basteln, mit dem nur mehr GFurz-Grakas auf Nfurz-boards funzen!![]()
lol wenn das tatsächlich kääme (nvidia trau ich alles zu

dann bin ich wieder via fan hehe
PuckPoltergeist
Grand Admiral Special
Original geschrieben von SirThor
Bei Heise gestern stand was von wegen knapp 50% für NVidias GF5900FX. Das muß man sich mal reintun! Wie schlecht muß der Code von Futuremark geschrieben sein, wenn bei den paar Optimierung seitens eines GPU-Herstellers und anschließendem gleichen Bildergebnis die Grafikleistung einer Karte so gewaltig steigt?
Die Bildqualität bleibt halt nicht gleich. Wenn du den Artikel bei Heise nochmal liest, wirst du feststellen, daß gewisse Sachen beim Rendern einfach weggelassen werden. Das mag zwar beim spielen/betrachten nicht wirklich auffallen, das Bild ist aber nicht mehr das gleiche.
puck
Knife
Commodore Special
Tja tja, Was "man" ("man" durch jeden beliebigen Hersteller ersetzen) nicht alles tut, um gut dazustehen! tz tz tz
mir scheint, als ob "mehr schein als sein" total in Mode ist
Ich hoffe ja immer noch, dass 3DLabs mit ihrer VPU mal einen gewaltigen Schritt vorwärts machen und auch etwas mitmischen (Aber bitte ohne zu schummeln!!!)
H.a.n.d.
Knife


Ich hoffe ja immer noch, dass 3DLabs mit ihrer VPU mal einen gewaltigen Schritt vorwärts machen und auch etwas mitmischen (Aber bitte ohne zu schummeln!!!)
H.a.n.d.
Knife
Mighty
Senior Moderator
☆☆☆☆☆☆
Nun wirds interessant. News.com zitiert einen namentlich nicht benannten offiziellen von nVidia, welcher behauptet das Furturemark einen "Patch" eingebaut hat welcher nVidia Karten absichtlich schlecht aussehen lässt.
Wenn es nVidia gelingt diese Aussage zu beweisen, kommt Futuremark aber in Erklärungsnot.
Er ist aber nicht weiter darauf eingegangen, warum nVidia letztendlich geschummelt hat.![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
"Since Nvidia is not part of the Futuremark beta program (a program which costs of hundreds of thousands of dollars to participate in), we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer," the representative said. "We don't know what they did, but it looks like they have intentionally tried to create a scenario that makes our products look bad."
Wenn es nVidia gelingt diese Aussage zu beweisen, kommt Futuremark aber in Erklärungsnot.
Er ist aber nicht weiter darauf eingegangen, warum nVidia letztendlich geschummelt hat.
![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
Zuletzt bearbeitet:
CleanerWolf
Fleet Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 269
- Renomée
- 2
- Standort
- Berlin
- Details zu meinem Desktop
- Prozessor
- AMD Athlon64 X2 4200+ @2,6 GHz
- Mainboard
- DFI Lanparty nf4 SLI-DR Expert
- Kühlung
- Thermalright SI 120 + Papst 4412F/2GLL
- Speicher
- G.Skill 2048MB F1-4000USU2-2GBHZ (DDR500)
- Grafikprozessor
- XFX 7900 GT 520MHz, 256MB
- Display
- 19", CTX, 1280x1024
- HDD
- WD Raptor 150GB + Seagate 400 GB
- Optisches Laufwerk
- Plextor PX-130A, LG GSA-4167B
- Soundkarte
- Soundblaster X-Fi Platinum
- Gehäuse
- Thermaltake VB6000 Swing
- Netzteil
- Be Quiet 520W Dark Power
- Betriebssystem
- WinXP SP2 + WinXP x64
Einfach nur LOL 

Original geschrieben von Mighty
Nun wirds interessant. News.com zitiert einen namentlich nicht benannten offiziellen von nVidia, welcher behauptet das Furturemark einen "Patch" eingebaut hat welcher nVidia Karten absichtlich schlecht aussehen lässt.
Wenn es nVidia gelingt diese Aussage zu beweisen, kommt Futuremark aber in Erklärungsnot.
Er ist aber nicht weiter darauf eingegangen, warum nVidia letztendlich geschummelt hat.![]()




Seit Jahr und Tag verkauft diese Nvidia-Blenderpartie ihre Karten ausschliesslich aufgrund nichtssagender 3DMurks Punkteergebnisse, und nu machen sie einen auf "schmollender LOSER, den man beim bigtime Cheaten erwischt hat".
"Räbääähhh! Mutti, ich war's nich! Die anderen ..."

StreifenKarl
Admiral Special
Original geschrieben von BadMoon
![]()
Mach mich nass! *prust*
![]()
![]()
Seit Jahr und Tag verkauft diese Nvidia-Blenderpartie ihre Karten ausschliesslich aufgrund nichtssagender 3DMurks Punkteergebnisse, und nu machen sie einen auf "schmollender LOSER, den man beim bigtime Cheaten erwischt hat".
"Räbääähhh! Mutti, ich war's nich! Die anderen ..."![]()
BIG ZUSTIMM!!
das is nur noch PEINLICH




Desertdelphin
Grand Admiral Special
- Mitglied seit
- 23.10.2002
- Beiträge
- 4.396
- Renomée
- 185
Also die Sache hat für mich 2 Seiten:
Die eine: Nvidia kann ohne großartige Grafikverlusste 25% mehr Leistung herbeizaubern.
Die andere ETWAS größere Kehrseite: Sie verschweigt das die Ergebnisse auf grund eben dieser Optimierungen so gut sind.
Die zweite auch recht große Kehrseite: Nvidia war SEHR darauf konzentriert den Treiber für dieses Programm zu tunen. Macht Nvidia das nur für die Vozeigebenches
Wer weiß ob das bei Den Quake-Benchs, Serious Sam 2-Benchs usw usw genauso ist
Ich weiß es ist nur eine Theorie aber NVidia weiß genau welche Spiele meist für Benchs genutzt werden... ATI übrigens genauso. Wird bei DIESEN Spielen dann extrem getunt (was anscheinend sehrt gut klappt) aber bei den weniger gut zum Benchen geeigneten Spielen nicht
Sitzten Spieler von NICHT-Bench Games dumm da
Also ich finde es wäre eine beeindruckende Sache von NVIDIA gewesen wenn sie gesagt hätten "Hey schaut mal her: Wir haben ohne wirklich merkbaren Bildqualitätsverlusst 25% mehr Leistung herbei gezaubert!!! Das soll die Konkurenz erstmal nachmachen!!!"
Also entweder sind die von NVIDIA einfach nur dämlich oder sie wissen das ATI diese 25% mehr Leistung auch hinbekommen würde wenn sie wollten. Nur das die es nicht machen weil sie um den Imageverlusst wissen wenn dieses rauskäme, was den Nvidia-Spacken anscheinend net in den Sinn kommt.
Aber NEIN. Es muss ja immer alles verpfuscht, verheimlicht und rumgeschoben werden. Ich finde diese methoden sowas von lächerlich und ich mag diese Methoden auch nicht. Und solange von ATI nichts dergleichen gesagt werden kann bleib ich FÜRS ERSTE bei denen...
Die eine: Nvidia kann ohne großartige Grafikverlusste 25% mehr Leistung herbeizaubern.
Die andere ETWAS größere Kehrseite: Sie verschweigt das die Ergebnisse auf grund eben dieser Optimierungen so gut sind.
Die zweite auch recht große Kehrseite: Nvidia war SEHR darauf konzentriert den Treiber für dieses Programm zu tunen. Macht Nvidia das nur für die Vozeigebenches


Ich weiß es ist nur eine Theorie aber NVidia weiß genau welche Spiele meist für Benchs genutzt werden... ATI übrigens genauso. Wird bei DIESEN Spielen dann extrem getunt (was anscheinend sehrt gut klappt) aber bei den weniger gut zum Benchen geeigneten Spielen nicht


Also ich finde es wäre eine beeindruckende Sache von NVIDIA gewesen wenn sie gesagt hätten "Hey schaut mal her: Wir haben ohne wirklich merkbaren Bildqualitätsverlusst 25% mehr Leistung herbei gezaubert!!! Das soll die Konkurenz erstmal nachmachen!!!"
Also entweder sind die von NVIDIA einfach nur dämlich oder sie wissen das ATI diese 25% mehr Leistung auch hinbekommen würde wenn sie wollten. Nur das die es nicht machen weil sie um den Imageverlusst wissen wenn dieses rauskäme, was den Nvidia-Spacken anscheinend net in den Sinn kommt.
Aber NEIN. Es muss ja immer alles verpfuscht, verheimlicht und rumgeschoben werden. Ich finde diese methoden sowas von lächerlich und ich mag diese Methoden auch nicht. Und solange von ATI nichts dergleichen gesagt werden kann bleib ich FÜRS ERSTE bei denen...
Zuletzt bearbeitet:
StreifenKarl
Admiral Special
so wies scheint haben die ganz sicher auch bei den doom3 benchs gefuscht GANZ SICHER..
ich find echt erbärmlich wie tief nvidia schon gesunken is

mfg

ich find echt erbärmlich wie tief nvidia schon gesunken is

mfg
Denniss
Grand Admiral Special
- Mitglied seit
- 25.04.2002
- Beiträge
- 4.919
- Renomée
- 63
- Standort
- Region Hannover
- Details zu meinem Desktop
- Prozessor
- AMD Phenom II X6 1050T
- Mainboard
- Asrock M3A770DE
- Kühlung
- Alpenföhn Ben Nevis
- Speicher
- Kingston 2x 8 GiB PC3-12800
- Grafikprozessor
- Radeon RX 460 2 GiB
- Display
- Asus VS 278
- SSD
- 2x 480GB Crucial BX300, 1TB Crucial MX500
- HDD
- 4TB WD Red
- Optisches Laufwerk
- LG DVD-Brenner
- Soundkarte
- VIA Envy24
- Netzteil
- 400W Pure Power 11
- Tastatur
- Cherry
- Betriebssystem
- Win7 x64
- Webbrowser
- FF + SM
Zitat von der C'T Newsmeldung :
So sollen die Nvidia-Treiber 43.51 und 44.03 im DirectX-9-Test "Mother Nature" von der Kamera nicht erfasste Bereiche der besonders rechenintensiven Himmelskuppel durch Clip-Planes begrenzen und teilweise gar nicht berechnen. Damit verschafft sich Nvidia natürlich einen Vorteil gegenüber seinem Konkurrenten ATI, der den gesammten Himmel berechnet.
Ist klar das diese Auslassen der Berechnung eine großen Geschwindigkeitsvorteil mit sich bringt
So sollen die Nvidia-Treiber 43.51 und 44.03 im DirectX-9-Test "Mother Nature" von der Kamera nicht erfasste Bereiche der besonders rechenintensiven Himmelskuppel durch Clip-Planes begrenzen und teilweise gar nicht berechnen. Damit verschafft sich Nvidia natürlich einen Vorteil gegenüber seinem Konkurrenten ATI, der den gesammten Himmel berechnet.
Ist klar das diese Auslassen der Berechnung eine großen Geschwindigkeitsvorteil mit sich bringt
Ähnliche Themen
- Antworten
- 5
- Aufrufe
- 7K
- Antworten
- 0
- Aufrufe
- 5K