Futuremark 3DMark03 Patch 340

Campari

Grand Admiral Special
Mitglied seit
17.10.2000
Beiträge
17.203
Renomée
156
Futuremark hat für seinen synthetischen Grafikkarten-Test 3DMark03 erneut einen Patch bereitgestellt, der sich ebenfalls dem Cheaten widmen soll. Und wie schon beim Patch auf Version 330 (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1053872731">berichteten</a>), scheint NVIDIA wieder kräftig "optimiert" zu haben. Bei den von unserer Partnerseite <a href="http://www.computerbase.de" target="b">Computerbase</a> durchgeführten Benchmarks, zeigte sich die ATI Karte gänzlich unbeeindruckt, wohingegen die NVIDIA-Karte gut 15% verlor.

<b>Fixes & Updates:</b><ul><li>Patch changes the program's build number to 340</li><li>Maximum point sprite size is now limited to 256x256 instead of the maximum supported by the hardware</li><li>Provides more detailed and accurate system information and improved detection of hyperthreaded CPUs</li><li>Incorporates new version of the Entech library (used to detect the clock frequency of the graphics chip core and memory)</li><li>Fixed all reported and reproduced minor issues</li></ul><b>Download:</b><li><a href="http://www.futuremark.com/products/3dmark03/?03patch340" target="b">3DMark03 Patch 340 (Mirrors)</li>
 
Zuletzt bearbeitet:
Ich finds einfach nur noch Scheisse...

(wenn ich das sogar sag *lol* )

Aber mich Juckt der 3D Murks eh nich mehr. Muss aber nich sein sowas !
 
wenn ich das sogar sag

Für wahr :). Finde es auch arm wie NV versucht ihr Architekturproblem zu kaschieren aber der NV40 ist ja nun nicht mehr sooo weit entfernt. Selbiges gilt natürlich für den R420.

Das war IMHO aber absehbar. Die Steigerungen durch den 52.16 waren doch etwas zu umfangreich ;)
 
Kaufe bald Ati Aktien wenn das so weiter geht :[
und wieder via Mainbords und Gfx wird auch Ati

bei den Ide Treibern versagen die auch ständig 8-(
ich hatte mal große Hoffnungen in Nforce gesetzt
Sis tut es fast genauso gut für viel weniger Geld
Und läuft sogar stabil

alles schall und rauch 8-(
 
Original geschrieben von Friedrich II
Das war IMHO aber absehbar. Die Steigerungen durch den 52.16 waren doch etwas zu umfangreich ;)
nicht wirklich... :-X


@topic
3DMark? Was ist das? :] ;)
 
komisch .... als der Nfurz2 rauskam (und bei games effektiv 2-4% schneller war) sprangen alle wie wild auf die tollen, stabilen und bugfreien (*LACH*) nvidia chips (und via war ja immer laut denen immer am instabilsten und langsam *2. mal lach*) ... jetzt wo die ganze welt jammert wegen 10000 bugs will keiner mehr was von einem nf2 wissen

dasselbe war mit den nvidia karten bis zur 9700 - jeder der was anderes hatte war ein idiot, und über nacht sind jetzt alle idioten die nvidia grafikkarten haben ...

ich finds immer wieder toll ;D
 
Original geschrieben von Ulukay
komisch .... als der Nfurz2 rauskam (und bei games effektiv 2-4% schneller war) sprangen alle wie wild auf die tollen, stabilen und bugfreien (*LACH*) nvidia chips (und via war ja immer laut denen immer am instabilsten und langsam *2. mal lach*) ... jetzt wo die ganze welt jammert wegen 10000 bugs will keiner mehr was von einem nf2 wissen

dasselbe war mit den nvidia karten bis zur 9700 - jeder der was anderes hatte war ein idiot, und über nacht sind jetzt alle idioten die nvidia grafikkarten haben ...

ich finds immer wieder toll ;D
so oder so ist immer das selbe... bald ist es wieder andersrum..
 
vorher 5400

dann mit 340 4600

mit ner albatron geforce fx5900

also komisch find ich das alles
 
http://www.nordichardware.com/article/2003/3DMark03_340/

hier al eine nette gegenüberstellung der beiden karten. man kann genau erkennen wo die optimierungen sind.

an kann aber nicht die ati mit der nv vergleichen, da die ati nur ne pro(keine xt)ist, und die nv anscheinend auf nem schnelleren proz läuft(siehe cpu bench).
ist halt nur um die optimierungen zu verdeutlichen
 
*gähn*

geht es schon wieder los ?

Ich habe schon gehofft der Murks ist endlich in vergessenheit geraten. Die minimale abweichung was NV da bitet junkt mich nicht mal.

Aber ich ich sehe versucht Futuremark alles, das man sie aufkauft, dann dürfen sie nette Demos für Nvidia's NV45 und NV50 machen. ;D
 
Original geschrieben von Friedrich II
Für wahr :). Finde es auch arm wie NV versucht ihr Architekturproblem zu kaschieren aber der NV40 ist ja nun nicht mehr sooo weit entfernt. Selbiges gilt natürlich für den R420.

Das war IMHO aber absehbar. Die Steigerungen durch den 52.16 waren doch etwas zu umfangreich ;)


du weißt schon das futuremark sponsort by ATI ist ? :]

nun rate mal warum NUR "optimierungen" von NV durch patches gefixt werden ? :]

und nebenbei, ist die optimierung die NV da hatte nichtnur bei 3Dmurks sondern in allen 3D anwendungen.

also in dem sinne keine "optimierung" der einzelnden anwendung durch verschlechterung der bildqualität, sondern eine optimierung der shader durch den treiber ohne einbussen der bildqualität.


also in zukunft bevor man über NV herzieht mal schlau machen, der schuss geht sonst nach hinten los 8-( :[



p.s. will garnicht wissen wieviel ECHTE "optimierungen" ATI bei 3Dmark hat :]

da würde einem warscheinlich schlecht werden und die leistung würde mal um 30% abfallen :o
aber da 3Dmurks sponsored by ATI ist werden wir das wohl NIE erfahren :(
 
Original geschrieben von Onkelpappe
http://www.nordichardware.com/article/2003/3DMark03_340/

hier al eine nette gegenüberstellung der beiden karten. man kann genau erkennen wo die optimierungen sind.

an kann aber nicht die ati mit der nv vergleichen, da die ati nur ne pro(keine xt)ist, und die nv anscheinend auf nem schnelleren proz läuft(siehe cpu bench).
ist halt nur um die optimierungen zu verdeutlichen

siehe mein vohrigen post, NV hat diesmal nicht "gecheatet", da die performance nicht auf die bildqualität ging und/oder keine details in 3Dmurks ausgelassen wurden ;)
 
Original geschrieben von SKYNET
du weißt schon das futuremark sponsort by ATI ist ? :]

nun rate mal warum NUR "optimierungen" von NV durch patches gefixt werden ? :]

und nebenbei, ist die optimierung die NV da hatte nichtnur bei 3Dmurks sondern in allen 3D anwendungen.

also in dem sinne keine "optimierung" der einzelnden anwendung durch verschlechterung der bildqualität, sondern eine optimierung der shader durch den treiber ohne einbussen der bildqualität.


also in zukunft bevor man über NV herzieht mal schlau machen, der schuss geht sonst nach hinten los 8-( :[



p.s. will garnicht wissen wieviel ECHTE "optimierungen" ATI bei 3Dmark hat :]

da würde einem warscheinlich schlecht werden und die leistung würde mal um 30% abfallen :o
aber da 3Dmurks sponsored by ATI ist werden wir das wohl NIE erfahren :(

Aha das klingt ja mal interessant.

War aber auch abzusehen das sich wieder das ganze Internet über den "Skandal" aufregt, so wie man sich insg. momentan über nvidia herfällt, wie die Geier überm Kadaver...
 
Nun ... Ati trägt einen großen Teil dazu bei das derzeit NV von allen Seiten beschoßen wird, erst die ganze HL2 sache, mit FSAA läuft nur auf Ati, dann die Benchmarks. Als dann noch der Source code von HL2 im I-net gelandet ist, konnte Demirug von 3DCenter einen blick reinwerfen und sein Fazit ?: Faulheit und optimierung auf Ati.

Futuremark ist gleich zusetzen.

Dazu finde ich derzeit auch den ganzen Marketing Hirnschmalz von Ati wirklich sehr daneben, da werden benchmarks von dem Ati M10 für die Notebooks veröffentlicht, wo NV alle benches verliert, aber wenn man die Autoren von dem Artikel fragt woher sie die daten, bzw. die Test's her haten werden die Forumeinträge gelöscht. Nach den letzen rescherchen kommen diese von Ati.


Tja, ATi macht sich bei mir immer unsympatischer.
 
Im 3dcenter Forum ist der Stand im Moment, daß Nvidia gecheated hat. Der Artikel auf beyond3d.com soll dies gut verdeutlichen.
 
seit wann ist futuremark sponsored bei irgendwem???

@skynet, da du den spruch ja in mehreren foren postest antworte ich dir mal hier. es gibt keine software, die die shaderoptimierung abschalten kann, ausser man benutzt keione shader, da der treiber alle shader die er bekommt umwandelt und an die graka weitergibt, da gibt es kein drumherum.

Und was hl betrifft liegt die höhere perforance nicht an einer optimierung auf ati sondenr dx9, udn ati war nicht so größen wahnsinnig wie nv udn hat sich einfach an ms´s vorgaben was shader genauigkeit betrifft gehalten.
ein faktor könnte vielleicht noch sein, dass als die hl² engine programiert wurde valve garkeine chance hatte auf ner NV DX9 karte zu testen, weil die garkeine vorweisne konnten.
 
da ist nix gesponsored! Wenn doch bin ich für neutrale Quellen jederzeit offen.
 
Original geschrieben von SKYNET
du weißt schon das futuremark sponsort by ATI ist ? :]

nun rate mal warum NUR "optimierungen" von NV durch patches gefixt werden ? :]

und nebenbei, ist die optimierung die NV da hatte nichtnur bei 3Dmurks sondern in allen 3D anwendungen.

also in dem sinne keine "optimierung" der einzelnden anwendung durch verschlechterung der bildqualität, sondern eine optimierung der shader durch den treiber ohne einbussen der bildqualität.


also in zukunft bevor man über NV herzieht mal schlau machen, der schuss geht sonst nach hinten los 8-( :[



p.s. will garnicht wissen wieviel ECHTE "optimierungen" ATI bei 3Dmark hat :]

da würde einem warscheinlich schlecht werden und die leistung würde mal um 30% abfallen :o
aber da 3Dmurks sponsored by ATI ist werden wir das wohl NIE erfahren :(
ja, schon klar! ati ist eigentlich im besitz von ausserirdischen, die sich die weltherrschaft unter den nagel reissen wollen... *lol*

jetzt bleibt doch bitte mal auf dem teppich. dieser glaubenskrieg ist sowas von lächerlich. :]
 
Ich verstehe euer Problem einfach nicht! Wieso regt ihr euch über so viel heisse Luft auf???????

Mir persönlich ist es scheissegal ob die NV im Gegensatz zur ATI 10% schneller oder langsamer oder sonst was ist!!!

Wenn ich eine neue Graka brauche, sehe ich mich auf dem Markt um, welche das beste Preis/Leistungsverhältnis bietet (oder zumindest ein gutes:-)

Und die Karte kauf ich mir dann. Und für mich zählt nur, was die Karte die in meinem Rechner drinsteckt bei den Spielen die ich zocke bringt. Alles andere ist für mich hypothetischer Schwachsinn.

Meine letzten Karten waren:

Vodoo 1
Vodoo 2 (dann SLI)
Geforce 1
Radeon 8500
Radeon 9700

Jede Karte hat für mich im Gegensatz zur Vorherigen eine große Leistungssteigerung gebracht. Und damit war ich zufrieden. Und es interessieren mich doch keine beschissenen Benchmarkoptimierungen irgendwelcher Karten. Hauptsache die Spiele die ich zocke laufen schnell genug. Und wenn das nicht mehr der Fall ist wird übertaktet. Und irgendwann ´ne neue gekauft. Und dann freu ich mich wieder dass die neue Karte deutlich schneller ist als die alte und denk nicht darüber nach ob eine vergleichbare Karte evtl. hier oder da 5% schneller oder langsamer sein könnte wenn ich sie denn hätte........
 
Original geschrieben von
ja, schon klar! ati ist eigentlich im besitz von ausserirdischen, die sich die weltherrschaft unter den nagel reissen wollen... *lol*

jetzt bleibt doch bitte mal auf dem teppich. dieser glaubenskrieg ist sowas von lächerlich. :]

:o Oh, oh ...

jetzt haste den Plan herausbekommen! Da werden SIE dich wohl schon bald holen kommen. Dann musst du bis an dein Lebensende 3DMark2003 Benchmarks mit nem C64 auf 'nem ATI Mutterschiff durchführen.
*lol* *lol* *lol* *lol* *lol* *lol* *lol* *lol* *lol*
 
Zuletzt bearbeitet:
Original geschrieben von Friedrich II
da ist nix gesponsored! Wenn doch bin ich für neutrale Quellen jederzeit offen.

Gesponsort ist vielleicht der falsche Ausdruck, die Konsequenz ist jedoch dieselbe.

Bei der Entwicklung zum neuen 3dmark2003 ist nVidia damals ausgestiegen, weil die Kosten für die Teilnahme beim Betaprogramm ihnen zu hoch vorkamen. Ati hat aber seinen Beitrag bezahlt und konnte Einfluss auf die Entwicklung des Benchmarks nehmen, nVidia nicht.

Es ist natürlich ganz klar, dass Ati seine Interessen versucht hat bei der Entwicklung als einziger vertretener "3D-Kartenriese" durchzusetzen.
nVidia hätte bestimmt dasselbe getan.

Wenn nVidia dieses Theater mit dem 3dmark hätte absehen können , hätten sie bestimmt die paar $ investiert und wären bei der Entwicklung auch dabei gewesen. Dann wäre wahrscheinlich der Unterschied bei en Ergebnissen des Benchmarks minimal.
Der jetzige "Imageschaden" ist weitaus teurer als die Beträge die Futuremark sehen wollte.

Mittlerweile ist nVidia ja auch wieder im Betaprogramm als strategic partner für zukünftige Software tätig.
 
also ich hab mein arbeitsrechner letzten ne neue graka spendiert... erst eine geforce 4 ti4200 albatron medusa turbo... die karte war 21 cm land und leitsung hatte die wenig.. vor allem in bezug auf AA und AF...

hab die dann mit 5 euro verlust meinen nachbar verkauf tund mir eine radeon 9500 pro von hercules geholt...

UND ich bin als nvidia jünger mehr als nur zufirden sondern begeister... zwei echte ram dacs... super leistung... fasst 1000 punkte mehr beim 3dmark 2001 und prakktisch keine leistungseinbusen bei AA und AF

battlefield auf einem 1400 mit 4 fach AA und 16 AF zu zocken bei 800 600 mit 32 bit und das flüssig wäre nichtmal mit meiner geforce 4 ti 4860 ultra deluxe drin..

UND die ultra deluxe hat neu 499 und die radeon 9500 pro 299 gekostet... KOTZ WÜRG ... die nvidia is technik schrott pur... kein direct x 9 oder so... bei ebay gerade mal 130 eus wert... also 370 euro wert verlust...

die radeon hatte nur 100 euro wert verlust... kack doch die wand an... meine nächste große karte is auch ne ati

;) so... soviel dazu...

P.S. nvidia is doch selber schuld wenn alle auf denen rumhacken... keine gescheiten nforce treiber, keine gescheiten grafikkarten... pff.... der bessere gewinnt in diesem geschäft und das is imo ATI...
 
Original geschrieben von Seraphim
ja, schon klar! ati ist eigentlich im besitz von ausserirdischen, die sich die weltherrschaft unter den nagel reissen wollen... *lol*

jetzt bleibt doch bitte mal auf dem teppich. dieser glaubenskrieg ist sowas von lächerlich. :]

kein glaubens krieg, weil mir ist es egal ob ich ne NV / MATROX / ATI / SIS / XGI oder sonstwas im rechner habe solange mein kleiner AMD drinne werkelt :D
 
Zurück
Oben Unten