App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Doom3 Benchmark
- Ersteller cruger
- Erstellt am
bei hardocp wurden die offiziellen doom 3 benchmarks zusammen mit id-software veröffentlicht, siehe
http://www2.hardocp.com/article.html?art=NjQy
http://www2.hardocp.com/article.html?art=NjQy
A John Carmack Message
John Carmack wanted to take a moment to talk to the gamers and hardware enthusiasts that would be reading today. He has some insight on the numbers and what they really mean as well as some thoughts for the overclockers out there.
It should be noted that all of the modern cards play the game very well, and benchmark scores should not be the be-all-end-all decision maker. Scores will probably improve somewhat with future driver releases, and other factors like dual slots or dual power connectors can weigh against some of the high end cards.
The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering. This has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another. I hate the idea of drivers analyzing texture data and changing parameters, but it doesn't visibly impact the quality of the game unless you know exactly what to look for on a specific texture. On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards.
A note on overclocking: it is very likely that overclocked configurations that "play everything else perfectly" will start to show problems on D3 due to new usage patterns. Everyone is of course free to do whatever they want with their own hardware, but don't complain to us...
Talking to John briefly about his overclocking comments made some things clear to us that many enthusiasts will need to be aware of. When he speaks of "new usage patterns" he is literally talking about transistors on some of new GPUs that are going to be used for the first time when you play DOOM 3 on your video card. So be aware that pushing your GPU MHz may get you different results in DOOM 3 than with other games.
id Software & HardOCP Team Up
Today we are showing you the DOOM 3 timedemo frame rates that so many of you will use to help make a decision for your DOOM 3 gaming configuration. But do keep in mind, as John mentioned above, we should not all live and die by the frame rate. As many of you are familiar with, HardOCP has taken a very tough line on evaluating the real-world gaming experience provided by our hardware, and that is exactly what is being done with DOOM 3 as well. id Software is very aware that there is a portion of the gaming and enthusiast crowd that wants their framerates straight up and that is what is being delivered to you today, but remember there is much more to the picture. id Software and HardOCP want you to be aware of just what kind of DOOM 3 experience you can expect from your current system or one that you are building or buying specifically to play DOOM 3.
The question, "Is my box OK for playing DOOM 3?" has been asked many times in the last year. Id Software and HardOCP are working to answer that question right now. Next week, before you can purchase DOOM 3, our goal is to publish the DOOM 3 [H]ardware Guide in order to give you an official resource to help you know what to expect out of your current hardware or to help make the right hardware buying decision should you be ready for an upgrade. This guide will look at components as well as full systems and what it is going to take to deliver the true hellish experience that is DOOM 3.
For those of you that think you are not going to have the hardware that you need to play DOOM 3, the fact of the matter is that many of you will be just fine, although an upgrade may still be in your future. As of this afternoon we were playing DOOM 3 on a 1.5GHz Pentium 4 box with a GeForce 4 MX440 video card and having a surprisingly good gaming experience. Even a subtle jump to an AMD 2500+ with a GeForce 3 video card that is two years old will deliver a solid gaming experience that will let you enjoy the game the way id Software designed it to be. That fact alone should let many of you know that you will not be left behind in experiencing DOOM 3.
GabbaGandalf
Vice Admiral Special
- Mitglied seit
- 30.05.2004
- Beiträge
- 914
- Renomée
- 3
- Standort
- Block 1 auf der Alm
- Prozessor
- Evil Core 2 Duo 4300 @ 2.6 GHZ
- Mainboard
- Asrock 4CoreDual VSTA
- Kühlung
- Zalman CNPS7700-AlCu
- Speicher
- 2*1GB TeamGroup Team Elite DDR2-800
- Grafikprozessor
- Palit 6600GT AGP
- Display
- Samsung SyncMaster 950p
- HDD
- 2*80GB Samsung SATA Raid0
- Optisches Laufwerk
- LG 4163b, LG 8164b
- Soundkarte
- AL888 HD
- Gehäuse
- NoName
- Netzteil
- LC Power 450W Super Silent
- Betriebssystem
- Windows XP Pro, Ubuntu 7.04 64bit
- Webbrowser
- Firefox
- Verschiedenes
- Technisat Skystar 2 , VIA Firewire PCI Card
Moin
Die ersten offiziellen Doom3 Benchmarks sind draussen.
Nvidia liegt wie erwartet zur Zeit vorne:
http://www2.hardocp.com/article.html?art=NjQy
Jetzt kann man endlich für ein neues System bzw ne neue Grafikkarte für Doom3 planen
Noch 14 Tage und 2 Stunden bis zum Doom3 Release
Die ersten offiziellen Doom3 Benchmarks sind draussen.
Nvidia liegt wie erwartet zur Zeit vorne:
http://www2.hardocp.com/article.html?art=NjQy
Jetzt kann man endlich für ein neues System bzw ne neue Grafikkarte für Doom3 planen
Noch 14 Tage und 2 Stunden bis zum Doom3 Release
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Geforce 6800 ich komme!
Die Unterschiede zur X800 sind teilweise recht drastisch, scheint so als ob Ultra Shadow doch etwas bringt.
MfG 8)
mibo
Grand Admiral Special
- Mitglied seit
- 05.01.2003
- Beiträge
- 2.297
- Renomée
- 65
- Standort
- Hannover
- Mein Laptop
- Lenovo T450s
- Prozessor
- Ryzen 5800X3D
- Mainboard
- ASUS B550M-PLUS
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x16GB DDR4 ECC
- Grafikprozessor
- AMD 6700XT
- Display
- HP X27i
- SSD
- Samsung 860EVO, 960EVO, WD 850X
- Optisches Laufwerk
- DVD-Brenner :-)
- Netzteil
- BQ Dark Power 12 750W
- Betriebssystem
- Suse Tumbleweed / Win10 64Bit
- Webbrowser
- Firefox
naja, Carmack sagt, weder nVidia noch ATI hatten vorher den Benchmark. nVidia wirbt aber damit, ihre 6800er mit Hinblick auf Doom3 entwickelt zu haben ...
Ich denke, man sollte ATIs Treiberprogrammierern (die gerade sicher keine Stunde schlafen) 1-2 Treiber Zeit geben, bevor man ein Urteil fällt.
Ausserdem wurde von nVidia keine Pipeline-abgeschaltete Version (6800er) getestet (die x800Pro sah ja besonders alt aus).
Bekommt man eigentlich (außer der x800Pro) schon eine der getesteten High End Karten zu kaufen? Wollten ATI und nVidia nicht "nie wieder Paperlaunchen"?
Gruss
mibo
Ich denke, man sollte ATIs Treiberprogrammierern (die gerade sicher keine Stunde schlafen) 1-2 Treiber Zeit geben, bevor man ein Urteil fällt.
Ausserdem wurde von nVidia keine Pipeline-abgeschaltete Version (6800er) getestet (die x800Pro sah ja besonders alt aus).
Bekommt man eigentlich (außer der x800Pro) schon eine der getesteten High End Karten zu kaufen? Wollten ATI und nVidia nicht "nie wieder Paperlaunchen"?
Gruss
mibo
GabbaGandalf
Vice Admiral Special
- Mitglied seit
- 30.05.2004
- Beiträge
- 914
- Renomée
- 3
- Standort
- Block 1 auf der Alm
- Prozessor
- Evil Core 2 Duo 4300 @ 2.6 GHZ
- Mainboard
- Asrock 4CoreDual VSTA
- Kühlung
- Zalman CNPS7700-AlCu
- Speicher
- 2*1GB TeamGroup Team Elite DDR2-800
- Grafikprozessor
- Palit 6600GT AGP
- Display
- Samsung SyncMaster 950p
- HDD
- 2*80GB Samsung SATA Raid0
- Optisches Laufwerk
- LG 4163b, LG 8164b
- Soundkarte
- AL888 HD
- Gehäuse
- NoName
- Netzteil
- LC Power 450W Super Silent
- Betriebssystem
- Windows XP Pro, Ubuntu 7.04 64bit
- Webbrowser
- Firefox
- Verschiedenes
- Technisat Skystar 2 , VIA Firewire PCI Card
nen bisschen optimieren konnten sie sicher schon. die doom3 alpha haben sie sicher alle gehabt. auserdem geht aus dem artikel nur hervor das alle ati optimierungen eingeschaltet worden waren... wie siehts den da bei nvidia aus?
//edit
sorry. habe aus durch eingeschaltet ersetzt.
//edit
sorry. habe aus durch eingeschaltet ersetzt.
Zuletzt bearbeitet:
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Jetzt lachen wir mal laut für alle die unbedingt für Doom 3 aufgerüstet haben.
Aber zum trost an alle ATi User: Bei HL² wird der Spieß wieder umgedreht. Außerdem war mir HL² immer schon sympatischer.
Aber zum trost an alle ATi User: Bei HL² wird der Spieß wieder umgedreht. Außerdem war mir HL² immer schon sympatischer.
Zuletzt bearbeitet:
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Original geschrieben von GabbaGandalf
auserdem geht aus dem artikel nur hervor das alle ati optimierungen ausgschaltet worden waren...
Falsch, die ATi Optimierungen waren aktiviert, siehe hier:
„The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.” (John Carmack)
Ich finde es besonders interessant dass eine GT eine X800 XT PE überholt.
MfG 8)
GabbaGandalf
Vice Admiral Special
- Mitglied seit
- 30.05.2004
- Beiträge
- 914
- Renomée
- 3
- Standort
- Block 1 auf der Alm
- Prozessor
- Evil Core 2 Duo 4300 @ 2.6 GHZ
- Mainboard
- Asrock 4CoreDual VSTA
- Kühlung
- Zalman CNPS7700-AlCu
- Speicher
- 2*1GB TeamGroup Team Elite DDR2-800
- Grafikprozessor
- Palit 6600GT AGP
- Display
- Samsung SyncMaster 950p
- HDD
- 2*80GB Samsung SATA Raid0
- Optisches Laufwerk
- LG 4163b, LG 8164b
- Soundkarte
- AL888 HD
- Gehäuse
- NoName
- Netzteil
- LC Power 450W Super Silent
- Betriebssystem
- Windows XP Pro, Ubuntu 7.04 64bit
- Webbrowser
- Firefox
- Verschiedenes
- Technisat Skystar 2 , VIA Firewire PCI Card
die gt ist gekauft
dann kann ich endlich meine gf 3 in den xp 2000+ einbauen.
//edit
bin auch mal gespannt wie der verglich linux vs windows doom3 aussieht. hoffentlich sind unter linux wieder 5 bis 10% mehr fps drin
dann kann ich endlich meine gf 3 in den xp 2000+ einbauen.
//edit
bin auch mal gespannt wie der verglich linux vs windows doom3 aussieht. hoffentlich sind unter linux wieder 5 bis 10% mehr fps drin
Krümmelmonster
Grand Admiral Special
jetzt nur noch eine GT mit gescheiter Lautstärke und die ist gekauft
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
ach verdammt.....@ 1024x768, max.details und 4xAA/8xAF schafft die GF6800Ultra gerade ma knapp 65fps.....ich habe gehofft, mit meiner 9800Pro auf 1280x1024, max. details und 4xAA/8xAF spielen zu können
EDIT: waaah, ich sehe gerade, dass die ja die "alten" Karten auch getestet haben....verdammt....die 9800XT schafft nur lächerliche 26.9fps @ 1024x768 mit den resteinstellungen die ich haben will - hiiiieeerrrr
ABER ICH WILL NET DIE LAMER-AUFLÖSUNG !
EDIT: waaah, ich sehe gerade, dass die ja die "alten" Karten auch getestet haben....verdammt....die 9800XT schafft nur lächerliche 26.9fps @ 1024x768 mit den resteinstellungen die ich haben will - hiiiieeerrrr
ABER ICH WILL NET DIE LAMER-AUFLÖSUNG !
GabbaGandalf
Vice Admiral Special
- Mitglied seit
- 30.05.2004
- Beiträge
- 914
- Renomée
- 3
- Standort
- Block 1 auf der Alm
- Prozessor
- Evil Core 2 Duo 4300 @ 2.6 GHZ
- Mainboard
- Asrock 4CoreDual VSTA
- Kühlung
- Zalman CNPS7700-AlCu
- Speicher
- 2*1GB TeamGroup Team Elite DDR2-800
- Grafikprozessor
- Palit 6600GT AGP
- Display
- Samsung SyncMaster 950p
- HDD
- 2*80GB Samsung SATA Raid0
- Optisches Laufwerk
- LG 4163b, LG 8164b
- Soundkarte
- AL888 HD
- Gehäuse
- NoName
- Netzteil
- LC Power 450W Super Silent
- Betriebssystem
- Windows XP Pro, Ubuntu 7.04 64bit
- Webbrowser
- Firefox
- Verschiedenes
- Technisat Skystar 2 , VIA Firewire PCI Card
lol.......
die d3 engine ist doch eh auf die ausgabe von 60fps begrenzt. für benchmarks und intern kann sie sicher mehr berechnen... aber solange man konstant auf 60 kommt ist alles egal
zum glück gibt ja noch ne cfg....
ich sage nur picmip 16
die d3 engine ist doch eh auf die ausgabe von 60fps begrenzt. für benchmarks und intern kann sie sicher mehr berechnen... aber solange man konstant auf 60 kommt ist alles egal
zum glück gibt ja noch ne cfg....
ich sage nur picmip 16
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
ich denke, dass is noch garnet bestätigt mit der 60fps-sperre ?
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
@pazifist
Was has du erwartet? War doch klar dass man eine neue Karte braucht wenn man Doom 3 mit FSAA+AF zocken will.
@GabbaGandalf
Warum kamen in dem Bench dann die 6800er Karten auf 70fps und mehr?!
MfG 8)
Was has du erwartet? War doch klar dass man eine neue Karte braucht wenn man Doom 3 mit FSAA+AF zocken will.
@GabbaGandalf
Warum kamen in dem Bench dann die 6800er Karten auf 70fps und mehr?!
MfG 8)
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Original geschrieben von James Ryan
@pazifist
Was has du erwartet? War doch klar dass man eine neue Karte braucht wenn man Doom 3 mit FSAA+AF zocken will.
MfG 8)
lol, jaa, ich weiss.....habs mir schon vorgelogen, als ich bemerkte, dass FarCry mit 1280x1024, max.details net ma dauerhaft mit 4xAA/8xAF lief (ich sage nur - katakomben mit dem elefanten...)....
aber ohne AA/AF liefs in der konfig immer 1A
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.472
- Renomée
- 82
- Standort
- Switzerland
- Mein Laptop
- LENOVO Y520-15, Intel i7-7700HQ, W10-Home
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Original geschrieben von GabbaGandalf
lol.......
die d3 engine ist doch eh auf die ausgabe von 60fps begrenzt. für benchmarks und intern kann sie sicher mehr berechnen... aber solange man konstant auf 60 kommt ist alles egal
zum glück gibt ja noch ne cfg....
ich sage nur picmip 16
picmip bringt praktisch nix, ist ja nur für die Texturen. (und bei 256MB KArten sollte dies eigentlich keni Problem sein)
Es müsste schon ein Befehl geben wo man die Polygonen reduzieren könnte...
sharx
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.162
- Renomée
- 1
ROFL
ich finde es äußerst lustig. "bla bla farcry... nvidia...schlecht....ati vieel besser.. bla bla... ati zukunftsträchtiger... bla.."
damit eins klar zu stellen: mir ist es egal welch karte besser/schneller ist, denn ich habe ja die wahl beim kauf. ich finde es nur lustig, dass es sich hier genau umgekehrt verählt wie beim spiel farcy mit ati und die achso totgeglaubt nvidia schmide hier das blatt wendet.
im übrigen finde ich sehr gut, dass auch mit einer älteren graka das spiel "annehmbar spielbar" seien soll.
ich finde es äußerst lustig. "bla bla farcry... nvidia...schlecht....ati vieel besser.. bla bla... ati zukunftsträchtiger... bla.."
damit eins klar zu stellen: mir ist es egal welch karte besser/schneller ist, denn ich habe ja die wahl beim kauf. ich finde es nur lustig, dass es sich hier genau umgekehrt verählt wie beim spiel farcy mit ati und die achso totgeglaubt nvidia schmide hier das blatt wendet.
im übrigen finde ich sehr gut, dass auch mit einer älteren graka das spiel "annehmbar spielbar" seien soll.
Krümmelmonster
Grand Admiral Special
totgeglaubte nvidia?
hab ich was verpasst?
hab ich was verpasst?
Ne was ist das wieder lustich *haha*
Also Carmack war schon immer dafür bekannt spezielle Optimierungen von Hand
anzufertigen. Also wer Ihm die Kohle gibt ist auch schneller (Q3 & Intel).
Erst wenn die Engine wieder Lizenziert wird, werden auch andere schneller
Also abwarten
(ach ja die Alpha2 auf einer R300 superflüssig spielbar !!!)
(kein unterschied zu einer R360 !!!)
Also Carmack war schon immer dafür bekannt spezielle Optimierungen von Hand
anzufertigen. Also wer Ihm die Kohle gibt ist auch schneller (Q3 & Intel).
Erst wenn die Engine wieder Lizenziert wird, werden auch andere schneller
Also abwarten
(ach ja die Alpha2 auf einer R300 superflüssig spielbar !!!)
(kein unterschied zu einer R360 !!!)
IVIaraud3R
Grand Admiral Special
- Mitglied seit
- 18.07.2002
- Beiträge
- 6.844
- Renomée
- 196
dann kommen neue treiber raus
und n updates
und die welt sieht nochn bissl besser aus für die FX und 9800 user
achja, übirgens: ob man zwischen "high quali" und etwas weniger nen großen unterschied bemerken wird, glaube ich ja net
und n updates
und die welt sieht nochn bissl besser aus für die FX und 9800 user
achja, übirgens: ob man zwischen "high quali" und etwas weniger nen großen unterschied bemerken wird, glaube ich ja net
GSachse
Grand Admiral Special
- Mitglied seit
- 24.02.2002
- Beiträge
- 2.858
- Renomée
- 9
- Standort
- Halle
- Mein Laptop
- Dell Vostro 3560
- Prozessor
- Intel Core i5-2500K
- Mainboard
- Asus P8P67
- Kühlung
- Boxed
- Speicher
- 6 GB
- Grafikprozessor
- Gigabyte GeForce GTX 560 TI
- Display
- EIZO FlexScan EV2333W
- HDD
- von allem etwas
- Optisches Laufwerk
- Asus
- Soundkarte
- Onboard
- Gehäuse
- Coolermaster Stacker (STC-T01)
- Netzteil
- Antec TruePower 480 Watt
- Betriebssystem
- Windows 7 Pro 64 Bit
naja schon recht komisch das ergebniss..Original geschrieben von James Ryan
Falsch, die ATi Optimierungen waren aktiviert, siehe hier:
„The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.” (John Carmack)
Ich finde es besonders interessant dass eine GT eine X800 XT PE überholt.
MfG 8)
mal sehen wie es sich (nach ein paar treibern von ati und nvidia) entwickelt..
die frage ist natürlich was käme ohne die engine-seitigen optimierungen raus
den dieser benchmark dreht ja fast alle bisherigen herum nicht das die ein wirklich klares bild gezeigt haben aber gerade bei extremen quali einstellungen und hoher auflösung war die xt vorn.. ansonsten oft die 6800er
wie waren eigentlich die sprüche von carmack über die ti 4000er serie ??
ich meine ich kann es ja dann mal auf meiner 4400er im 2. rechner testen
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Original geschrieben von GSachse
naja schon recht komisch das ergebniss..
mal sehen wie es sich (nach ein paar treibern von ati und nvidia) entwickelt..
die frage ist natürlich was käme ohne die engine-seitigen optimierungen raus
den dieser benchmark dreht ja fast alle bisherigen herum nicht das die ein wirklich klares bild gezeigt haben aber gerade bei extremen quali einstellungen und hoher auflösung war die xt vorn.. ansonsten oft die 6800er
wie waren eigentlich die sprüche von carmack über die ti 4000er serie ??
ich meine ich kann es ja dann mal auf meiner 4400er im 2. rechner testen
NVIDIA war schon immer schneller in OpenGL, außerdem besitzen die neuen Karte alle Ultra Shadow.
Wen das Ergebnis überrascht der muss die letzten Jahre echt gepennt haben. Ich denke nicht dass ATi noch viel Speed ohne auf Kosten der Bildquali herausholen kann, schließlich ist der getestete Treiber schon 'ne ganze Ecke weiter als der aktuelle Cat 4.7er, und NVIDIA schläft ja auch nicht.
MfG 8)
soul~rebel
Lieutnant
- Mitglied seit
- 06.11.2003
- Beiträge
- 70
- Renomée
- 0
- Standort
- Brandenburg/Havel
- Mein Laptop
- MacBook
- Prozessor
- Intel Core2Duo E8200 45nm
- Mainboard
- Gigabyte GA-PE35-DS3P Rev2.1
- Kühlung
- Thermalright HR01Plus
- Speicher
- 2GB OCZ HPC Reaper PC8500
- Grafikprozessor
- Nvidia GeForce 7800GT
- Display
- LG
- Soundkarte
- Creative Audigy 2 ZS
- Netzteil
- Revoltec Chromus Star Series II 450W
- Betriebssystem
- WinXP SP2
Naja also ick wees ja nich !
Auf mich macht dieser Benchmark keinen wirklich ernsthaften Eindruck!
Schon deswegen weil id und nvidia ja fast im selben Bett schlafen
Ich selber habe mir die Asus x800 xt bestellt und verspreche mir auch einiges von dieser Karte.
Klar,die 6800er sind auch nicht ohne ... was die GT ja bewiesen hat (von der Ultra mal ganz zu schweigen)! Jedoch glaube ich das wenn es wirklich so einen Unterschied an Frames geben soll , ATI noch einiges an Support auf Lager hat bzw. Doom sicherlich ein parr hilfreiche Optionen bietet.
Was ich damit sagen will ist das die beiden Flagschiffe von NV und ATI im Verlauf ihrer Entwicklung in Hinsicht auf D3 sich doch gegenseitig nicht viel nehmen werden.
Zumindest glaube ich das es darauf hinausläuft.
bye
Auf mich macht dieser Benchmark keinen wirklich ernsthaften Eindruck!
Schon deswegen weil id und nvidia ja fast im selben Bett schlafen
Ich selber habe mir die Asus x800 xt bestellt und verspreche mir auch einiges von dieser Karte.
Klar,die 6800er sind auch nicht ohne ... was die GT ja bewiesen hat (von der Ultra mal ganz zu schweigen)! Jedoch glaube ich das wenn es wirklich so einen Unterschied an Frames geben soll , ATI noch einiges an Support auf Lager hat bzw. Doom sicherlich ein parr hilfreiche Optionen bietet.
Was ich damit sagen will ist das die beiden Flagschiffe von NV und ATI im Verlauf ihrer Entwicklung in Hinsicht auf D3 sich doch gegenseitig nicht viel nehmen werden.
Zumindest glaube ich das es darauf hinausläuft.
bye
IVIaraud3R
Grand Admiral Special
- Mitglied seit
- 18.07.2002
- Beiträge
- 6.844
- Renomée
- 196
Original geschrieben von soul~rebel
Was ich damit sagen will ist das die beiden Flagschiffe von NV und ATI im Verlauf ihrer Entwicklung in Hinsicht auf D3 sich doch gegenseitig nicht viel nehmen werden.
Zumindest glaube ich das es darauf hinausläuft.
sehe ich auch so und letzlich machts eh net den unterschied, ob man mit 60 und 8xAF oder 55 und 4xAF zockt, bei hohen auflösungen is AA ja eh unwichtiger und sollte man doch FPS-geil sein, na dann übertaktet man halt nochn stück und schraubt die quali nen tick runter
mibo
Grand Admiral Special
- Mitglied seit
- 05.01.2003
- Beiträge
- 2.297
- Renomée
- 65
- Standort
- Hannover
- Mein Laptop
- Lenovo T450s
- Prozessor
- Ryzen 5800X3D
- Mainboard
- ASUS B550M-PLUS
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x16GB DDR4 ECC
- Grafikprozessor
- AMD 6700XT
- Display
- HP X27i
- SSD
- Samsung 860EVO, 960EVO, WD 850X
- Optisches Laufwerk
- DVD-Brenner :-)
- Netzteil
- BQ Dark Power 12 750W
- Betriebssystem
- Suse Tumbleweed / Win10 64Bit
- Webbrowser
- Firefox
Wie war der Carmack Kommentar zu den Übertaktern?! "Die Grafikchips werden in einer ganz anderen Art und Weise genutzt"
Ich kann mir gut vorstellen, daß ATI eine Reihe von Shadern so umsortieren kann, dass sie der ATI GPU besser gefallen.
Ich denke, daß die Shader schon auf nVidia zugeschnitten sind.
Gruss
mibo
Ich kann mir gut vorstellen, daß ATI eine Reihe von Shadern so umsortieren kann, dass sie der ATI GPU besser gefallen.
Ich denke, daß die Shader schon auf nVidia zugeschnitten sind.
Gruss
mibo
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 240
- Antworten
- 1
- Aufrufe
- 264
- Antworten
- 1
- Aufrufe
- 311
- Antworten
- 1
- Aufrufe
- 397
- Antworten
- 0
- Aufrufe
- 266