App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
HDR (High-Dynamic-Range) Rendering Unterschiede zwischen GPUs von AMD und nVidia ?
- Ersteller Iscaran
- Erstellt am
Hallo Leute,
die meisten kennen vermutlich diesen Artikel:
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/
Im "Kern" ist die Aussage: HDR sieht cool aus, aber es kostet Leistung.
Die Überschrift von Computer-Bild (pardon Computerbase) trifft hier die Sachlage nur sehr am Rande:
HDR in Games kostet @AMD minimal Leistung (1-2%)
nur 2 von 12 Games zeigen hier deutliche Ausreisser (Destiny 2, Far Cry 5)
Auf nVidia Seite hingegen verliert man merkliche ca 11%, manchmal bis zu 25% und nur in 2 Fällen (Far Cry 5 und Mass Effect:Andromeda) kaum, wobei bei MEA wohl HDR @nVidia nicht "richtig" aktiv war (als HDR10, wohl nur HDR8+FRC verwendet oder so).
Das ganze wurde wohl auch schon mal (sehr fanboy bashend und biased) im 3DC "diskutiert":
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583928
Nachdem die Gamestar den Effekt schon bei Shadow Warrior 2 zeigen konnte 2016:
https://www.gamestar.de/artikel/was...dr-auf-dem-pc-ausprobiert,3271227,seite2.html
Hier als Übersicht eine Zusammenstellung der Differenzen für die einzelnen Games aus dem CB-Artikel:
nVidia | AMD
ACO: -14% | 0%
BF1: -12% | 0%
CoDWWII: -11% | -4%
Destiny 2: -25% | -9%
F1 2017: -13% | 0%
FC 5: -2% | -6%
FF XV: -9% | 0%
MEAnd: 0% | 0%
MESoW: -16% | -2%
RE7 Bio: -8% | -4%
SW2: -18% | 0%
SWBF2: -11% | -1%
SW2 bei Gamestar 2016: -10% | -2%
Fassen wir also zusammen:
nVidia verliert in 10/12 Spielen mind. 8%/9% und 4 sogar mehr als 14% nur in 2/12 Spielen ist der Leistungsverlust nahe 0% (1x 0% in MeAnd und 1x 2% in FC5).
Besonders auffällig ist hier FC5 - da auf AMD Seite diese Engine am 2t-Schlechtesten Abschneidet. Was man als Hinweis auf Probleme bei der Implementierung oder dem "korrekten" aktiveren/verwenden von HDR werten könnte. Schade dass man keine BQ-Analyse machen konnte.
AMD hat in 6/12 Spielen absolut 0% Verlust und in weiteren 2 Spielen nur 1-2% was noch Messtoleranz ist. nur in 4/12 Spielen ist ein Leistungsverlust überhaupt sinnvoll feststellbar und davon sind ausgerechnet 2 Spiele die sich auch bei nVidia als "seltsam" erweisen, man also durchaus noch prüfen müsste ob es sich hier nicht um Engine/Implementierungs-Bugs seitens der Games handelt.
Für mich sieht das so aus als ob die Leistung bei nVidia in ALLEN Games einbricht. Allerdings sind wohl auch 1-2 dabei die sich hier seltsam Verhalten (Destiny 2, Far Cry 5). GGf. wäre MeAndromeda noch interessant. Aus den Kommentaren im Diskussionsthread bei CB entnehme ich aber dass hier wohl HDR auch nicht richtig aktiviert ist @NVIDIA. (siehe: https://www.computerbase.de/forum/t...tung-auf-amd-und-nvidia.1813025/post-21527439 und https://www.computerbase.de/forum/t...tung-auf-amd-und-nvidia.1813025/post-21515890 )
Denn wenn man das macht verliert man wohl ca 20% Leistung.
Was haltet ihr davon - ? Eigene Erfahrung jemand - gibt es da noch mehr Arbeiten zu dem Thema ?
Ursachen für diese Performance Differenz ?
die meisten kennen vermutlich diesen Artikel:
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/
Im "Kern" ist die Aussage: HDR sieht cool aus, aber es kostet Leistung.
Die Überschrift von Computer-Bild (pardon Computerbase) trifft hier die Sachlage nur sehr am Rande:
HDR in Games kostet @AMD minimal Leistung (1-2%)
nur 2 von 12 Games zeigen hier deutliche Ausreisser (Destiny 2, Far Cry 5)
Auf nVidia Seite hingegen verliert man merkliche ca 11%, manchmal bis zu 25% und nur in 2 Fällen (Far Cry 5 und Mass Effect:Andromeda) kaum, wobei bei MEA wohl HDR @nVidia nicht "richtig" aktiv war (als HDR10, wohl nur HDR8+FRC verwendet oder so).
Das ganze wurde wohl auch schon mal (sehr fanboy bashend und biased) im 3DC "diskutiert":
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583928
Nachdem die Gamestar den Effekt schon bei Shadow Warrior 2 zeigen konnte 2016:
https://www.gamestar.de/artikel/was...dr-auf-dem-pc-ausprobiert,3271227,seite2.html
Hier als Übersicht eine Zusammenstellung der Differenzen für die einzelnen Games aus dem CB-Artikel:
nVidia | AMD
ACO: -14% | 0%
BF1: -12% | 0%
CoDWWII: -11% | -4%
Destiny 2: -25% | -9%
F1 2017: -13% | 0%
FC 5: -2% | -6%
FF XV: -9% | 0%
MEAnd: 0% | 0%
MESoW: -16% | -2%
RE7 Bio: -8% | -4%
SW2: -18% | 0%
SWBF2: -11% | -1%
SW2 bei Gamestar 2016: -10% | -2%
Fassen wir also zusammen:
nVidia verliert in 10/12 Spielen mind. 8%/9% und 4 sogar mehr als 14% nur in 2/12 Spielen ist der Leistungsverlust nahe 0% (1x 0% in MeAnd und 1x 2% in FC5).
Besonders auffällig ist hier FC5 - da auf AMD Seite diese Engine am 2t-Schlechtesten Abschneidet. Was man als Hinweis auf Probleme bei der Implementierung oder dem "korrekten" aktiveren/verwenden von HDR werten könnte. Schade dass man keine BQ-Analyse machen konnte.
AMD hat in 6/12 Spielen absolut 0% Verlust und in weiteren 2 Spielen nur 1-2% was noch Messtoleranz ist. nur in 4/12 Spielen ist ein Leistungsverlust überhaupt sinnvoll feststellbar und davon sind ausgerechnet 2 Spiele die sich auch bei nVidia als "seltsam" erweisen, man also durchaus noch prüfen müsste ob es sich hier nicht um Engine/Implementierungs-Bugs seitens der Games handelt.
Für mich sieht das so aus als ob die Leistung bei nVidia in ALLEN Games einbricht. Allerdings sind wohl auch 1-2 dabei die sich hier seltsam Verhalten (Destiny 2, Far Cry 5). GGf. wäre MeAndromeda noch interessant. Aus den Kommentaren im Diskussionsthread bei CB entnehme ich aber dass hier wohl HDR auch nicht richtig aktiviert ist @NVIDIA. (siehe: https://www.computerbase.de/forum/t...tung-auf-amd-und-nvidia.1813025/post-21527439 und https://www.computerbase.de/forum/t...tung-auf-amd-und-nvidia.1813025/post-21515890 )
Denn wenn man das macht verliert man wohl ca 20% Leistung.
Was haltet ihr davon - ? Eigene Erfahrung jemand - gibt es da noch mehr Arbeiten zu dem Thema ?
Ursachen für diese Performance Differenz ?
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.406
- Renomée
- 1.989
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Bei den Kommentaren zum Computerbase Artikel wurde spekuliert das sich HDR mit der Farbkompression beißt und die Geforce Chips dann an ihrer mageren Speicherbandbreite verhungern.
Wenn das stimmt dann bestätigt sich mal wieder das die GPUs nicht für eine langlebige Betriebszeit entwickelt wurden....
Wenn das stimmt dann bestätigt sich mal wieder das die GPUs nicht für eine langlebige Betriebszeit entwickelt wurden....
Zuletzt bearbeitet:
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.763
- Renomée
- 287
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
In Anbetracht der jahrzentelang miesen Bildqualität bei nVidia könnte das gut passen. Warum mit voller Genauigkeit rechnen, wenn es niedrigere auch tut. Lieber schnell als schön.
Passt ganz gut zu Intels "lieber schnell als sicher" bzw. "lieber sicher als stabil".
Passt ganz gut zu Intels "lieber schnell als sicher" bzw. "lieber sicher als stabil".
Ja die Kommentare bei CB hab ich auch gelesen - aber nach dem ganzen Hardcore Fanboyism und wenig sachlichen Infos hab ich mir mal gedacht ich frag hier mal nach. Die Diskussionen hier sind ja meist deutlich ruhiger .
--- Update ---
Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?
--- Update ---
Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?
--- Update ---
In Anbetracht der jahrzentelang miesen Bildqualität bei nVidia könnte das gut passen.
Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?
--- Update ---
In Anbetracht der jahrzentelang miesen Bildqualität bei nVidia könnte das gut passen.
Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.406
- Renomée
- 1.989
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Das mit der Kompression klingt zumindest sehr plausibel denn wegen der stärkeren Kompression sparen sie ja beim Speicherinterface.
Da AMD deutlich mehr Speicherbandbreite auf den Weg mit gibt hat man natürlich auch mehr Reserven und knickt weniger bis garnicht ein, die Umsetzung wird aber mit Sicherheit auch eine Rolle spielen.
Zum Thema Bildqualität, meine letzte Geforce war die GTX 970 aus meinem kleinen Vergleich. Da war mir nichts offensichtliches aufgefallen allerding hatte auch nicht ins detail geguckt da es mir damals um etwas komplett anderes ging.
Da AMD deutlich mehr Speicherbandbreite auf den Weg mit gibt hat man natürlich auch mehr Reserven und knickt weniger bis garnicht ein, die Umsetzung wird aber mit Sicherheit auch eine Rolle spielen.
Zum Thema Bildqualität, meine letzte Geforce war die GTX 970 aus meinem kleinen Vergleich. Da war mir nichts offensichtliches aufgefallen allerding hatte auch nicht ins detail geguckt da es mir damals um etwas komplett anderes ging.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.763
- Renomée
- 287
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Ich dachte die BQ ist seit Jahren nun mehr oder weniger gleich - bis auf die "Überbelichtung" bei nVidia die mir fast immer ins Auge fällt ? Hast du da konkrete Beispiele ?
Z.B. die Kontroverse bei AotS. Da hört man aber auch nichts mehr dazu.
Zuletzt ist mir das so stark aufgefallen, als PS3 und XBox 360 vorgestellt wurden. Gibt aber nur sehr wenige Vergleiche zu dem Thema.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.406
- Renomée
- 1.989
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ach die Kontroverse um AotS war schon lustig.
Als bei der Präsentation auffiel das beid er Radeon viel mehr schnee zu sehen ist hatten sofort alle mit dem Finger auf AMD gezeigt das AMD schummeln würde aber als rauskam das die Geforce fehlerhaft arbeitet wurde rumgemosert dass das doch so viel besser aussehen würde und die Diskussion verlief recht schnell im Sande. Als dann auch noch gezeigt wurde das bei der Geforce eigentlich sichtbare Sachen überhaupt nicht dagestellt wurden war der Ofen schon aus und man ging so gut wie garnicht darauf ein. Nähere Untersuchungen bei dem und bei anderen Spielen? Fehlanzeige aber ich wette das heute noch behauptet wird das die Radeons wegen Unterfilterung mehr flimmern würden.
Als bei der Präsentation auffiel das beid er Radeon viel mehr schnee zu sehen ist hatten sofort alle mit dem Finger auf AMD gezeigt das AMD schummeln würde aber als rauskam das die Geforce fehlerhaft arbeitet wurde rumgemosert dass das doch so viel besser aussehen würde und die Diskussion verlief recht schnell im Sande. Als dann auch noch gezeigt wurde das bei der Geforce eigentlich sichtbare Sachen überhaupt nicht dagestellt wurden war der Ofen schon aus und man ging so gut wie garnicht darauf ein. Nähere Untersuchungen bei dem und bei anderen Spielen? Fehlanzeige aber ich wette das heute noch behauptet wird das die Radeons wegen Unterfilterung mehr flimmern würden.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Trotz einer gewissen Affinität sollte man trotzdem mal überlegen, daß wenn es da wirklich was öfters greifbares gäbe, AMD das mit sicherheit aufgreifen würde und mindfestens viral oder auch halb offiziell es kleinwenig ausschlachten würde Ich denke jedenfalls nicht die würden sich sowas entgehen lassen.
Die Überlegung, ob sie das denn mitbekommen haben sollte man vergessen. Die kriegen schon alles wichtige mit. Keine Bange. Die bekommen schon weit kleinere Sachen mit (eigene Erfahrung)
Die Überlegung, ob sie das denn mitbekommen haben sollte man vergessen. Die kriegen schon alles wichtige mit. Keine Bange. Die bekommen schon weit kleinere Sachen mit (eigene Erfahrung)
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 47K
- Antworten
- 1K
- Aufrufe
- 72K
- Antworten
- 227
- Aufrufe
- 24K