App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
TDP-Angaben bei nVidia Karten, Unsinn oder realistischer Anhaltspunkt?
- Ersteller Thunderbird 1400
- Erstellt am
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.976
- Renomée
- 316
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Hallo!
Da ich im R9 Fury Thread ein paar Aussagen zu den TDP-Angaben bei nVidia Karten gemacht habe, die zu einer regen Offtopic-Diskussion führten, mache ich dazu jetzt nochmal einen separaten Thread auf.
Aussage einiger war (sinngemäß): Die TDP-Angaben von nVidia seien Quatsch, generell zu niedrig angesetzt (um gegenüber AMD besser da zu stehen), und sie haben mit dem realen Verbrauch nichts zu tun. Und die TDP-Angaben bei Custom-OC Karten erst recht nicht, da ziemliche Energiefresser.
Meine Aussage war (sinngemäß): Nach meinen Erfahrungen mit meinen letzten nV Karten (die da wären GTX670, GTX980 und GTX980Ti) geben die TDP-Angaben zwar nicht unbedingt das absolute, messbare Maximum dar, aber sie sind durchaus ein guter Anhaltspunkt für den tatsächlichen Verbrauch in realistischen Spielesituationen.
Meine o.g. Karten waren/ sind zwar alles keine Referenzmodelle (alles Palit OC-Modelle), aber gerade für diese soll ja angeblich die TDP-Angabe besonders realitätsfern sein. Um meine Aussage von oben zu belegen, habe ich nun folgende Messungen der Leistungsaufnahme meines Gesamtsystems durchgeführt:
Zur Info: Die Palit GTX980Ti hat eine TDP-Angabe von 250W
==========================================================
Erstmal ein paar Prime95-Messungen, um zu wissen, was das System unter CPU-Last ohne Graka-Last verbraucht.
System Idle (0% CPU-Last): 65W
Prime95 In-place large FFTs (maximum power consumption): 171W
Prime95 Blend Test 8 Threads (100% CPU): 163W
Prime95 Blend Test 4 Threads (51% CPU): 163W
Prime95 Blend Test 3 Threads (39% CPU): 158W (mit 2GB und 6GB Ram usage getestet - gleiches Ergebnis)
Prime95 Blend Test 2 Threads (25% CPU): 147W
Prime95 Blend Test 1 Thread (12% CPU): 114W
3D-Mark Firestrike 1440p Graphics test1 (wenig CPU-Last): 344-350W
3D-Mark Firestrike 1620p Graphics test1 (wenig CPU-Last): 343-349W
3D-Mark Firestrike 1440p Graphics test2 (wenig CPU-Last): 312-340W
3D-Mark Firestrike 1620p Graphics test2 (wenig CPU-Last): 313-343W
3D-Mark Firestrike 1440p combined test (viel Physics, ca 30-40% CPU-Last: 350-363W
3D-Mark Firestrike 1620p combined test (viel Physics, ca 30-40% CPU-Last: 350-365W
Erkenntnis soweit: Im Firestrike combined test, der wohl am nächsten an echte Spielen angelegt sein dürfte, konsumiert das Gesamtsystem im Schnitt 200W mehr als bei vergleichbarer CPU-Auslastung mit Prime95 (wo die Graka nur im Idle ist).
Bevor nun die Schreie losgehen, dass 3DMark ja völlig realitätsfern sei, hier auch mal ein paar Tests mit dem Witcher. Bei der Testsituation "Marktplatz" bin ich mehrere Minuten kreuz und quer auf einem stark bevölkerten Marktplatz durch die Mengen gerannt und habe Min. und Max. Werte der Leistungsaufnahme sowie Bildwiederholfrequenzen ermittelt.
The Witcher 3 Marktplatz, 1080p, ohne vsync (ca.83-115fps)(ca. 65% CPU-Last): 351-368W
The Witcher 3 Marktplatz, 1080p, Vsync 60Hz (ca. 40% CPU-Last): 270-299W
The Witcher 3 Marktplatz, 1440p, ohne vsync (ca.60-70fps)(ca. 50% CPU-Last): 363-380W
The Witcher 3 Marktplatz, 1440p, Vsync 60Hz (ca. 40% CPU-Last): 353-374W
The Witcher 3 Marktplatz, 1620p, ohne vsync (ca.50-60fps)(ca. 40% CPU-Last): 360-389W
The Witcher 3 freie Wildnis mit Gewitter, 1620p, ohne vsync (ca. 50-60fps): 350-370W
The Witcher 3 freie Wildnis mit Gewitter, 1080p, Vsync 60Hz: 302-311W
Fazit:
=======
In realistischen Spielszenarien mit einem ziemlich Hardware-hungrigen Spiel konsumiert das Gesamtsystem im Schnitt 360-370W, also 200-210W mehr als unter Prime95-Last. Dies liegt nur marginal über den Messungen mit 3D-Mark.
Damit dürfte hinreichend belegt sein, dass die TDP-Angabe von Palit (250W), die ebenfalls für eine GTX980Ti Referenzkarte gilt, ein durchaus realistischer Wert ist. Eher sogar zu hoch gegriffen, der reale Verbrauch der Karte liegt in realistischen Spielesituationen sogar deutlich unter den 250W. Eine GTX980Ti Referenzkarte wird nochmal ein paar Prozentpunkte niedrigere Leistungsaufnahme haben.
Nun zur Palit GTX980 (ohne Ti): Diese hat eine TDP-Angabe von 180W. Mit vergleichbar detaillierten Messwerten wie oben kann ich für diese Karte nun leider nicht mehr dienen. Ich weiß aber noch, dass ich bei dieser Karte unter Spielelast (Witcher 3) etwa bei 300-350W lag, im Durchschnitt 325W, also 40W weniger als mit der GTX980Ti. Heißt, auch bei dieser Karte kommen die 180W TDP ziemlich gut hin, da das Gesamtsystem ca. 165W mehr konsumiert, als unter Prime95-Last.
So, jetzt dürft ihr mein Fazit zerfleischen, da das alles komplett realitätsfern ist.
Da ich im R9 Fury Thread ein paar Aussagen zu den TDP-Angaben bei nVidia Karten gemacht habe, die zu einer regen Offtopic-Diskussion führten, mache ich dazu jetzt nochmal einen separaten Thread auf.
Aussage einiger war (sinngemäß): Die TDP-Angaben von nVidia seien Quatsch, generell zu niedrig angesetzt (um gegenüber AMD besser da zu stehen), und sie haben mit dem realen Verbrauch nichts zu tun. Und die TDP-Angaben bei Custom-OC Karten erst recht nicht, da ziemliche Energiefresser.
Meine Aussage war (sinngemäß): Nach meinen Erfahrungen mit meinen letzten nV Karten (die da wären GTX670, GTX980 und GTX980Ti) geben die TDP-Angaben zwar nicht unbedingt das absolute, messbare Maximum dar, aber sie sind durchaus ein guter Anhaltspunkt für den tatsächlichen Verbrauch in realistischen Spielesituationen.
Meine o.g. Karten waren/ sind zwar alles keine Referenzmodelle (alles Palit OC-Modelle), aber gerade für diese soll ja angeblich die TDP-Angabe besonders realitätsfern sein. Um meine Aussage von oben zu belegen, habe ich nun folgende Messungen der Leistungsaufnahme meines Gesamtsystems durchgeführt:
Zur Info: Die Palit GTX980Ti hat eine TDP-Angabe von 250W
==========================================================
Erstmal ein paar Prime95-Messungen, um zu wissen, was das System unter CPU-Last ohne Graka-Last verbraucht.
System Idle (0% CPU-Last): 65W
Prime95 In-place large FFTs (maximum power consumption): 171W
Prime95 Blend Test 8 Threads (100% CPU): 163W
Prime95 Blend Test 4 Threads (51% CPU): 163W
Prime95 Blend Test 3 Threads (39% CPU): 158W (mit 2GB und 6GB Ram usage getestet - gleiches Ergebnis)
Prime95 Blend Test 2 Threads (25% CPU): 147W
Prime95 Blend Test 1 Thread (12% CPU): 114W
3D-Mark Firestrike 1440p Graphics test1 (wenig CPU-Last): 344-350W
3D-Mark Firestrike 1620p Graphics test1 (wenig CPU-Last): 343-349W
3D-Mark Firestrike 1440p Graphics test2 (wenig CPU-Last): 312-340W
3D-Mark Firestrike 1620p Graphics test2 (wenig CPU-Last): 313-343W
3D-Mark Firestrike 1440p combined test (viel Physics, ca 30-40% CPU-Last: 350-363W
3D-Mark Firestrike 1620p combined test (viel Physics, ca 30-40% CPU-Last: 350-365W
Erkenntnis soweit: Im Firestrike combined test, der wohl am nächsten an echte Spielen angelegt sein dürfte, konsumiert das Gesamtsystem im Schnitt 200W mehr als bei vergleichbarer CPU-Auslastung mit Prime95 (wo die Graka nur im Idle ist).
Bevor nun die Schreie losgehen, dass 3DMark ja völlig realitätsfern sei, hier auch mal ein paar Tests mit dem Witcher. Bei der Testsituation "Marktplatz" bin ich mehrere Minuten kreuz und quer auf einem stark bevölkerten Marktplatz durch die Mengen gerannt und habe Min. und Max. Werte der Leistungsaufnahme sowie Bildwiederholfrequenzen ermittelt.
The Witcher 3 Marktplatz, 1080p, ohne vsync (ca.83-115fps)(ca. 65% CPU-Last): 351-368W
The Witcher 3 Marktplatz, 1080p, Vsync 60Hz (ca. 40% CPU-Last): 270-299W
The Witcher 3 Marktplatz, 1440p, ohne vsync (ca.60-70fps)(ca. 50% CPU-Last): 363-380W
The Witcher 3 Marktplatz, 1440p, Vsync 60Hz (ca. 40% CPU-Last): 353-374W
The Witcher 3 Marktplatz, 1620p, ohne vsync (ca.50-60fps)(ca. 40% CPU-Last): 360-389W
The Witcher 3 freie Wildnis mit Gewitter, 1620p, ohne vsync (ca. 50-60fps): 350-370W
The Witcher 3 freie Wildnis mit Gewitter, 1080p, Vsync 60Hz: 302-311W
Fazit:
=======
In realistischen Spielszenarien mit einem ziemlich Hardware-hungrigen Spiel konsumiert das Gesamtsystem im Schnitt 360-370W, also 200-210W mehr als unter Prime95-Last. Dies liegt nur marginal über den Messungen mit 3D-Mark.
Damit dürfte hinreichend belegt sein, dass die TDP-Angabe von Palit (250W), die ebenfalls für eine GTX980Ti Referenzkarte gilt, ein durchaus realistischer Wert ist. Eher sogar zu hoch gegriffen, der reale Verbrauch der Karte liegt in realistischen Spielesituationen sogar deutlich unter den 250W. Eine GTX980Ti Referenzkarte wird nochmal ein paar Prozentpunkte niedrigere Leistungsaufnahme haben.
Nun zur Palit GTX980 (ohne Ti): Diese hat eine TDP-Angabe von 180W. Mit vergleichbar detaillierten Messwerten wie oben kann ich für diese Karte nun leider nicht mehr dienen. Ich weiß aber noch, dass ich bei dieser Karte unter Spielelast (Witcher 3) etwa bei 300-350W lag, im Durchschnitt 325W, also 40W weniger als mit der GTX980Ti. Heißt, auch bei dieser Karte kommen die 180W TDP ziemlich gut hin, da das Gesamtsystem ca. 165W mehr konsumiert, als unter Prime95-Last.
So, jetzt dürft ihr mein Fazit zerfleischen, da das alles komplett realitätsfern ist.
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.271
- Renomée
- 1.853
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Meine Erkenntnis ist auch, dass die TDP-Angabe eher zu hoch gegriffen ist (GTX750ti und GTX970). Allerdings belaste ich die Karten nicht mit Spielen, sondern mit Boinc.
In diversen Vergleichstests hat man doch aber auch jeweils AMD und Nvidia-Messwerte separat von der Grafikkarte, z.B. ht4u.net. Die ganze Diskussion ob und wie weit die TPD der Realität entspricht, kann man sich also sparen, indem man einfach die Messwerte anschaut.
In diversen Vergleichstests hat man doch aber auch jeweils AMD und Nvidia-Messwerte separat von der Grafikkarte, z.B. ht4u.net. Die ganze Diskussion ob und wie weit die TPD der Realität entspricht, kann man sich also sparen, indem man einfach die Messwerte anschaut.
Zuletzt bearbeitet:
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.014
- Renomée
- 153
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
das mit den TDP-angaben passt schon ganz gut (bei referenzkarten).
(..)
mfg
tobi
(..)
mfg
tobi
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Da es sich um Werte für das Gesammtsystem handelt und viele Faktoren dazu beitragen ist es für TDP Aussagen relativ sinnlos. Wer sagt beispielsweise das die CPU bei der Last genau so viel frißt wie beim Prime Test, welcher den jeweiligen Kern halbwegs auslastet? Wo lag die GPU Last, welche entsprechend hoch sein MUSS um halbwegs in den Bereich für weitere Aussagen zu kommen?
Dass da noch Luft sein muss kann man ja an den Verbrauchswerten sehen die zusammen mit der Auflösung klettern.
Zwischen dem 1080p und dem 1620p Wert ohne vsync liege immerhin 20W und das trotz fallender CPU Last.
Genau das macht die Diskussion mit Werten zum Gesammtverbrauch so schwierig. Man weiß nie wie sie auf die einzelnen Komponenten verteilt sind.
Edit:
Wo es mir gerade noch auffällt....ein entscheidener Punkt fehlt in der Rechnung. Der Idle Strombedarf der Grafikkarte, welcher bei der Karte irgendwo zwischen 10 und 15W liegen dürfte und bei dem Prime Test mit einfloss.
--- Update ---
So um bei der Rechnung nochmal mit Hilfe anderer Tests mit anzuschließen.
Bei dem Test der R9 Nano war die 980 Ti in der Strom Tabelle 2x mit dabei. Einmal als Referenz Modell und einmal als OC Modell, wie es die Palit GTX980Ti Super JetStream nun einmal ist.
http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/
Mit dem Referenz Modell kam das System auf auf 353W, mit dem OC Modell auf 400W, was angesichts des Idle Strombedarfs von 77W (Referenz Modell) recht genau mit den ca. 390W in deinem 1620p Test ohne vsync vergleichbar wäre denn in beiden Fällen (Idle und Last) sind es ca. 10W weniger.
Damit wären wir bei einer Differenz von fast 50W zwischen dem Referenz und dem OC Modell.
Nur wieviel frißt denn nun das Referenz Modell?
Das erfahren wir in anderen Tests, beispielsweise bei ht4u:
http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index16.php
Dort rauschte sie ohne Begrenzung durch die Temperatur ganz flott in die 250W Begrenzung und pendelte sich danach bei ca. 220W ein.....und jetzt rechne nochmal gute 40W (abzüglich Netzteil Wirkungsgrad) für die Differenz aus dem ersten Test hinzu. Damit lägen wir dann bei ca. 290 bzw. 260W und hätten eine TDP von 250W ganz locker geknackt.
Natürlich gibt es dabei Unsicherheitsfaktoren wie die letztendliche Auswirkung der jeweiligen Testszene auf den Strombedarf der Karte allerdings dürfte es dennoch treffender sein als die pi mal Daumen Rechnung mit dem letztendlichen Strombedarf der CPU als große Unbekannte.
Dass da noch Luft sein muss kann man ja an den Verbrauchswerten sehen die zusammen mit der Auflösung klettern.
Zwischen dem 1080p und dem 1620p Wert ohne vsync liege immerhin 20W und das trotz fallender CPU Last.
Genau das macht die Diskussion mit Werten zum Gesammtverbrauch so schwierig. Man weiß nie wie sie auf die einzelnen Komponenten verteilt sind.
Edit:
Wo es mir gerade noch auffällt....ein entscheidener Punkt fehlt in der Rechnung. Der Idle Strombedarf der Grafikkarte, welcher bei der Karte irgendwo zwischen 10 und 15W liegen dürfte und bei dem Prime Test mit einfloss.
--- Update ---
So um bei der Rechnung nochmal mit Hilfe anderer Tests mit anzuschließen.
Bei dem Test der R9 Nano war die 980 Ti in der Strom Tabelle 2x mit dabei. Einmal als Referenz Modell und einmal als OC Modell, wie es die Palit GTX980Ti Super JetStream nun einmal ist.
http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/
Mit dem Referenz Modell kam das System auf auf 353W, mit dem OC Modell auf 400W, was angesichts des Idle Strombedarfs von 77W (Referenz Modell) recht genau mit den ca. 390W in deinem 1620p Test ohne vsync vergleichbar wäre denn in beiden Fällen (Idle und Last) sind es ca. 10W weniger.
Damit wären wir bei einer Differenz von fast 50W zwischen dem Referenz und dem OC Modell.
Nur wieviel frißt denn nun das Referenz Modell?
Das erfahren wir in anderen Tests, beispielsweise bei ht4u:
http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index16.php
Dort rauschte sie ohne Begrenzung durch die Temperatur ganz flott in die 250W Begrenzung und pendelte sich danach bei ca. 220W ein.....und jetzt rechne nochmal gute 40W (abzüglich Netzteil Wirkungsgrad) für die Differenz aus dem ersten Test hinzu. Damit lägen wir dann bei ca. 290 bzw. 260W und hätten eine TDP von 250W ganz locker geknackt.
Natürlich gibt es dabei Unsicherheitsfaktoren wie die letztendliche Auswirkung der jeweiligen Testszene auf den Strombedarf der Karte allerdings dürfte es dennoch treffender sein als die pi mal Daumen Rechnung mit dem letztendlichen Strombedarf der CPU als große Unbekannte.
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.271
- Renomée
- 1.853
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Warum die 40W noch draufschlagen?Nur wieviel frißt denn nun das Referenz Modell?
Das erfahren wir in anderen Tests, beispielsweise bei ht4u:
http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index16.php
Dort rauschte sie ohne Begrenzung durch die Temperatur ganz flott in die 250W Begrenzung und pendelte sich danach bei ca. 220W ein.....und jetzt rechne nochmal gute 40W (abzüglich Netzteil Wirkungsgrad) für die Differenz aus dem ersten Test hinzu. Damit lägen wir dann bei ca. 290 bzw. 260W und hätten eine TDP von 250W ganz locker geknackt.
Hat die Palit doch eine andere TDP und darf die 250W knacken?
HT4U misst doch ohne Netzteilverluste.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Weil ht4u das Referenz Modell gemessen hat....er hingegen nicht.
Sein OC Modell entspricht von der Idle - Last Differenz eher dem OC Modell aus dem Computerbase Test und dort fraß das Testsystem mit dem OC Modell fast 50W mehr als mit dem Referenz Modell. Will man beide Tests mit einander in Einklang bringen müssen natürlich die Netzteilverlußte aus dem Computerbase Test abgezogen werden und weil ich zu faul zum nachforschen bin habe ich pauschal 40W draus gemacht, was etwas mehr als 80% Wirkungsgrad wären.
Edit:
Palit gibt die TDP übrigens mit 250W an.
http://www.palit.biz/palit/vgapro.php?id=2499
Sein OC Modell entspricht von der Idle - Last Differenz eher dem OC Modell aus dem Computerbase Test und dort fraß das Testsystem mit dem OC Modell fast 50W mehr als mit dem Referenz Modell. Will man beide Tests mit einander in Einklang bringen müssen natürlich die Netzteilverlußte aus dem Computerbase Test abgezogen werden und weil ich zu faul zum nachforschen bin habe ich pauschal 40W draus gemacht, was etwas mehr als 80% Wirkungsgrad wären.
Edit:
Palit gibt die TDP übrigens mit 250W an.
http://www.palit.biz/palit/vgapro.php?id=2499
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.271
- Renomée
- 1.853
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Wenns danach geht, müssen die Verluste vom Netzteil ja bei den im ersten Post ermittelten Werten auch noch abgezogen werden, dann wird es noch mal besser.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Natürlich nur ist das relativ egal wenn man noch nicht einmal weiss wieviel der Rest des Systems nun frißt und deshalb nicht sagen kann wieviel aufs Konto der Karte geht.
Mit seinem Netzteil und der Last von ca. 50% würfte der Wirkungsgrad bei ca. 90% liegen.
Mit seinem Netzteil und der Last von ca. 50% würfte der Wirkungsgrad bei ca. 90% liegen.
zrainer
Vice Admiral Special
- Mitglied seit
- 08.04.2012
- Beiträge
- 583
- Renomée
- 15
- Prozessor
- AMD FX 6100@ 4304Mhz- 1,352 Volt
- Mainboard
- ASUS Sabertooth 990FX rev1
- Kühlung
- Arctic Freezer A30 rev.2 + Coollaboratory Liquid Ultra
- Speicher
- 2x 8GB Kingston HyperX@ 1737Mhz- 1,509Volt (CL9 T1)
- Grafikprozessor
- Sapphire R9 380X 4GB@ 1060MHz/ 6040MHz/ TDP + 6%
- Display
- 27" ACER RT270 an Displayport
- HDD
- 3x Toshiba DT01ACA050 500GB (1 Plattern)
- Optisches Laufwerk
- Samsung SH-118AB/BEBE
- Soundkarte
- Creative Sound Blaster Audigy 2 ZS + AKG 271 MKII + Fujiyama KAV
- Gehäuse
- Xigmatek Midgard + 2 Scythe Slip Stream@ 1200rpm + NB-eLoop B12-PS
- Netzteil
- Enermax Triathlor 550Watt 80+ (84% bis 88%)
- Tastatur
- Ozone Strtike Pro 3 (MX CHERRY -red)
- Maus
- EpicGear MeduZa HDST (Laser + LED-Sensor)
- Betriebssystem
- Windows 7 HP 64 Bit OEM SP1
- Webbrowser
- Opera
- Verschiedenes
- CPU NB@ 2347Mhz- 1,250 Volt, HT Link@ 2347Mhz- 1,203 Volt
Aussage einiger war (sinngemäß): Die TDP-Angaben von nVidia seien Quatsch, generell zu niedrig angesetzt (um gegenüber AMD besser da zu stehen), und sie haben mit dem realen Verbrauch nichts zu tun. Und die TDP-Angaben bei Custom-OC Karten erst recht nicht, da ziemliche Energiefresser.
Die TDP ist ja auch das Ergebniss, aus dem Tempperratur- und Power- limit.
Hier wird diese "TDP" relativ gut beschrieben: http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index15.php
PS:
Frag dich doch einfach mal selbst: warum eine Karte(980) mit einer TDP von 180Watt, den
überhaupt ein 300Watt layout braucht
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.976
- Renomée
- 316
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Ja, der Idle-Verbrauch der Grafikkarte (den man ja noch aufschlagen muss) konnte nach dem o. g. Messverfahren natürlich nicht ermittelt werden. Allerdings hat das Netzteil im Idle ja nochmals einen schlechteren Wirkungsgrad als unter Volllast, sodass sich dies zumindest halbwegs ausgleichen dürfte, weshalb ich den Idle-Verbrauch vernachlässigt habe.
Aber selbst wenn man einfach nochmal 10-15W aufschlagen würde, wären die Ergebnisse immer noch knapp im Rahmen der TDP-Angaben. Ich denke, es dürfte hinreichend belegt sein, dass die TDP-Angaben realistische Anhaltswerte für reale Spielelast sind (<> maximal erreichbare Last!).
Klar, man kann da auch Leistungsspitzen erreichen, die kurzfristig noch eine Ecke höher sind als die TDP, das bestreite ich nicht. Mit entsprechenden Einstellungen, Benchmarks (wie im Thread von Casi030) etc. kann ich die Leistungsaufnahme auch deutlich über 400W prügeln, nur entspricht das dann keiner realistischen Spielesituation und wird auf Grund der Temperaturlimitierung schon garnicht dauerhaft anliegen.
Aber selbst wenn man einfach nochmal 10-15W aufschlagen würde, wären die Ergebnisse immer noch knapp im Rahmen der TDP-Angaben. Ich denke, es dürfte hinreichend belegt sein, dass die TDP-Angaben realistische Anhaltswerte für reale Spielelast sind (<> maximal erreichbare Last!).
Klar, man kann da auch Leistungsspitzen erreichen, die kurzfristig noch eine Ecke höher sind als die TDP, das bestreite ich nicht. Mit entsprechenden Einstellungen, Benchmarks (wie im Thread von Casi030) etc. kann ich die Leistungsaufnahme auch deutlich über 400W prügeln, nur entspricht das dann keiner realistischen Spielesituation und wird auf Grund der Temperaturlimitierung schon garnicht dauerhaft anliegen.
Zuletzt bearbeitet:
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Klar, man kann da auch Leistungsspitzen erreichen, die kurzfristig noch eine Ecke höher sind als die TDP, das bestreite ich nicht. Mit entsprechenden Einstellungen, Benchmarks (wie im Thread von Casi030) etc. kann ich die Leistungsaufnahme auch deutlich über 400W prügeln, nur entspricht das dann keiner realistischen Spielesituation.
Nicht mit der Gesammtlast verwechseln.......Und CineBench + AvsP Bench können schon eine Reale Last darstellen,wenn man z.b. beim Spielen das Virenprogramm laufen lässt,oder das Spiel Aufzeichnet/Streamt......Dafür hat man mittlerweile so viele CPU Kerne.
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.249
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Am besten wär es, wenn du etwas Equip hättest, den EPS-Stecker zur CPU zu vermessen, so kannst du genauer den Einfluss der CPU herausrechnen.
Weil ich finde, den CPU-Verbrauch mit Prime zu bestimmen relativen Nonsens, da "Game-40%" sicher einen anderen Verbrauch haben als "Prime-40%".
Weil ich finde, den CPU-Verbrauch mit Prime zu bestimmen relativen Nonsens, da "Game-40%" sicher einen anderen Verbrauch haben als "Prime-40%".
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Thunderbird 1400
Wie gesagt, die ganze Rechnung steht und fällt mit dem realen Verbrauch vom restlichen System und da sich dies nicht über die Messung des Gesammtverbrauchs feststellen läßt....
Mit Prime hast du schließlich nur festgestellt wieviel die CPU mit entsprechend vielen ausgelasteten Kernen frißt und nicht wieviel die CPU bei der entsprechenden Auslastung in dem Spiel frißt denn das können 2 sehr unterschiedliche paar Schuhe sein. Zum einen weil die Programme die unterschiedlichen Teile des kerns unterschiedlich fordern können und zum anderen weil mit der Gesammtauslastung noch nicht einmal gesagt ist das entsprechend viele Kerne auch auf Anschlag laufen oder ob sich die Last auf die Kerne verteilt.
Genau das ist das grundsätzliche Problem deiner Rechnung und die Geschichte mit dem Idle Strombedarf der Grafikkarte kommt da noch hinzu.
Zudem gibt es da noch ein weiteres Problem mit der Aussage zu den Leistungsspitzen. Bei ht4u wurde das Referenz Modell gemessen und diese Aussage läßt sich eben nicht einfach so auf deine Karte übertragen oder wird diese ebenfalls nach dem aufwärmen vom Temperatur Target eingeholt und taktet ein Stück zurück?
Selbst meine Abschätzung über diese beiden Tests ist da schon schwierig da es eben auch eine gewisse Serienstreuung gibt die Einfluss auf den Realen Verbrauch der Hardware hat.
Wie gesagt, die ganze Rechnung steht und fällt mit dem realen Verbrauch vom restlichen System und da sich dies nicht über die Messung des Gesammtverbrauchs feststellen läßt....
Mit Prime hast du schließlich nur festgestellt wieviel die CPU mit entsprechend vielen ausgelasteten Kernen frißt und nicht wieviel die CPU bei der entsprechenden Auslastung in dem Spiel frißt denn das können 2 sehr unterschiedliche paar Schuhe sein. Zum einen weil die Programme die unterschiedlichen Teile des kerns unterschiedlich fordern können und zum anderen weil mit der Gesammtauslastung noch nicht einmal gesagt ist das entsprechend viele Kerne auch auf Anschlag laufen oder ob sich die Last auf die Kerne verteilt.
Genau das ist das grundsätzliche Problem deiner Rechnung und die Geschichte mit dem Idle Strombedarf der Grafikkarte kommt da noch hinzu.
Zudem gibt es da noch ein weiteres Problem mit der Aussage zu den Leistungsspitzen. Bei ht4u wurde das Referenz Modell gemessen und diese Aussage läßt sich eben nicht einfach so auf deine Karte übertragen oder wird diese ebenfalls nach dem aufwärmen vom Temperatur Target eingeholt und taktet ein Stück zurück?
Selbst meine Abschätzung über diese beiden Tests ist da schon schwierig da es eben auch eine gewisse Serienstreuung gibt die Einfluss auf den Realen Verbrauch der Hardware hat.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Am besten wär es, wenn du etwas Equip hättest, den EPS-Stecker zur CPU zu vermessen, so kannst du genauer den Einfluss der CPU herausrechnen.
Weil ich finde, den CPU-Verbrauch mit Prime zu bestimmen relativen Nonsens, da "Game-40%" sicher einen anderen Verbrauch haben als "Prime-40%".
Da ist der Test mit dem Alien vs Predator Bench deutlich besser,der verursacht kaum CPU Last und da bremst selbst ne Atomgurke mehrere GTX 980TI nicht aus.
Und @Thunderbird 1400 , um noch mal auf meine MAX Last zurück zu kommen.
Der Screen ist aus einem Spiel,auch wenn ich ein wenig nach dieser Stelle gesucht hatte,ABER man bekommt seine CPU + GPU auch in Spielen nahe zu GLEICHZEITIG auf 100% Last.
--- Update ---
Das könnt er einfach feststellen,will er aber nicht öffentlich Zeigen.............oder wird diese ebenfalls nach dem aufwärmen vom Temperatur Target eingeholt und taktet ein Stück zurück?
Ich für meinen Teil war doch recht überrascht das mein HD 7950 mit einem + von 20 bei 1000/1450MHz in Furmark schon so weit gedrosselt wurde.
Mit 900/1300MHz hab ich nahe zu das gleiche Ergebnis bei 20Watt weniger......
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.976
- Renomée
- 316
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Klar kann man jetzt darüber rumlamentieren, ob die CPU nicht vielleicht in dem oder dem Spiel (ist sowieso je nach Spiel wieder anders) einen etwas größeren Einfluss hat, als bei prozentual ähnlicher Auslastung mit Prime95. Aber mal ehrlich, was genau soll das an der generellen Aussage ändern, ob da nun die CPU bei 40% Spielelast vielleich 5 oder 10% mehr oder weniger verbraucht, als unter 40% Prime95-Last? Gar nichts.
Zuletzt bearbeitet:
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.249
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
So gut wie nichts. Es geht hier wie gesagt nicht um absolute Maximalwerte, und in den allermeisten Spielen langweilt sich eine CPU wie ein aktueller i7 sowieso.
Es ging darum, inwieweit die CPU Saft saugt in deinen Messungen. Wenn sich die CPU langweilt, muss eben die GPU mehr futtern und das entscheidet nunmal, ob die GPU unter oder über der TPD agiert. Eine CPU unter Prime zu messen, während sie sich bei dem Game langweilt, kann schon zu einem falschen Bild über den Verbrauch zur GPU führen.
Da vertrau ich lieber den genauen Messungen von z.b. tomshardware als der Milchmädchenrechnung (Tschuldige den Ausdruch)
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Hier hattest aber was anderes geschrieben.
Wie du am Screen von BF4 sehen kannst DOCH.
ABER hier geht es ja NUR um die GPU Last..........und da ist der AvsP Bench sehr aussagekräftig.
Deine Daten:
System Idle (0% CPU-Last): 65W
AvP Benchmark: gemessene Leistungsspitze 358W
65Watt - Idle Graka...~15Watt = 50Watt
CPU,HDD....10Watt = 40Watt
Somit,358Watt-40Watt = 318Watt x Netzteil mit 88% (0,88 ) = 280Watt die deine Graka im AvsP Bench zieht.
...... nur entspricht das dann keiner realistischen Spielesituation .
Wie du am Screen von BF4 sehen kannst DOCH.
ABER hier geht es ja NUR um die GPU Last..........und da ist der AvsP Bench sehr aussagekräftig.
Deine Daten:
System Idle (0% CPU-Last): 65W
AvP Benchmark: gemessene Leistungsspitze 358W
65Watt - Idle Graka...~15Watt = 50Watt
CPU,HDD....10Watt = 40Watt
Somit,358Watt-40Watt = 318Watt x Netzteil mit 88% (0,88 ) = 280Watt die deine Graka im AvsP Bench zieht.
Zuletzt bearbeitet:
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.976
- Renomée
- 316
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Hier hattest aber was anderes geschrieben.
Wie du am Screen von BF4 sehen kannst DOCH.
ABER hier geht es ja NUR um die GPU Last..........und da ist der AvsP Bench sehr aussagekräftig.
Deine Daten:
System Idle (0% CPU-Last): 65W
AvP Benchmark: gemessene Leistungsspitze 358W
65Watt - Idle Graka...~15Watt = 50Watt
CPU,HDD....10Watt = 40Watt
Somit,358Watt-40Watt = 318Watt x Netzteil mit 88% (0,88 ) = 280Watt die deine Graka im AvsP Bench zieht.
Die CPU bleibt doch niemals komplett im Idle Zustand während des AvP Benchmarks. Du hast also zu wenig abgezogen
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Es ist natürlich logisch das deine Graka Deutlich weniger braucht wenn du sie künstlich begrenzt z.b. auf 60FPS,ODER deine CPU deine Graka begrenzt.
Dies sind aber dann keine Realen Lastszenarien die aussagen wie viel die Graka jetzt wirklich braucht.
Dies sind aber dann keine Realen Lastszenarien die aussagen wie viel die Graka jetzt wirklich braucht.
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.976
- Renomée
- 316
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Ändert nichts an meiner Aussage, du hast viel zu wenig abgezogen in deiner Rechnung, weil die CPU im AvP Bench definitiv nicht im Idle Zustand mit 0% CPU-Last verweilt.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.976
- Renomée
- 316
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Kann ich morgen mal testen. Aber selbst geringe CPU-Last benötigt gleich "zich" Watt, die von deiner Rechnung noch abgezogen werden müssten. Hinzu kommen restliche Komponenten, die im Bench ebenfalls mehr verbrauchen, als im Idle, wie z. B. Ram, Mainboard usw. Also deine Rechnung passt so oder so nicht.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Und was ist mit Verlusten durch Spannungswandlern?
Was macht die Festplatte?
Der Arbeitsspeicher, braucht der vielleicht auch mehr.
Chipsatz
Was taugt das Strommessgerät, wie hoch ist da die Toleranz.
Edit
Letztendlich ist es nur Pi mal Daumen.
Was macht die Festplatte?
Der Arbeitsspeicher, braucht der vielleicht auch mehr.
Chipsatz
Was taugt das Strommessgerät, wie hoch ist da die Toleranz.
Edit
Letztendlich ist es nur Pi mal Daumen.
toms hardware schlüsselt die leistungsaufnahme seit einer weile relativ umfangreich und detailliert auf. kann man als anhaltspunkt nehmen.
http://www.tomshardware.de/nvidia-geforce-gtx-980-ti-grafikkarte-gpu,testberichte-241827-7.html
http://www.tomshardware.de/nvidia-geforce-gtx-980-ti-grafikkarte-gpu,testberichte-241827-7.html
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 46K
- Antworten
- 2K
- Aufrufe
- 112K
- Antworten
- 0
- Aufrufe
- 863
- Antworten
- 18
- Aufrufe
- 6K
- Antworten
- 2K
- Aufrufe
- 262K