TDP-Angaben bei nVidia Karten, Unsinn oder realistischer Anhaltspunkt?

Thunderbird 1400

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
17.976
Renomée
316
Hallo!

Da ich im R9 Fury Thread ein paar Aussagen zu den TDP-Angaben bei nVidia Karten gemacht habe, die zu einer regen Offtopic-Diskussion führten, mache ich dazu jetzt nochmal einen separaten Thread auf.

Aussage einiger war (sinngemäß): Die TDP-Angaben von nVidia seien Quatsch, generell zu niedrig angesetzt (um gegenüber AMD besser da zu stehen), und sie haben mit dem realen Verbrauch nichts zu tun. Und die TDP-Angaben bei Custom-OC Karten erst recht nicht, da ziemliche Energiefresser.

Meine Aussage war (sinngemäß): Nach meinen Erfahrungen mit meinen letzten nV Karten (die da wären GTX670, GTX980 und GTX980Ti) geben die TDP-Angaben zwar nicht unbedingt das absolute, messbare Maximum dar, aber sie sind durchaus ein guter Anhaltspunkt für den tatsächlichen Verbrauch in realistischen Spielesituationen.

Meine o.g. Karten waren/ sind zwar alles keine Referenzmodelle (alles Palit OC-Modelle), aber gerade für diese soll ja angeblich die TDP-Angabe besonders realitätsfern sein. Um meine Aussage von oben zu belegen, habe ich nun folgende Messungen der Leistungsaufnahme meines Gesamtsystems durchgeführt:

Zur Info: Die Palit GTX980Ti hat eine TDP-Angabe von 250W
==========================================================

Erstmal ein paar Prime95-Messungen, um zu wissen, was das System unter CPU-Last ohne Graka-Last verbraucht.

System Idle (0% CPU-Last): 65W

Prime95 In-place large FFTs (maximum power consumption): 171W
Prime95 Blend Test 8 Threads (100% CPU): 163W
Prime95 Blend Test 4 Threads (51% CPU): 163W
Prime95 Blend Test 3 Threads (39% CPU): 158W (mit 2GB und 6GB Ram usage getestet - gleiches Ergebnis)
Prime95 Blend Test 2 Threads (25% CPU): 147W
Prime95 Blend Test 1 Thread (12% CPU): 114W

3D-Mark Firestrike 1440p Graphics test1 (wenig CPU-Last): 344-350W
3D-Mark Firestrike 1620p Graphics test1 (wenig CPU-Last): 343-349W

3D-Mark Firestrike 1440p Graphics test2 (wenig CPU-Last): 312-340W
3D-Mark Firestrike 1620p Graphics test2 (wenig CPU-Last): 313-343W

3D-Mark Firestrike 1440p combined test (viel Physics, ca 30-40% CPU-Last: 350-363W
3D-Mark Firestrike 1620p combined test (viel Physics, ca 30-40% CPU-Last: 350-365W

Erkenntnis soweit: Im Firestrike combined test, der wohl am nächsten an echte Spielen angelegt sein dürfte, konsumiert das Gesamtsystem im Schnitt 200W mehr als bei vergleichbarer CPU-Auslastung mit Prime95 (wo die Graka nur im Idle ist).

Bevor nun die Schreie losgehen, dass 3DMark ja völlig realitätsfern sei, hier auch mal ein paar Tests mit dem Witcher. Bei der Testsituation "Marktplatz" bin ich mehrere Minuten kreuz und quer auf einem stark bevölkerten Marktplatz durch die Mengen gerannt und habe Min. und Max. Werte der Leistungsaufnahme sowie Bildwiederholfrequenzen ermittelt.

The Witcher 3 Marktplatz, 1080p, ohne vsync (ca.83-115fps)(ca. 65% CPU-Last): 351-368W
The Witcher 3 Marktplatz, 1080p, Vsync 60Hz (ca. 40% CPU-Last): 270-299W
The Witcher 3 Marktplatz, 1440p, ohne vsync (ca.60-70fps)(ca. 50% CPU-Last): 363-380W
The Witcher 3 Marktplatz, 1440p, Vsync 60Hz (ca. 40% CPU-Last): 353-374W
The Witcher 3 Marktplatz, 1620p, ohne vsync (ca.50-60fps)(ca. 40% CPU-Last): 360-389W

The Witcher 3 freie Wildnis mit Gewitter, 1620p, ohne vsync (ca. 50-60fps): 350-370W
The Witcher 3 freie Wildnis mit Gewitter, 1080p, Vsync 60Hz: 302-311W

Fazit:
=======

In realistischen Spielszenarien mit einem ziemlich Hardware-hungrigen Spiel konsumiert das Gesamtsystem im Schnitt 360-370W, also 200-210W mehr als unter Prime95-Last. Dies liegt nur marginal über den Messungen mit 3D-Mark.

Damit dürfte hinreichend belegt sein, dass die TDP-Angabe von Palit (250W), die ebenfalls für eine GTX980Ti Referenzkarte gilt, ein durchaus realistischer Wert ist. Eher sogar zu hoch gegriffen, der reale Verbrauch der Karte liegt in realistischen Spielesituationen sogar deutlich unter den 250W. Eine GTX980Ti Referenzkarte wird nochmal ein paar Prozentpunkte niedrigere Leistungsaufnahme haben.

Nun zur Palit GTX980 (ohne Ti): Diese hat eine TDP-Angabe von 180W. Mit vergleichbar detaillierten Messwerten wie oben kann ich für diese Karte nun leider nicht mehr dienen. Ich weiß aber noch, dass ich bei dieser Karte unter Spielelast (Witcher 3) etwa bei 300-350W lag, im Durchschnitt 325W, also 40W weniger als mit der GTX980Ti. Heißt, auch bei dieser Karte kommen die 180W TDP ziemlich gut hin, da das Gesamtsystem ca. 165W mehr konsumiert, als unter Prime95-Last.

So, jetzt dürft ihr mein Fazit zerfleischen, da das alles komplett realitätsfern ist.
 
Zuletzt bearbeitet:
Meine Erkenntnis ist auch, dass die TDP-Angabe eher zu hoch gegriffen ist (GTX750ti und GTX970). Allerdings belaste ich die Karten nicht mit Spielen, sondern mit Boinc.

In diversen Vergleichstests hat man doch aber auch jeweils AMD und Nvidia-Messwerte separat von der Grafikkarte, z.B. ht4u.net. Die ganze Diskussion ob und wie weit die TPD der Realität entspricht, kann man sich also sparen, indem man einfach die Messwerte anschaut.
 
Zuletzt bearbeitet:
das mit den TDP-angaben passt schon ganz gut (bei referenzkarten).


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Da es sich um Werte für das Gesammtsystem handelt und viele Faktoren dazu beitragen ist es für TDP Aussagen relativ sinnlos. Wer sagt beispielsweise das die CPU bei der Last genau so viel frißt wie beim Prime Test, welcher den jeweiligen Kern halbwegs auslastet? Wo lag die GPU Last, welche entsprechend hoch sein MUSS um halbwegs in den Bereich für weitere Aussagen zu kommen?
Dass da noch Luft sein muss kann man ja an den Verbrauchswerten sehen die zusammen mit der Auflösung klettern.
Zwischen dem 1080p und dem 1620p Wert ohne vsync liege immerhin 20W und das trotz fallender CPU Last.

Genau das macht die Diskussion mit Werten zum Gesammtverbrauch so schwierig. Man weiß nie wie sie auf die einzelnen Komponenten verteilt sind.

Edit:
Wo es mir gerade noch auffällt....ein entscheidener Punkt fehlt in der Rechnung. Der Idle Strombedarf der Grafikkarte, welcher bei der Karte irgendwo zwischen 10 und 15W liegen dürfte und bei dem Prime Test mit einfloss.

--- Update ---

So um bei der Rechnung nochmal mit Hilfe anderer Tests mit anzuschließen.

Bei dem Test der R9 Nano war die 980 Ti in der Strom Tabelle 2x mit dabei. Einmal als Referenz Modell und einmal als OC Modell, wie es die Palit GTX980Ti Super JetStream nun einmal ist.
http://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/

Mit dem Referenz Modell kam das System auf auf 353W, mit dem OC Modell auf 400W, was angesichts des Idle Strombedarfs von 77W (Referenz Modell) recht genau mit den ca. 390W in deinem 1620p Test ohne vsync vergleichbar wäre denn in beiden Fällen (Idle und Last) sind es ca. 10W weniger.

Damit wären wir bei einer Differenz von fast 50W zwischen dem Referenz und dem OC Modell.

Nur wieviel frißt denn nun das Referenz Modell?
Das erfahren wir in anderen Tests, beispielsweise bei ht4u:
http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index16.php
Dort rauschte sie ohne Begrenzung durch die Temperatur ganz flott in die 250W Begrenzung und pendelte sich danach bei ca. 220W ein.....und jetzt rechne nochmal gute 40W (abzüglich Netzteil Wirkungsgrad) für die Differenz aus dem ersten Test hinzu. Damit lägen wir dann bei ca. 290 bzw. 260W und hätten eine TDP von 250W ganz locker geknackt.

Natürlich gibt es dabei Unsicherheitsfaktoren wie die letztendliche Auswirkung der jeweiligen Testszene auf den Strombedarf der Karte allerdings dürfte es dennoch treffender sein als die pi mal Daumen Rechnung mit dem letztendlichen Strombedarf der CPU als große Unbekannte.
 
Zuletzt bearbeitet:
Nur wieviel frißt denn nun das Referenz Modell?
Das erfahren wir in anderen Tests, beispielsweise bei ht4u:
http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index16.php
Dort rauschte sie ohne Begrenzung durch die Temperatur ganz flott in die 250W Begrenzung und pendelte sich danach bei ca. 220W ein.....und jetzt rechne nochmal gute 40W (abzüglich Netzteil Wirkungsgrad) für die Differenz aus dem ersten Test hinzu. Damit lägen wir dann bei ca. 290 bzw. 260W und hätten eine TDP von 250W ganz locker geknackt.
Warum die 40W noch draufschlagen?
Hat die Palit doch eine andere TDP und darf die 250W knacken?
HT4U misst doch ohne Netzteilverluste.
 
Weil ht4u das Referenz Modell gemessen hat....er hingegen nicht.
Sein OC Modell entspricht von der Idle - Last Differenz eher dem OC Modell aus dem Computerbase Test und dort fraß das Testsystem mit dem OC Modell fast 50W mehr als mit dem Referenz Modell. Will man beide Tests mit einander in Einklang bringen müssen natürlich die Netzteilverlußte aus dem Computerbase Test abgezogen werden und weil ich zu faul zum nachforschen bin habe ich pauschal 40W draus gemacht, was etwas mehr als 80% Wirkungsgrad wären.

Edit:
Palit gibt die TDP übrigens mit 250W an.
http://www.palit.biz/palit/vgapro.php?id=2499
 
Zuletzt bearbeitet:
Wenns danach geht, müssen die Verluste vom Netzteil ja bei den im ersten Post ermittelten Werten auch noch abgezogen werden, dann wird es noch mal besser.
 
Natürlich nur ist das relativ egal wenn man noch nicht einmal weiss wieviel der Rest des Systems nun frißt und deshalb nicht sagen kann wieviel aufs Konto der Karte geht.
Mit seinem Netzteil und der Last von ca. 50% würfte der Wirkungsgrad bei ca. 90% liegen.
 
Aussage einiger war (sinngemäß): Die TDP-Angaben von nVidia seien Quatsch, generell zu niedrig angesetzt (um gegenüber AMD besser da zu stehen), und sie haben mit dem realen Verbrauch nichts zu tun. Und die TDP-Angaben bei Custom-OC Karten erst recht nicht, da ziemliche Energiefresser.

Die TDP ist ja auch das Ergebniss, aus dem Tempperratur- und Power- limit.
Hier wird diese "TDP" relativ gut beschrieben: http://ht4u.net/reviews/2015/nvidia...hs_gigabyte_hauptspeicher_im_test/index15.php

PS:
Frag dich doch einfach mal selbst: warum eine Karte(980) mit einer TDP von 180Watt, den
überhaupt ein 300Watt layout braucht
 
Ja, der Idle-Verbrauch der Grafikkarte (den man ja noch aufschlagen muss) konnte nach dem o. g. Messverfahren natürlich nicht ermittelt werden. Allerdings hat das Netzteil im Idle ja nochmals einen schlechteren Wirkungsgrad als unter Volllast, sodass sich dies zumindest halbwegs ausgleichen dürfte, weshalb ich den Idle-Verbrauch vernachlässigt habe.

Aber selbst wenn man einfach nochmal 10-15W aufschlagen würde, wären die Ergebnisse immer noch knapp im Rahmen der TDP-Angaben. Ich denke, es dürfte hinreichend belegt sein, dass die TDP-Angaben realistische Anhaltswerte für reale Spielelast sind (<> maximal erreichbare Last!).

Klar, man kann da auch Leistungsspitzen erreichen, die kurzfristig noch eine Ecke höher sind als die TDP, das bestreite ich nicht. Mit entsprechenden Einstellungen, Benchmarks (wie im Thread von Casi030) etc. kann ich die Leistungsaufnahme auch deutlich über 400W prügeln, nur entspricht das dann keiner realistischen Spielesituation und wird auf Grund der Temperaturlimitierung schon garnicht dauerhaft anliegen.
 
Zuletzt bearbeitet:
Klar, man kann da auch Leistungsspitzen erreichen, die kurzfristig noch eine Ecke höher sind als die TDP, das bestreite ich nicht. Mit entsprechenden Einstellungen, Benchmarks (wie im Thread von Casi030) etc. kann ich die Leistungsaufnahme auch deutlich über 400W prügeln, nur entspricht das dann keiner realistischen Spielesituation.

Nicht mit der Gesammtlast verwechseln.......Und CineBench + AvsP Bench können schon eine Reale Last darstellen,wenn man z.b. beim Spielen das Virenprogramm laufen lässt,oder das Spiel Aufzeichnet/Streamt......Dafür hat man mittlerweile so viele CPU Kerne.
 
Am besten wär es, wenn du etwas Equip hättest, den EPS-Stecker zur CPU zu vermessen, so kannst du genauer den Einfluss der CPU herausrechnen.

Weil ich finde, den CPU-Verbrauch mit Prime zu bestimmen relativen Nonsens, da "Game-40%" sicher einen anderen Verbrauch haben als "Prime-40%".
 
@Thunderbird 1400
Wie gesagt, die ganze Rechnung steht und fällt mit dem realen Verbrauch vom restlichen System und da sich dies nicht über die Messung des Gesammtverbrauchs feststellen läßt....
Mit Prime hast du schließlich nur festgestellt wieviel die CPU mit entsprechend vielen ausgelasteten Kernen frißt und nicht wieviel die CPU bei der entsprechenden Auslastung in dem Spiel frißt denn das können 2 sehr unterschiedliche paar Schuhe sein. Zum einen weil die Programme die unterschiedlichen Teile des kerns unterschiedlich fordern können und zum anderen weil mit der Gesammtauslastung noch nicht einmal gesagt ist das entsprechend viele Kerne auch auf Anschlag laufen oder ob sich die Last auf die Kerne verteilt.
Genau das ist das grundsätzliche Problem deiner Rechnung und die Geschichte mit dem Idle Strombedarf der Grafikkarte kommt da noch hinzu.

Zudem gibt es da noch ein weiteres Problem mit der Aussage zu den Leistungsspitzen. Bei ht4u wurde das Referenz Modell gemessen und diese Aussage läßt sich eben nicht einfach so auf deine Karte übertragen oder wird diese ebenfalls nach dem aufwärmen vom Temperatur Target eingeholt und taktet ein Stück zurück?

Selbst meine Abschätzung über diese beiden Tests ist da schon schwierig da es eben auch eine gewisse Serienstreuung gibt die Einfluss auf den Realen Verbrauch der Hardware hat.
 
Am besten wär es, wenn du etwas Equip hättest, den EPS-Stecker zur CPU zu vermessen, so kannst du genauer den Einfluss der CPU herausrechnen.

Weil ich finde, den CPU-Verbrauch mit Prime zu bestimmen relativen Nonsens, da "Game-40%" sicher einen anderen Verbrauch haben als "Prime-40%".

Da ist der Test mit dem Alien vs Predator Bench deutlich besser,der verursacht kaum CPU Last und da bremst selbst ne Atomgurke mehrere GTX 980TI nicht aus.

Und @Thunderbird 1400 , um noch mal auf meine MAX Last zurück zu kommen.
Der Screen ist aus einem Spiel,auch wenn ich ein wenig nach dieser Stelle gesucht hatte,ABER man bekommt seine CPU + GPU auch in Spielen nahe zu GLEICHZEITIG auf 100% Last.


--- Update ---

.....oder wird diese ebenfalls nach dem aufwärmen vom Temperatur Target eingeholt und taktet ein Stück zurück?
Das könnt er einfach feststellen,will er aber nicht öffentlich Zeigen........
Ich für meinen Teil war doch recht überrascht das mein HD 7950 mit einem + von 20 bei 1000/1450MHz in Furmark schon so weit gedrosselt wurde.
Mit 900/1300MHz hab ich nahe zu das gleiche Ergebnis bei 20Watt weniger......
 
Klar kann man jetzt darüber rumlamentieren, ob die CPU nicht vielleicht in dem oder dem Spiel (ist sowieso je nach Spiel wieder anders) einen etwas größeren Einfluss hat, als bei prozentual ähnlicher Auslastung mit Prime95. Aber mal ehrlich, was genau soll das an der generellen Aussage ändern, ob da nun die CPU bei 40% Spielelast vielleich 5 oder 10% mehr oder weniger verbraucht, als unter 40% Prime95-Last? Gar nichts.
 
Zuletzt bearbeitet:
So gut wie nichts. Es geht hier wie gesagt nicht um absolute Maximalwerte, und in den allermeisten Spielen langweilt sich eine CPU wie ein aktueller i7 sowieso.

Es ging darum, inwieweit die CPU Saft saugt in deinen Messungen. Wenn sich die CPU langweilt, muss eben die GPU mehr futtern und das entscheidet nunmal, ob die GPU unter oder über der TPD agiert. Eine CPU unter Prime zu messen, während sie sich bei dem Game langweilt, kann schon zu einem falschen Bild über den Verbrauch zur GPU führen.

Da vertrau ich lieber den genauen Messungen von z.b. tomshardware als der Milchmädchenrechnung (Tschuldige den Ausdruch) :)
 
Hier hattest aber was anderes geschrieben.;)
...... nur entspricht das dann keiner realistischen Spielesituation .

Wie du am Screen von BF4 sehen kannst DOCH.

ABER hier geht es ja NUR um die GPU Last..........und da ist der AvsP Bench sehr aussagekräftig.
Deine Daten:
System Idle (0% CPU-Last): 65W
AvP Benchmark: gemessene Leistungsspitze 358W

65Watt - Idle Graka...~15Watt = 50Watt
CPU,HDD....10Watt = 40Watt
Somit,358Watt-40Watt = 318Watt x Netzteil mit ??? 88% (0,88 ) = 280Watt die deine Graka im AvsP Bench zieht.
 
Zuletzt bearbeitet:
Hier hattest aber was anderes geschrieben.;)


Wie du am Screen von BF4 sehen kannst DOCH.

ABER hier geht es ja NUR um die GPU Last..........und da ist der AvsP Bench sehr aussagekräftig.
Deine Daten:
System Idle (0% CPU-Last): 65W
AvP Benchmark: gemessene Leistungsspitze 358W

65Watt - Idle Graka...~15Watt = 50Watt
CPU,HDD....10Watt = 40Watt
Somit,358Watt-40Watt = 318Watt x Netzteil mit ??? 88% (0,88 ) = 280Watt die deine Graka im AvsP Bench zieht.

Die CPU bleibt doch niemals komplett im Idle Zustand während des AvP Benchmarks. Du hast also zu wenig abgezogen
 
Es ist natürlich logisch das deine Graka Deutlich weniger braucht wenn du sie künstlich begrenzt z.b. auf 60FPS,ODER deine CPU deine Graka begrenzt.
Dies sind aber dann keine Realen Lastszenarien die aussagen wie viel die Graka jetzt wirklich braucht.
 
Ändert nichts an meiner Aussage, du hast viel zu wenig abgezogen in deiner Rechnung, weil die CPU im AvP Bench definitiv nicht im Idle Zustand mit 0% CPU-Last verweilt.
 
Die CPU bleibt doch niemals komplett im Idle Zustand während des AvP Benchmarks. Du hast also zu wenig abgezogen
Um wie viel den?
Schau dir doch die Last im Bench an,selbst mit Laden hab ich kaum Last auf den Kernen und selbst ein 2Kern mit 2GHz bremst meine HD 7950 in dem Bench 0 aus......
 
Kann ich morgen mal testen. Aber selbst geringe CPU-Last benötigt gleich "zich" Watt, die von deiner Rechnung noch abgezogen werden müssten. Hinzu kommen restliche Komponenten, die im Bench ebenfalls mehr verbrauchen, als im Idle, wie z. B. Ram, Mainboard usw. Also deine Rechnung passt so oder so nicht.
 
Dann Tüftel dir das mal zurecht.

Idle Höchstleistung : 75Watt

Alien vs Predator Benchmark
Max Angezeigt : 271Watt

Netzteil um 90%

Nicht Vergessen,der FX hat ne TDP von 125Watt und ist noch übertaktet.
Die HD 7950 hat ne TDP von 188Watt und ist auch noch übertaktet.

 
Und was ist mit Verlusten durch Spannungswandlern?
Was macht die Festplatte?
Der Arbeitsspeicher, braucht der vielleicht auch mehr.
Chipsatz
Was taugt das Strommessgerät, wie hoch ist da die Toleranz.

Edit
Letztendlich ist es nur Pi mal Daumen.
 
Zurück
Oben Unten