NVIDIA - Kepler

Wo ist dann der Sinn eines Tests wenn man ohnehin nicht weiss was letztendlich beim Anwender raus kommt? *noahnung*
 
Gute Frage, was passiert denn wenn eine Wasserkühlung genutzt wird? Liegt dann immer die max Turbo Stufe an?
Hab mal während Collatz Conjuncture lief mit dem Powereinstellungen experimetniert, erst bei -18% fängt die HD7970 an den Takt zu triggern (800-900MHz) standard sind 925MHz.
Raum Temperatur lag bei 26°C kleines midi Tower Gehäuse geschlossen.

MfG
 
Erstens habe ich den entsprechenden Link präsentiert (es gab 100pro noch ein anderes Beispiel, das weiß ich ganz genau, leider finde ich es unter den vielen Tests bei CB nicht mehr), zweitens sprach ICH von der allgemeinen Durchschaubarkeit. Ich habe mich nie nur auf GCN bezogen, das warst du im Nachhinein. Du kannst da noch 10x mit GCN kommen, es ändert an meiner Aussage rein gar nichts, dass auch Powertune nicht transparent ist, zumal sich momentan alle auf den GPU-Boost stürzen und kaum jemand weiterhin sich die Taktraten bei AMD anschaut.

Ich kenne aus Dutzenden Reviews kein einziges, in dem nicht ordentlich geboostet wird. Konkreter: Ich kenne kein einziges Review, in dem im Durchschnitt nicht der "vermarktete" durschnittliche Turbo erreicht wird. Tatsache ist, Nvidia hat ihren GPU-Boost einfach clever beworben, er funktioniert und bringt mehr fps. Du kannst mir da einen Grünstich andichten solange du willst, das ist und bleibt alles unbestreitbar.
Wie ich allerdings schon sagte, ich hoffe das war erst der Anfang. Wenn man in letzter Konsequenz einzelne Einheiten hochtakten und andere schlafenlegen will je nach aktueller Last, muss man eine Obergrenze für die TDP festlegen, nach der sich die Regelung richtet. Der erste Schritt ist hier mit Kepler getan.

Dass es dabei auch um Benchmarks geht, stimmt natürlich. Allerdings profitiert der Kunde trotzdem davon, wenn er z.B. statt 40 dann 44fps hat. Dass der Kunde vom Turbo nichts hat, ist schlicht und ergreifend falsch. Übrigens: Jede Firma will in Benchmarks gut dastehen. Wenn AMD mit ihrem Pendant nachzieht, will ich von dir dieselbe Kritik hören.

Dass es den Redakteuren übel aufstößt, ist klar. Mehr Arbeit, jetzt muss man auch noch die Taktraten protokollieren. Tja sorry, die Zeiten, in denen man für einen Test 3 Auflösungen durchnudelt und nach einer Stunde fertig ist, sind seit 10 Jahren vorbei. Das Thema GPUs ist heute komplex wie nie zuvor, und wir sind vermutlich noch länger nicht am Ende.
 
Zuletzt bearbeitet:
Was ist so schwierig daran zwischen einer Schutzfunktion (Powertune) und einer Tuningfunktion (Turbo) zu unterscheiden?
Powertune soll die Karte vor Überlastung schützen, wärend der Turbo die Karte innerhalb des Verbrauchs- und offenbar auch des Temperaturrahmens automatisch "übertakten" soll und genau hier wird es absurd.
Je nach Wetterlage, Systemtemperatur (Gehäuse/Belüftung) und Serienstreuung der Bauteile schwankt der Takt, somit die Leistung der Karte.
 
Das Problem am Boost ist:

Beim Boost gibt es potentiell eine Variation der Grafikleistung zwischen den Anwendungen, den konkreten ASICs, den Grafikkartenkühlsystemen der einzelnen AIBs, Zustand der Wärmeleitpaste, der Gehäusekühlung, der Witterung, der aktuellen GPU-Temp, dem Verstaubungsgrad des Kühlers usw. geben kann. Wie groß die Auswrikungen dann letztlich sind, wird auch davon abhängen, wie groß NVIDIA den Boost-Bereich festlegt. Man könnte auch noch spekulieren, dass das System nicht schnell genug bei bestimmten Leistungsspitzen reagiert, da die Messung der Leistungsaufnahme ja nicht von der GPU selber durchgeführt wird.

Bei PowerTune gibt es keine Variation. Einzig der angegebenen Standardtakt kann nicht zu 100% für jede erdenkliche Anwendung garantiert werden.


Welche Methodik sich durchsetzt, entscheidet der Markt. Beide Hersteller werden sich in der Zukunft bei dieser Thematik sicher annähern.

Wo gibts bei Powertune keine Variation zwischen Anwendungen und Asics usw? Früher bei der 6950 hat das Sample bei CB glaube bei Dragon Age2 gedrosselt, bei den anderen Seiten nicht. Steigt die Temperatur, so steigt auch die Leistungsaufnahme des Chips und es kann passieren, dass der Chip ins Limit stolpert.
Oder man hat ne 7750, die wahrscheinlich eh schon oft im Powertune Limit drin ist, nur ist es ASIC und Temperaturabhängig wie weit runtergetacktet wird.
http://ht4u.net/reviews/2012/amd_radeon_hd_7750_test/index13.php
Leider hierbei keine Tests wie sich das Limit auf die Performance auswirkt.

Auch bei den größeren Karten kann das passieren. Bei der 7950 hat HT4U 11W zwischen Hawx Verbrauch und Powerlimit vermessen. Aber was wenn man nen schlechtes Exemplar erwischt( 2 6950er haben sich bei HT4U um 13W beim Verbrauch unterschieden, kann auch heute passieren), dann ist man wahrscheinlich im Limit und es kann sein,dass die Karte runtertaktet.
Bis auf HT4U testet sowas aber auch überhaupt keine Seite, was das schlimme ist. Sowohl Gpu-Boost und Powertune sollten bei jeder neu kommenden Karte auf jeden fall untersucht werden.
 
Wo gibts bei Powertune keine Variation zwischen Anwendungen und Asics usw? Früher bei der 6950 hat das Sample bei CB glaube bei Dragon Age2 gedrosselt, bei den anderen Seiten nicht. Steigt die Temperatur, so steigt auch die Leistungsaufnahme des Chips und es kann passieren, dass der Chip ins Limit stolpert.
Vielleicht wurden bei verschiedenen Seiten auch einfach nur unterschiedliche Benchsequenzen genutzt, welche die Karte unterschiedlich stark belasten? *noahnung*
 
Danke, genau das mit Dragon Age 2 hab ich gemeint. Habs jetzt auch gefunden, es betraf gleich drei Karten. Unter "Weitere Messungen unter Last", runterscrollen:
http://www.computerbase.de/artikel/...9-grafikkarten/8/#abschnitt_leistungsaufnahme

Hier noch ein Link zu besagter Limitierung bei der 7750:
http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index18.php
Knapp 15% sind schon ganz ordentlich sollte man meinen.

Powertune mag meistens nicht eingreifen, aber meistens ist eben nicht immer. Man weiß es einfach nicht und es wird kaum noch getestet. Hier sei ht4u lobend zu erwähnen, die sowohl bei Powertune als auch bei GPU-Boost investigativ zu Werke gehen. Insofern gehe ich mit Affenjack konform: Taktraten sollten seit dem Aufkommen von Powertune und GPU-Boost immer mitgeloggt und Auffälligkeiten untersucht werden. Wird trotz garantiertem Takt gedrosselt, gibts Haue. Wird der kommunizierte Boost-Durchschnitt nicht erreicht bzw. deutlich unterschritten, sollte das auch erwähnt werden. Das wäre jedenfalls im Rahmen der Möglichkeiten eines Reviews schön transparent für den Kunden.
 
Zuletzt bearbeitet:
Vor allem sollte halt erwähnt werden, dass der durchschnittliche Boost in fast jedem Test ordentlich überschritten wird und bei einem niedrigeren (nicht garantierten) Durchschnittswert Retailkarten wohlmöglich (deutlich) darunter liegen können.
 
@boxleitnerb

Was hat AMD damit zu tun wenn ASUS keine vernünftige Firmware für ihre OC Karten auf die Reihe bekommt?:

"Wir haben ASUS die angetroffenen Probleme hinsichtlich des niedrigen PowerTune-Limits gemeldet und der Hersteller hat zügig reagiert und bereits eine neue Firmware entwickelt"

"Meistens" sind die NV und AMD Treiber auch in Ordnung aber eben nicht für jedes Spiel und auch nicht "immer", hier kackst Du Korinthen (beim Thema des eingreifens von Powertune), zumindest empfinde ich das so.

Mit Deinem letzten Abschnitt hast Du jedoch vollkommen recht, dennoch sollten die Reviewer da etwas mehr als eine Fußzeile draus machen und vor allem Transparenz walten lassen. CB ist da für mein Empfinden eine schlechte Quelle.
 
Zuletzt bearbeitet:
Steigt die Temperatur, so steigt auch die Leistungsaufnahme des Chips und es kann passieren, dass der Chip ins Limit stolpert.
Oder man hat ne 7750, die wahrscheinlich eh schon oft im Powertune Limit drin ist, nur ist es ASIC und Temperaturabhängig wie weit runtergetacktet wird.

[...]

Auch bei den größeren Karten kann das passieren. Bei der 7950 hat HT4U 11W zwischen Hawx Verbrauch und Powerlimit vermessen. Aber was wenn man nen schlechtes Exemplar erwischt( 2 6950er haben sich bei HT4U um 13W beim Verbrauch unterschieden, kann auch heute passieren), dann ist man wahrscheinlich im Limit und es kann sein,dass die Karte runtertaktet.

Du hast ganz offensichtlich meine Ausführungen oben nicht gelesen, oder ignorierst sie bewusst.

PowerTune arbeitet nicht temperaturabhängig.

Es gibt auch keine schlechten Exemplare, da PowerTune ausschließlich auf die Auslastung schaut und eben nicht auf die wahre Leistungsaufnahme! Vielmehr werden die schlechtesten ASICs für die Festlegung des PowerTune-Limits (--> Auslastungslimit) herangezogen. Das es Unterschiede bei der wahren Leistungsaufnahme geben kann, habe ich oben ebenfalls bereits geschrieben. Du verdrehst erneut die Zusammenhänge!


Edit:
Und dieser Link ist tatsächlich interessant: http://translate.google.de/translat.../65/gpu-boost-gtx-680-double-variabilite.html

Offenbar gibt es sogar Unterschiede bei den festgelegten maximalen Boost-Taktraten zwischen den einzelnen ASICs.
 
Sag mal boxleitnerb... willst du mich irgendwie ver...albern?

Die links die du gepostet hast, drehen sich um die 6900 Serie und einer dreht sich um die LA bei synthetischen Benchmarks bzw. Applikationen bei der HD 7950, die man böserweise als "power virus" verschreit. Eben das interessiert mich nicht. Bei Anno 2070 blieb die Leistungsaufnahme gleich.

Und das es genau ein Spiel ist (AvP), das (mutmaßlich) die deutlichen Leistungs- bzw. Taktsenkungen verursacht, gibt dir auch nicht zu denken?

Bei Asus war es dann bei einer OC!!! Version ein falsch eingestelltes BIOS.

Das ist mir zu dürftig. Es stellt sich nämlich die Frage ob das Spiel hier nicht gut mit der GCN Architektur "kann" oder es Treiberprobleme gibt.


Daher würde ich es auch begrüßen, wenn diese neuen Features besser untersucht werden und nicht einfach als gegeben hingenommen werden. Soweit ich das mitbekommen habe, lässt sich der Turbo aber ohne weiteres gar nicht deaktivieren, er ist immer aktiv, (wenn ich hier falsch liege möge man mich korrigieren). Man kann also gar nicht mit dem Basistakt testen. Allein das empfinde ich schon als Frechheit. Bei Intel und AMD geht das und Powertune ist zuvorderst eine Schutzfunktion.
 
Nö, ich will dich nicht veralbern. Bleib doch bitte (zum wiederholten Male!) sachlich.

In den Links ging es um Metro 2033 (Anandtech) und Dragon Age 2 (Computerbase). Von AvP oder von Anno 2070 schrieb ich keine Silbe. Das sind mitnichten synthetische Benchmarks oder Powerviren. Weiterhin ist 3DMark06 ist für mich ein ganz normaler Benchmark. Wenn da heruntergetaktet wird teilweise, sollte das auch erwähnt werden.

Und ich sage das jetzt ein allerletztes Mal: Was dich interessiert oder was dir zu dürftig ist, ist hier nicht von Belang. Ich habe eine Aussage getätigt (Powertune kann genauso intransparent sein, weil man eben nicht sicher sein kann, dass es auch in normalen Spielen nicht einschreitet) und habe die Belege dafür geliefert. Um mehr ging es mir nicht und ich lasse mich nicht in eine Diskussion um GCN oder Treiber oder sonstwas reinziehen.
 
Powertune mag meistens nicht eingreifen, aber meistens ist eben nicht immer. Man weiß es einfach nicht und es wird kaum noch getestet. Hier sei ht4u lobend zu erwähnen, die sowohl bei Powertune als auch bei GPU-Boost investigativ zu Werke gehen. Insofern gehe ich mit Affenjack konform: Taktraten sollten seit dem Aufkommen von Powertune und GPU-Boost immer mitgeloggt und Auffälligkeiten untersucht werden. Wird trotz garantiertem Takt gedrosselt, gibts Haue. Wird der kommunizierte Boost-Durchschnitt nicht erreicht bzw. deutlich unterschritten, sollte das auch erwähnt werden. Das wäre jedenfalls im Rahmen der Möglichkeiten eines Reviews schön transparent für den Kunden.
Das Problem hieran ist, dass es da draußen keine verlässlichen Tools gibt, bei denen ich mit der notwendigen zeitlichen Auflösung die Taktraten wirklich protokollieren kann. Es ist also aktuell gar nicht praktisch umsetzbar. Ich habe keinen Plan, mit welcher Frequenz beispielsweise GPU-Z die Taktraten abtastet. Bei PowerTune werden die Taktraten im Millisekundenbereich angepasst. Solche Betrachtungen können höchstens ein Indikator dafür sein, ob sich was an den Frequenzen ändert, nicht aber genau Aufschluss darüber geben, wie lange welcher Takt wirklich anlag. Bei PowerTune geht es ja vor allem darum Spitzen (Peaks) bei der Leistungsaufnahme weg zu bügeln.
 
@boxleitnerb

Interessant. Du möchtest "Powertune" mit "GPU Boost" vergleichen, aber nur in einem Szenario das dir passt und deine Perspektive der Dinge voranbringt.

Es ging mir im konkreten Fall nicht um Transparenz sondern um den Beweis wie wann und wo Powertune bei der aktuellen!! HD 7000 Serie konsistent (und wenn möglich über mehrere unabhängige Quellen hinweg) eingreift und die von AMD garantierte Performance beschneidet.
Da du nur deine eigenes Narrativ bedienen möchtest, hat sich das für mich auch erledigt.
 
Schau mal in Beitrag 760, dann weißt du, wo ich eingestiegen bin und um was es mir ging. Deinen Beitrag davor hast du ja leider editiert, da hattest du nämlich dem GPU-Boost einseitig die fehlende Transparenz bescheinigt, was so eben nicht korrekt ist. Das ist alles aber sowieso sinnlos, denn du hattest von Anfang an Unrecht. Nvidia garantiert keinen bestimmten Boost, AMD garantiert die Standardtaktraten im Gegenzug schon soweit ich weiß.
 
Also jetzt schlägts ja 13.

Ich editiere niemals, niemals um irgendwelche Aussagen zu verändern, der edit kommt durch den nachgeschobenen Kommentar zustande. Eine unverschämte Behauptung deinerseits, die du nicht belegen kannst ich aber widerlegen:

Das ist der Unterschied zwischen dem edit und der Originalversion #758

+

@Tomato?


Häh. Na und. Dieser "zweite Schutzmechanismus" wie du so schön abgeschrieben hast, ist dafür zuständig bei Applikationen wie Furmark, OCCT und Co. auf die TDP zu drosseln, um zu verhindern, dass diese überschritten wird. Dass das nur schlecht als recht funktioniert, sieht man insbesondere bei AMD immer wieder. Nvidia ist da meines Erachtens noch restriktiver.

Du kannst auch gerne die Moderation fragen und das nachprüfen lassen.

Unverschämt, einfach nur unverschämt.


edit: Und dreist.
 
Zuletzt bearbeitet:
Aus einem Test von HD7970-Grakas von tomshardware.com ein Kommentar zur Verfügbarkeit von GTX680:

"...Be aware also that the graphics market is currently very volatile. Radeon HD 7970 is settling in to a more ideal price point now that GeForce GTX 680 is known (we hesitate to use the word available, since it's almost impossible to find). Keep a close eye on each one of these cards; prices continue to shift around in the face of GeForce GTX 680, and we expect that behavior to continue until it's more broadly available..."
 
Es gibt auch keine schlechten Exemplare, da PowerTune ausschließlich auf die Auslastung schaut und eben nicht auf die wahre Leistungsaufnahme! Vielmehr werden die schlechtesten ASICs für die Festlegung des PowerTune-Limits (--> Auslastungslimit) herangezogen.

Ist das so, dann kannst du mir bestimmt erklären, wieso die 6950 1gb in Boxleitnerbs CB-Link im Powertunelimit ist und die 2gb nicht?

Dann müssen aber viele 7750 schlechte ASICs sein, wenn HT4U bei 2 Exemplaren 2 Powertune limitierte hat.
 
Zuletzt bearbeitet:
@AffenJack

Ja, und ich habe Dir mögliche weitere Erklärungen geliefert, woran so etwas liegen kann. Musst Du übersehen haben :-)
 
Dei Tranparenz bei den Taktraten kann dem Anwender letztlich egal sein.

Wichtig ist die Performance und die ist bei PowerTune im Gegensatz zu Boost beim Anwender gleich wie beim Tester.

Tendenziell werden die GTX600 beim Reviewer eher auf auf höheren Taktraten laufen (offene Benchtables, kurze Sequenzen,...) als beim Endkunden zu Hause. Und dann geben einerseits die Reviews ein Leistung wieder, die nVidia garnicht garantieren kann und andererseits ein die beim Anwender auch nicht unbedingt erreicht wird.
 
Zurück
Oben Unten