App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA - Kepler
- Ersteller Desti
- Erstellt am
boxleitnerb
Vice Admiral Special
- Mitglied seit
- 27.01.2008
- Beiträge
- 517
- Renomée
- 5
Nö, getestet wird so wie das Produkt aus der Schachtel kommt.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.351
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wo ist dann der Sinn eines Tests wenn man ohnehin nicht weiss was letztendlich beim Anwender raus kommt?
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Gute Frage, was passiert denn wenn eine Wasserkühlung genutzt wird? Liegt dann immer die max Turbo Stufe an?
Hab mal während Collatz Conjuncture lief mit dem Powereinstellungen experimetniert, erst bei -18% fängt die HD7970 an den Takt zu triggern (800-900MHz) standard sind 925MHz.
Raum Temperatur lag bei 26°C kleines midi Tower Gehäuse geschlossen.
MfG
Hab mal während Collatz Conjuncture lief mit dem Powereinstellungen experimetniert, erst bei -18% fängt die HD7970 an den Takt zu triggern (800-900MHz) standard sind 925MHz.
Raum Temperatur lag bei 26°C kleines midi Tower Gehäuse geschlossen.
MfG
boxleitnerb
Vice Admiral Special
- Mitglied seit
- 27.01.2008
- Beiträge
- 517
- Renomée
- 5
Erstens habe ich den entsprechenden Link präsentiert (es gab 100pro noch ein anderes Beispiel, das weiß ich ganz genau, leider finde ich es unter den vielen Tests bei CB nicht mehr), zweitens sprach ICH von der allgemeinen Durchschaubarkeit. Ich habe mich nie nur auf GCN bezogen, das warst du im Nachhinein. Du kannst da noch 10x mit GCN kommen, es ändert an meiner Aussage rein gar nichts, dass auch Powertune nicht transparent ist, zumal sich momentan alle auf den GPU-Boost stürzen und kaum jemand weiterhin sich die Taktraten bei AMD anschaut.
Ich kenne aus Dutzenden Reviews kein einziges, in dem nicht ordentlich geboostet wird. Konkreter: Ich kenne kein einziges Review, in dem im Durchschnitt nicht der "vermarktete" durschnittliche Turbo erreicht wird. Tatsache ist, Nvidia hat ihren GPU-Boost einfach clever beworben, er funktioniert und bringt mehr fps. Du kannst mir da einen Grünstich andichten solange du willst, das ist und bleibt alles unbestreitbar.
Wie ich allerdings schon sagte, ich hoffe das war erst der Anfang. Wenn man in letzter Konsequenz einzelne Einheiten hochtakten und andere schlafenlegen will je nach aktueller Last, muss man eine Obergrenze für die TDP festlegen, nach der sich die Regelung richtet. Der erste Schritt ist hier mit Kepler getan.
Dass es dabei auch um Benchmarks geht, stimmt natürlich. Allerdings profitiert der Kunde trotzdem davon, wenn er z.B. statt 40 dann 44fps hat. Dass der Kunde vom Turbo nichts hat, ist schlicht und ergreifend falsch. Übrigens: Jede Firma will in Benchmarks gut dastehen. Wenn AMD mit ihrem Pendant nachzieht, will ich von dir dieselbe Kritik hören.
Dass es den Redakteuren übel aufstößt, ist klar. Mehr Arbeit, jetzt muss man auch noch die Taktraten protokollieren. Tja sorry, die Zeiten, in denen man für einen Test 3 Auflösungen durchnudelt und nach einer Stunde fertig ist, sind seit 10 Jahren vorbei. Das Thema GPUs ist heute komplex wie nie zuvor, und wir sind vermutlich noch länger nicht am Ende.
Ich kenne aus Dutzenden Reviews kein einziges, in dem nicht ordentlich geboostet wird. Konkreter: Ich kenne kein einziges Review, in dem im Durchschnitt nicht der "vermarktete" durschnittliche Turbo erreicht wird. Tatsache ist, Nvidia hat ihren GPU-Boost einfach clever beworben, er funktioniert und bringt mehr fps. Du kannst mir da einen Grünstich andichten solange du willst, das ist und bleibt alles unbestreitbar.
Wie ich allerdings schon sagte, ich hoffe das war erst der Anfang. Wenn man in letzter Konsequenz einzelne Einheiten hochtakten und andere schlafenlegen will je nach aktueller Last, muss man eine Obergrenze für die TDP festlegen, nach der sich die Regelung richtet. Der erste Schritt ist hier mit Kepler getan.
Dass es dabei auch um Benchmarks geht, stimmt natürlich. Allerdings profitiert der Kunde trotzdem davon, wenn er z.B. statt 40 dann 44fps hat. Dass der Kunde vom Turbo nichts hat, ist schlicht und ergreifend falsch. Übrigens: Jede Firma will in Benchmarks gut dastehen. Wenn AMD mit ihrem Pendant nachzieht, will ich von dir dieselbe Kritik hören.
Dass es den Redakteuren übel aufstößt, ist klar. Mehr Arbeit, jetzt muss man auch noch die Taktraten protokollieren. Tja sorry, die Zeiten, in denen man für einen Test 3 Auflösungen durchnudelt und nach einer Stunde fertig ist, sind seit 10 Jahren vorbei. Das Thema GPUs ist heute komplex wie nie zuvor, und wir sind vermutlich noch länger nicht am Ende.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.351
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Was ist so schwierig daran zwischen einer Schutzfunktion (Powertune) und einer Tuningfunktion (Turbo) zu unterscheiden?
Powertune soll die Karte vor Überlastung schützen, wärend der Turbo die Karte innerhalb des Verbrauchs- und offenbar auch des Temperaturrahmens automatisch "übertakten" soll und genau hier wird es absurd.
Je nach Wetterlage, Systemtemperatur (Gehäuse/Belüftung) und Serienstreuung der Bauteile schwankt der Takt, somit die Leistung der Karte.
Powertune soll die Karte vor Überlastung schützen, wärend der Turbo die Karte innerhalb des Verbrauchs- und offenbar auch des Temperaturrahmens automatisch "übertakten" soll und genau hier wird es absurd.
Je nach Wetterlage, Systemtemperatur (Gehäuse/Belüftung) und Serienstreuung der Bauteile schwankt der Takt, somit die Leistung der Karte.
Das Problem am Boost ist:
Beim Boost gibt es potentiell eine Variation der Grafikleistung zwischen den Anwendungen, den konkreten ASICs, den Grafikkartenkühlsystemen der einzelnen AIBs, Zustand der Wärmeleitpaste, der Gehäusekühlung, der Witterung, der aktuellen GPU-Temp, dem Verstaubungsgrad des Kühlers usw. geben kann. Wie groß die Auswrikungen dann letztlich sind, wird auch davon abhängen, wie groß NVIDIA den Boost-Bereich festlegt. Man könnte auch noch spekulieren, dass das System nicht schnell genug bei bestimmten Leistungsspitzen reagiert, da die Messung der Leistungsaufnahme ja nicht von der GPU selber durchgeführt wird.
Bei PowerTune gibt es keine Variation. Einzig der angegebenen Standardtakt kann nicht zu 100% für jede erdenkliche Anwendung garantiert werden.
Welche Methodik sich durchsetzt, entscheidet der Markt. Beide Hersteller werden sich in der Zukunft bei dieser Thematik sicher annähern.
Wo gibts bei Powertune keine Variation zwischen Anwendungen und Asics usw? Früher bei der 6950 hat das Sample bei CB glaube bei Dragon Age2 gedrosselt, bei den anderen Seiten nicht. Steigt die Temperatur, so steigt auch die Leistungsaufnahme des Chips und es kann passieren, dass der Chip ins Limit stolpert.
Oder man hat ne 7750, die wahrscheinlich eh schon oft im Powertune Limit drin ist, nur ist es ASIC und Temperaturabhängig wie weit runtergetacktet wird.
http://ht4u.net/reviews/2012/amd_radeon_hd_7750_test/index13.php
Leider hierbei keine Tests wie sich das Limit auf die Performance auswirkt.
Auch bei den größeren Karten kann das passieren. Bei der 7950 hat HT4U 11W zwischen Hawx Verbrauch und Powerlimit vermessen. Aber was wenn man nen schlechtes Exemplar erwischt( 2 6950er haben sich bei HT4U um 13W beim Verbrauch unterschieden, kann auch heute passieren), dann ist man wahrscheinlich im Limit und es kann sein,dass die Karte runtertaktet.
Bis auf HT4U testet sowas aber auch überhaupt keine Seite, was das schlimme ist. Sowohl Gpu-Boost und Powertune sollten bei jeder neu kommenden Karte auf jeden fall untersucht werden.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.351
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Vielleicht wurden bei verschiedenen Seiten auch einfach nur unterschiedliche Benchsequenzen genutzt, welche die Karte unterschiedlich stark belasten?Wo gibts bei Powertune keine Variation zwischen Anwendungen und Asics usw? Früher bei der 6950 hat das Sample bei CB glaube bei Dragon Age2 gedrosselt, bei den anderen Seiten nicht. Steigt die Temperatur, so steigt auch die Leistungsaufnahme des Chips und es kann passieren, dass der Chip ins Limit stolpert.
boxleitnerb
Vice Admiral Special
- Mitglied seit
- 27.01.2008
- Beiträge
- 517
- Renomée
- 5
Danke, genau das mit Dragon Age 2 hab ich gemeint. Habs jetzt auch gefunden, es betraf gleich drei Karten. Unter "Weitere Messungen unter Last", runterscrollen:
http://www.computerbase.de/artikel/...9-grafikkarten/8/#abschnitt_leistungsaufnahme
Hier noch ein Link zu besagter Limitierung bei der 7750:
http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index18.php
Knapp 15% sind schon ganz ordentlich sollte man meinen.
Powertune mag meistens nicht eingreifen, aber meistens ist eben nicht immer. Man weiß es einfach nicht und es wird kaum noch getestet. Hier sei ht4u lobend zu erwähnen, die sowohl bei Powertune als auch bei GPU-Boost investigativ zu Werke gehen. Insofern gehe ich mit Affenjack konform: Taktraten sollten seit dem Aufkommen von Powertune und GPU-Boost immer mitgeloggt und Auffälligkeiten untersucht werden. Wird trotz garantiertem Takt gedrosselt, gibts Haue. Wird der kommunizierte Boost-Durchschnitt nicht erreicht bzw. deutlich unterschritten, sollte das auch erwähnt werden. Das wäre jedenfalls im Rahmen der Möglichkeiten eines Reviews schön transparent für den Kunden.
http://www.computerbase.de/artikel/...9-grafikkarten/8/#abschnitt_leistungsaufnahme
Hier noch ein Link zu besagter Limitierung bei der 7750:
http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index18.php
Knapp 15% sind schon ganz ordentlich sollte man meinen.
Powertune mag meistens nicht eingreifen, aber meistens ist eben nicht immer. Man weiß es einfach nicht und es wird kaum noch getestet. Hier sei ht4u lobend zu erwähnen, die sowohl bei Powertune als auch bei GPU-Boost investigativ zu Werke gehen. Insofern gehe ich mit Affenjack konform: Taktraten sollten seit dem Aufkommen von Powertune und GPU-Boost immer mitgeloggt und Auffälligkeiten untersucht werden. Wird trotz garantiertem Takt gedrosselt, gibts Haue. Wird der kommunizierte Boost-Durchschnitt nicht erreicht bzw. deutlich unterschritten, sollte das auch erwähnt werden. Das wäre jedenfalls im Rahmen der Möglichkeiten eines Reviews schön transparent für den Kunden.
Zuletzt bearbeitet:
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Vor allem sollte halt erwähnt werden, dass der durchschnittliche Boost in fast jedem Test ordentlich überschritten wird und bei einem niedrigeren (nicht garantierten) Durchschnittswert Retailkarten wohlmöglich (deutlich) darunter liegen können.
@boxleitnerb
Was hat AMD damit zu tun wenn ASUS keine vernünftige Firmware für ihre OC Karten auf die Reihe bekommt?:
"Wir haben ASUS die angetroffenen Probleme hinsichtlich des niedrigen PowerTune-Limits gemeldet und der Hersteller hat zügig reagiert und bereits eine neue Firmware entwickelt"
"Meistens" sind die NV und AMD Treiber auch in Ordnung aber eben nicht für jedes Spiel und auch nicht "immer", hier kackst Du Korinthen (beim Thema des eingreifens von Powertune), zumindest empfinde ich das so.
Mit Deinem letzten Abschnitt hast Du jedoch vollkommen recht, dennoch sollten die Reviewer da etwas mehr als eine Fußzeile draus machen und vor allem Transparenz walten lassen. CB ist da für mein Empfinden eine schlechte Quelle.
Was hat AMD damit zu tun wenn ASUS keine vernünftige Firmware für ihre OC Karten auf die Reihe bekommt?:
"Wir haben ASUS die angetroffenen Probleme hinsichtlich des niedrigen PowerTune-Limits gemeldet und der Hersteller hat zügig reagiert und bereits eine neue Firmware entwickelt"
"Meistens" sind die NV und AMD Treiber auch in Ordnung aber eben nicht für jedes Spiel und auch nicht "immer", hier kackst Du Korinthen (beim Thema des eingreifens von Powertune), zumindest empfinde ich das so.
Mit Deinem letzten Abschnitt hast Du jedoch vollkommen recht, dennoch sollten die Reviewer da etwas mehr als eine Fußzeile draus machen und vor allem Transparenz walten lassen. CB ist da für mein Empfinden eine schlechte Quelle.
Zuletzt bearbeitet:
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Steigt die Temperatur, so steigt auch die Leistungsaufnahme des Chips und es kann passieren, dass der Chip ins Limit stolpert.
Oder man hat ne 7750, die wahrscheinlich eh schon oft im Powertune Limit drin ist, nur ist es ASIC und Temperaturabhängig wie weit runtergetacktet wird.
[...]
Auch bei den größeren Karten kann das passieren. Bei der 7950 hat HT4U 11W zwischen Hawx Verbrauch und Powerlimit vermessen. Aber was wenn man nen schlechtes Exemplar erwischt( 2 6950er haben sich bei HT4U um 13W beim Verbrauch unterschieden, kann auch heute passieren), dann ist man wahrscheinlich im Limit und es kann sein,dass die Karte runtertaktet.
Du hast ganz offensichtlich meine Ausführungen oben nicht gelesen, oder ignorierst sie bewusst.
PowerTune arbeitet nicht temperaturabhängig.
Es gibt auch keine schlechten Exemplare, da PowerTune ausschließlich auf die Auslastung schaut und eben nicht auf die wahre Leistungsaufnahme! Vielmehr werden die schlechtesten ASICs für die Festlegung des PowerTune-Limits (--> Auslastungslimit) herangezogen. Das es Unterschiede bei der wahren Leistungsaufnahme geben kann, habe ich oben ebenfalls bereits geschrieben. Du verdrehst erneut die Zusammenhänge!
Edit: Und dieser Link ist tatsächlich interessant: http://translate.google.de/translat.../65/gpu-boost-gtx-680-double-variabilite.html
Offenbar gibt es sogar Unterschiede bei den festgelegten maximalen Boost-Taktraten zwischen den einzelnen ASICs.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Sag mal boxleitnerb... willst du mich irgendwie ver...albern?
Die links die du gepostet hast, drehen sich um die 6900 Serie und einer dreht sich um die LA bei synthetischen Benchmarks bzw. Applikationen bei der HD 7950, die man böserweise als "power virus" verschreit. Eben das interessiert mich nicht. Bei Anno 2070 blieb die Leistungsaufnahme gleich.
Und das es genau ein Spiel ist (AvP), das (mutmaßlich) die deutlichen Leistungs- bzw. Taktsenkungen verursacht, gibt dir auch nicht zu denken?
Bei Asus war es dann bei einer OC!!! Version ein falsch eingestelltes BIOS.
Das ist mir zu dürftig. Es stellt sich nämlich die Frage ob das Spiel hier nicht gut mit der GCN Architektur "kann" oder es Treiberprobleme gibt.
Daher würde ich es auch begrüßen, wenn diese neuen Features besser untersucht werden und nicht einfach als gegeben hingenommen werden. Soweit ich das mitbekommen habe, lässt sich der Turbo aber ohne weiteres gar nicht deaktivieren, er ist immer aktiv, (wenn ich hier falsch liege möge man mich korrigieren). Man kann also gar nicht mit dem Basistakt testen. Allein das empfinde ich schon als Frechheit. Bei Intel und AMD geht das und Powertune ist zuvorderst eine Schutzfunktion.
Die links die du gepostet hast, drehen sich um die 6900 Serie und einer dreht sich um die LA bei synthetischen Benchmarks bzw. Applikationen bei der HD 7950, die man böserweise als "power virus" verschreit. Eben das interessiert mich nicht. Bei Anno 2070 blieb die Leistungsaufnahme gleich.
Und das es genau ein Spiel ist (AvP), das (mutmaßlich) die deutlichen Leistungs- bzw. Taktsenkungen verursacht, gibt dir auch nicht zu denken?
Bei Asus war es dann bei einer OC!!! Version ein falsch eingestelltes BIOS.
Das ist mir zu dürftig. Es stellt sich nämlich die Frage ob das Spiel hier nicht gut mit der GCN Architektur "kann" oder es Treiberprobleme gibt.
Daher würde ich es auch begrüßen, wenn diese neuen Features besser untersucht werden und nicht einfach als gegeben hingenommen werden. Soweit ich das mitbekommen habe, lässt sich der Turbo aber ohne weiteres gar nicht deaktivieren, er ist immer aktiv, (wenn ich hier falsch liege möge man mich korrigieren). Man kann also gar nicht mit dem Basistakt testen. Allein das empfinde ich schon als Frechheit. Bei Intel und AMD geht das und Powertune ist zuvorderst eine Schutzfunktion.
boxleitnerb
Vice Admiral Special
- Mitglied seit
- 27.01.2008
- Beiträge
- 517
- Renomée
- 5
Nö, ich will dich nicht veralbern. Bleib doch bitte (zum wiederholten Male!) sachlich.
In den Links ging es um Metro 2033 (Anandtech) und Dragon Age 2 (Computerbase). Von AvP oder von Anno 2070 schrieb ich keine Silbe. Das sind mitnichten synthetische Benchmarks oder Powerviren. Weiterhin ist 3DMark06 ist für mich ein ganz normaler Benchmark. Wenn da heruntergetaktet wird teilweise, sollte das auch erwähnt werden.
Und ich sage das jetzt ein allerletztes Mal: Was dich interessiert oder was dir zu dürftig ist, ist hier nicht von Belang. Ich habe eine Aussage getätigt (Powertune kann genauso intransparent sein, weil man eben nicht sicher sein kann, dass es auch in normalen Spielen nicht einschreitet) und habe die Belege dafür geliefert. Um mehr ging es mir nicht und ich lasse mich nicht in eine Diskussion um GCN oder Treiber oder sonstwas reinziehen.
In den Links ging es um Metro 2033 (Anandtech) und Dragon Age 2 (Computerbase). Von AvP oder von Anno 2070 schrieb ich keine Silbe. Das sind mitnichten synthetische Benchmarks oder Powerviren. Weiterhin ist 3DMark06 ist für mich ein ganz normaler Benchmark. Wenn da heruntergetaktet wird teilweise, sollte das auch erwähnt werden.
Und ich sage das jetzt ein allerletztes Mal: Was dich interessiert oder was dir zu dürftig ist, ist hier nicht von Belang. Ich habe eine Aussage getätigt (Powertune kann genauso intransparent sein, weil man eben nicht sicher sein kann, dass es auch in normalen Spielen nicht einschreitet) und habe die Belege dafür geliefert. Um mehr ging es mir nicht und ich lasse mich nicht in eine Diskussion um GCN oder Treiber oder sonstwas reinziehen.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Das Problem hieran ist, dass es da draußen keine verlässlichen Tools gibt, bei denen ich mit der notwendigen zeitlichen Auflösung die Taktraten wirklich protokollieren kann. Es ist also aktuell gar nicht praktisch umsetzbar. Ich habe keinen Plan, mit welcher Frequenz beispielsweise GPU-Z die Taktraten abtastet. Bei PowerTune werden die Taktraten im Millisekundenbereich angepasst. Solche Betrachtungen können höchstens ein Indikator dafür sein, ob sich was an den Frequenzen ändert, nicht aber genau Aufschluss darüber geben, wie lange welcher Takt wirklich anlag. Bei PowerTune geht es ja vor allem darum Spitzen (Peaks) bei der Leistungsaufnahme weg zu bügeln.Powertune mag meistens nicht eingreifen, aber meistens ist eben nicht immer. Man weiß es einfach nicht und es wird kaum noch getestet. Hier sei ht4u lobend zu erwähnen, die sowohl bei Powertune als auch bei GPU-Boost investigativ zu Werke gehen. Insofern gehe ich mit Affenjack konform: Taktraten sollten seit dem Aufkommen von Powertune und GPU-Boost immer mitgeloggt und Auffälligkeiten untersucht werden. Wird trotz garantiertem Takt gedrosselt, gibts Haue. Wird der kommunizierte Boost-Durchschnitt nicht erreicht bzw. deutlich unterschritten, sollte das auch erwähnt werden. Das wäre jedenfalls im Rahmen der Möglichkeiten eines Reviews schön transparent für den Kunden.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
@boxleitnerb
Interessant. Du möchtest "Powertune" mit "GPU Boost" vergleichen, aber nur in einem Szenario das dir passt und deine Perspektive der Dinge voranbringt.
Es ging mir im konkreten Fall nicht um Transparenz sondern um den Beweis wie wann und wo Powertune bei der aktuellen!! HD 7000 Serie konsistent (und wenn möglich über mehrere unabhängige Quellen hinweg) eingreift und die von AMD garantierte Performance beschneidet.
Da du nur deine eigenes Narrativ bedienen möchtest, hat sich das für mich auch erledigt.
Interessant. Du möchtest "Powertune" mit "GPU Boost" vergleichen, aber nur in einem Szenario das dir passt und deine Perspektive der Dinge voranbringt.
Es ging mir im konkreten Fall nicht um Transparenz sondern um den Beweis wie wann und wo Powertune bei der aktuellen!! HD 7000 Serie konsistent (und wenn möglich über mehrere unabhängige Quellen hinweg) eingreift und die von AMD garantierte Performance beschneidet.
Da du nur deine eigenes Narrativ bedienen möchtest, hat sich das für mich auch erledigt.
boxleitnerb
Vice Admiral Special
- Mitglied seit
- 27.01.2008
- Beiträge
- 517
- Renomée
- 5
Schau mal in Beitrag 760, dann weißt du, wo ich eingestiegen bin und um was es mir ging. Deinen Beitrag davor hast du ja leider editiert, da hattest du nämlich dem GPU-Boost einseitig die fehlende Transparenz bescheinigt, was so eben nicht korrekt ist. Das ist alles aber sowieso sinnlos, denn du hattest von Anfang an Unrecht. Nvidia garantiert keinen bestimmten Boost, AMD garantiert die Standardtaktraten im Gegenzug schon soweit ich weiß.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Also jetzt schlägts ja 13.
Ich editiere niemals, niemals um irgendwelche Aussagen zu verändern, der edit kommt durch den nachgeschobenen Kommentar zustande. Eine unverschämte Behauptung deinerseits, die du nicht belegen kannst ich aber widerlegen:
Das ist der Unterschied zwischen dem edit und der Originalversion #758
Du kannst auch gerne die Moderation fragen und das nachprüfen lassen.
Unverschämt, einfach nur unverschämt.
edit: Und dreist.
Ich editiere niemals, niemals um irgendwelche Aussagen zu verändern, der edit kommt durch den nachgeschobenen Kommentar zustande. Eine unverschämte Behauptung deinerseits, die du nicht belegen kannst ich aber widerlegen:
Das ist der Unterschied zwischen dem edit und der Originalversion #758
+
@Tomato?
Häh. Na und. Dieser "zweite Schutzmechanismus" wie du so schön abgeschrieben hast, ist dafür zuständig bei Applikationen wie Furmark, OCCT und Co. auf die TDP zu drosseln, um zu verhindern, dass diese überschritten wird. Dass das nur schlecht als recht funktioniert, sieht man insbesondere bei AMD immer wieder. Nvidia ist da meines Erachtens noch restriktiver.
Du kannst auch gerne die Moderation fragen und das nachprüfen lassen.
Unverschämt, einfach nur unverschämt.
edit: Und dreist.
Zuletzt bearbeitet:
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Aus einem Test von HD7970-Grakas von tomshardware.com ein Kommentar zur Verfügbarkeit von GTX680:
"...Be aware also that the graphics market is currently very volatile. Radeon HD 7970 is settling in to a more ideal price point now that GeForce GTX 680 is known (we hesitate to use the word available, since it's almost impossible to find). Keep a close eye on each one of these cards; prices continue to shift around in the face of GeForce GTX 680, and we expect that behavior to continue until it's more broadly available..."
"...Be aware also that the graphics market is currently very volatile. Radeon HD 7970 is settling in to a more ideal price point now that GeForce GTX 680 is known (we hesitate to use the word available, since it's almost impossible to find). Keep a close eye on each one of these cards; prices continue to shift around in the face of GeForce GTX 680, and we expect that behavior to continue until it's more broadly available..."
Es gibt auch keine schlechten Exemplare, da PowerTune ausschließlich auf die Auslastung schaut und eben nicht auf die wahre Leistungsaufnahme! Vielmehr werden die schlechtesten ASICs für die Festlegung des PowerTune-Limits (--> Auslastungslimit) herangezogen.
Ist das so, dann kannst du mir bestimmt erklären, wieso die 6950 1gb in Boxleitnerbs CB-Link im Powertunelimit ist und die 2gb nicht?
Dann müssen aber viele 7750 schlechte ASICs sein, wenn HT4U bei 2 Exemplaren 2 Powertune limitierte hat.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.351
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Bei ht4u hatten sie den GPU Boost sehr deutlich unter die Lupe genommen.
Bei der Tabelle sieht man recht schön die Taktveränderung im laufe der Zeit, sowie die Taktunterschiede bei einzelnen Karten.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php
Bei der Tabelle sieht man recht schön die Taktveränderung im laufe der Zeit, sowie die Taktunterschiede bei einzelnen Karten.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php
@AffenJack
Ich sehe nach wie vor keinen Zusammenhang zwischen ASUS und AMD bzgl. der 7750er.
Mögliche weitere Erklärungen zu CB und der 6950er: Treiber, BIOS, Bug, Unfähigkeit...
Ich kann es leider schlecht prüfen was CB da tut.
Zuletzt bearbeitet:
siehe:
Ich hab den Link nicht umsonst gepostet und die Asus vorher extra nicht erwähnt, auch die Referenz 7750 ist im Powertunelimit, wenn auch nur knapp.
Ich hab den Link nicht umsonst gepostet und die Asus vorher extra nicht erwähnt, auch die Referenz 7750 ist im Powertunelimit, wenn auch nur knapp.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.351
- Renomée
- 1.975
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ist schon jemanden aufgefallen das die GTX670 förmlich in direkter Konkurrenz zur GTX680 steht...?
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index39.php
Ob das so gewollt war...?
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index39.php
Ob das so gewollt war...?
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Dei Tranparenz bei den Taktraten kann dem Anwender letztlich egal sein.
Wichtig ist die Performance und die ist bei PowerTune im Gegensatz zu Boost beim Anwender gleich wie beim Tester.
Tendenziell werden die GTX600 beim Reviewer eher auf auf höheren Taktraten laufen (offene Benchtables, kurze Sequenzen,...) als beim Endkunden zu Hause. Und dann geben einerseits die Reviews ein Leistung wieder, die nVidia garnicht garantieren kann und andererseits ein die beim Anwender auch nicht unbedingt erreicht wird.
Wichtig ist die Performance und die ist bei PowerTune im Gegensatz zu Boost beim Anwender gleich wie beim Tester.
Tendenziell werden die GTX600 beim Reviewer eher auf auf höheren Taktraten laufen (offene Benchtables, kurze Sequenzen,...) als beim Endkunden zu Hause. Und dann geben einerseits die Reviews ein Leistung wieder, die nVidia garnicht garantieren kann und andererseits ein die beim Anwender auch nicht unbedingt erreicht wird.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 406
- Antworten
- 1
- Aufrufe
- 445