Neue Grafikkarten mit Energiesparoptionen?

Patmaniac

Grand Admiral Special
Mitglied seit
21.05.2001
Beiträge
14.789
Renomée
266
Bei AMD ist seit dem K8 mit dem <a href="http://www.planet3dnow.de/artikel/hardware/k8v_an50r/13.shtml">Cool'n'Quiet-Feature</a> auch bei Desktop-Rechnern Strom sparen angesagt. Wird der PC nicht ausgelastet, taktet sich die CPU runter mit einer niedrigen VCore, so dass hier entsprechend der Stromzähler nicht mehr ganz so schnell runter rattert. Auch angesagt deswegen, da solche Energiesparmodi bei den Notebooks als erstes Einzug hielten. Dies machte durchaus Sinn, da man hiermit die Akkulaufzeiten nicht unerheblich steigern konnte. Doch alleine der Hauptprozessor ist bei einem Notebook hierfür nicht zuständig. Ein weiterer großer Stromfresser ist der Grafikprozessor (GPU), so dass es bei Notebooks schon lange üblich ist, die Taktraten im mobilen Modus runterzufahren.

Wenn man einige Diskussionen in den Computerforen, wie dem unsrigen verfolgt, kam natürlich immer wieder die Frage auf, warum die Grafikprozessorhersteller nicht dem Beispiel AMDs folgen und ebenso in ihre GPUs ein "Cool'n'Quiet"-Derivat integrieren. Denn die modernen Grafikkarten schlucken immer mehr Strom, und das, wo bei den meisten Spielern die volle Leistung der Grafikkarte verhältnismäßig selten genutzt wird, sondern auch bei den High-End-PCs einfache Arbeiten wie Office, Internet & Co anstehen.

Doch offenbar scheint sich hier ein Happy End abzuzeichnen in dieser Geschichte. So haben die russischen Kollegen von <a href="http://www.xbitlabs.com/news/video/display/20060203091202.html" target="b">X-bit labs</a> bei einem Test der Radeon X1800 XT auch den Stromverbrauch gemessen - 114 Watt gönnte sich die Grafikkarte damals. Bei einer späteren Messung wurden bei derselben Grafikkarte und gleicher BIOS-Version nur noch 103 Watt gemessen. Lediglich ein neuer Treiber kam zum Einsatz. So pfeifen die Spatzen von den Dächern, dass ATI sowohl bei der X1800- wie auch bei der neuen X1900-Serie nun eine Taktreduzierung bei geringer Belastung integriert hat. Zudem werde wie bei der Mobility Radeon eine Technik der partiellen Abschaltung innerhalb des Grafikprozessors während des laufenden Betriebes eingesetzt, so dass diese Sektoren keinen Strom mehr verbrauchen. Nebenbei wird damit auch den Leckströmen entgegengewirkt, die bei der stetig wachsenden Transistorenanzahl ein immer größeres Problem darstellen.

Ähnlich positive Signale gehen übrigens auch von NVIDIA aus. Hier wird gemunkelt, dass bei dem G70-Grafikchip ähnliche Stromspartechniken eingesetzt werden, wie sie momentan nur den Notebook-Varianten vorbehalten sind. Derzeit takten die Chips nur im 2D-Modus, wie z.B. bei Office-Arbeiten, runter. Eine Reduktion der Spannungsaufnahme wäre jetzt also neu.

Insofern darf man gespannt die Entwicklung der nächsten Wochen abwarten, wo entsprechende BIOS- und Treiberversionen freigegeben werden könnten. In unseren Augen wäre dies auf jeden Fall ein begrüßenswerter Schritt.
 
hatten nicht schon die Geforce 6600/6800 dieses Feature des nach Last anfallenden Taktes? So neu ist das doch dann gar nicht mehr ...
 
hatten nicht schon die Geforce 6600/6800 dieses Feature des nach Last anfallenden Taktes? So neu ist das doch dann gar nicht mehr ...
" Derzeit takten die Chips nur im 2D-Modus, wie z.B. bei Office-Arbeiten, runter. Eine Reduktion der Spannungsaufnahme wäre jetzt also neu." ;) Ist seit der FX5700 so, mWn.
 
Naja meine 6800 ULTRA Taktet sich in 2d auf 350MHz runter und bekommt dafür 1,1V.
 
-- VideoBios information --
Version: 05.70.02.11.10
Signon message: GeForce 7800 GTX VGA BIOS
Performance level 0: gpu 275MHz/memory 1200MHz/1.20V
Performance level 1: gpu 415MHz/memory 1200MHz/1.40V
Performance level 2: gpu 430MHz/memory 1200MHz/1.40V
VID mask: 3
Voltage level 0: 1.20V, VID: 0
Voltage level 1: 1.30V, VID: 2
Voltage level 2: 1.40V, VID: 1
was soll daran neu sein?
 
Mit welchem Prog kann ich sowas auslesen ich hab ein XFX 7800GTX extrem die hat ja ein etwas höheren Takt und würde das auch gerne mal wissen*noahnung*
 
@ Patmaniac
Kleiner Tip, was jede Hardwareseite falsch macht: Strom wird nicht verbraucht ;) Stromverbrauch ist also ein Wort, dass es nie geben wird
 
Mit welchem Prog kann ich sowas auslesen ich hab ein XFX 7800GTX extrem die hat ja ein etwas höheren Takt und würde das auch gerne mal wissen*noahnung*
habs unter linux mit nvclock ausgelesen dürfte unter windows mit rivatuner gehen.
 
Das steht bei mir im Rivatuner

$1100000000 Title : GeForce 7800 GTX VGA BIOS
$1100000002 Version : 5.70.02.11.17
$1100000100 BIT version : 1.00
$1100000200 Core clock : 275MHz
$1100000201 Memory clock : 1200MHz
$1100010000 Performance level 0 : 275MHz/650MHz/1.20V/100%
$1100010001 Performance level 1 : 490(+35)MHz/650MHz/1.40V/100%
$1100010002 Performance level 2 : 490(+40)MHz/650MHz/1.40V/100%
$1100020000 VID bitmask : 00000011b
$1100020100 Voltage level 0 : 1.20V, VID 00000000b
$1100020101 Voltage level 1 : 1.30V, VID 00000010b
$1100020102 Voltage level 2 : 1.40V, VID 00000001b
$1100030001 Core thermal compensation : 8°C
$1100030002 Core thermal threshold : 115°C
$1100030003 Ambient thermal threshold : 110°C
$1100030004 Thermal diode gain : 0.792°C
$1100030005 Thermal diode offset : 23.060°C
 
nun meine Frage dazu wie regelt sich das? Welches Performance level wann genutzt wird?

*noahnung*
 
Zitat:
In unseren Augen wäre dies auf jeden Fall ein begrüßenswerter Schritt.


Nun, ich frage mich wer irgendwas dagegen haben könnte, außer den Energielieferanten mit ihren Wucherpreisen und der Bundesregierung die Dank Ökosteuer mitverdient.
Schließlich hätten die die Karten-Hersteller ein weiteres Verkaufsargument und toll für die Umwelt und den Geldbeutel wär's auch.
In meinen Augen gibt es kein Gegenargument.

mfg der BarBart
 
Die Grafikkarten takten sich im 2D Betrieb immer noch viel zu wenig runter bzw. schalten viel zu wenig Bereiche der GPU ab. 114W zu 103W ist zwar besser als 114W zu 114W, aber ich bin mir sicher, dass 50W oder weniger drin wären, wenn die Hersteller bloß endlich mal erkennen würden, dass ein sehr niedriger Stromverbrauch oft sogar ein entscheidendes Kaufkriterium sein kann.
 
Meine ATI 9200 läuft auf Arbeit dank ATI-Tool im 2D-Modus (also ständig) auf 100/100 MHz (CPU/MEM).

Gibt's so ein Tool eigentlich auch für Nvidia-Karten ?
 
ich habe mal gelesen, wenn die NV grakas genügend frames in 3D anwendungen erreichen, gehen sie bei dynamischer übertaktung auf level 1 und bei zu niedriger framezahl schalten sie dann auf auf level 2. das soll aber nur bei dynamischer übertaktung so sein.

falls ich da was falsches gelesen habe, macht nicht mich fertig ;)


@BBMS: bei NV karten kann man nur den core eigenständig ändern.
 
meinst du damit die Dell Beta 83.60 ? wenn ja hast du die am laufen und gibt es Probleme ???
 
ich meine mich zu erinnern das die GF4 bis 50/50MHz runter ging, da spart man natürlich ne Menge

mich nervt es schon wieder das die 9800Pro nur bis 65/265 vernünftig läuft, der Speicher lässt sich nicht weiter runterregeln ohne Absturz

das ganze lässt sich mit ATI Tray tools konfigurieren, wenn 3D erkannt wird taktet die Karte automatisch hoch

leider bleibt windows hängen wenn man den PC herunterfährt mit dem niedrigen Takt

wenn das bei den ATI wirklich so läuft wie angegeben werde ich meine KArte ersetzen
 
mich nervt es schon wieder das die 9800Pro nur bis 65/265 vernünftig läuft, der Speicher lässt sich nicht weiter runterregeln ohne Absturz
Erstaunlich, meine 9800pro verträgt minimal mit Core=200 und Mem=270 MHz. Stelle ich weniger ein, gibts Bildfehler oder Abstürze. Die Stromersparnis ist aber trotzdem schon ganz ordentlich gegenüber dem Defaulttakt.

Hat jemand eigentlich Erfahrungen, wie weit man eine X1800XL mit dem AtiTool runtertakten kann? Ich spiele nämlich mit dem Gedanken, auf PCIe umzurüsten und eine X1800XL zu kaufen, aber unter 2D verbraucht die mir zuviel Strom.
 
Nein, dann stürzt die Graka ab und VPU-Recover reaktiviert sie wieder.
 
Also meine Graka läuft in 2D auf 100/400,
leider krieg ich den Speichertakt net unter 400 da sonst Windows ne Bluescreen mit
NO LESS EQUAL TO IRQ oder so ähnlich produziert.

Wie kann ich den die Spannung der Graka einstellen ???
 
Zurück
Oben Unten