AMD A10-7700K und A10-7850K im Test
cTDP und seine Auswirkungen
AMD sorgte vor einigen Jahren mit der Einführung der ACP (Average CPU Power) für Server-CPUs als Maß für die mittlere Verlustleistung für Aufsehen und musste Kritik einstecken. Auch Intel ist inzwischen von der Angabe einer “realistischen” Verlustleistung abgerückt. Die Sinnhaftigkeit einer solchen mittleren Verlustleistung ist unserer Ansicht nach aber unbestreitbar. Nur wenige Anwendungen sorgen dafür, dass die definierte TDP ausgereizt oder überschritten wird. Bereits bei den Tests von Mini-ITX-Gehäusen müssen wir stets von der Nutzung sogenannter Killer-Anwendungen (z.B. FurMark und Prime95) Abstand nehmen. Auch wenn die TDP unserer A10-5700-APU mit 65 Watt angegeben wird, so zeigt uns das Energiekostenmessgerät eine andere Realität. Dabei hat sich AMD schon mit der Einführung der Llano-APUs (2011) mit dem Thema beschäftigt, wie die Verlustleistung innerhalb der definierten Grenzen gehalten werden kann.
Über die APU-Generationen hinweg hat AMD das Power-Management verfeinert. Mithilfe von integrierten thermischen Widerständen wird eine Temperaturdifferenz zur maximal erlaubten Betriebstemperatur bestimmt. Zusätzlich werden Berechnungsalgorithmen genutzt, um die ungefähre Leistungsaufnahme in das Regelverhalten miteinzubeziehen.
Für Notebook-OEMs ist seit der Einführung der Richland-APUs cTDP ein nutzbares Feature. Die configurable TDP ermöglicht es, die maximale thermische Verlustleistung per Software zu begrenzen. Bis auf die A10-7700K-APU unterstützten nach AMD-Angaben alle Kaveri-APUs cTDP. Wie das Feature umgesetzt wird, obliegt aber dem Mainboardhersteller. Gigabyte beispielsweise lieferte erst mit monatelanger Verspätung das Feature für das von uns genutzte GA-F2A88XM-D3H mithilfe eines BIOS-/UEFI-Updates nach. Unter Umständen kann auch nur eine Stufe angewählt werden, nämlich 45 Watt.
Wie sieht das Verhalten des Systems nun aber unter Nutzung von cTDP aus?
Unseren Beobachtungen zufolge werden die APU-Temperatur und die Leistungsaufnahme tatsächlich aktiv in das Regelverhalten miteinbezogen. Da die Messung der GPU-Taktrate nahezu unmöglich ist, bleibt uns nur die Angabe der CPU-Taktrate, die maßgeblich beeinflusst wird. Beim Multithread-CPU-Benchmark (CineBench R15) reduziert sich die maximale Taktfrequenz von 3900 MHz auf 3500 MHz, beim Spielen von Tomb Raider (2013) wiederum sehen wir nur seltene Drops von 3000 MHz auf 2400 MHz. Letztere Taktrate wird angesetzt, wenn cTDP auf 45 Watt eingestellt wird.
Der Temperatureinfluss macht sich bei der Leistungsaufnahme bemerkbar. Bei kurzzeitiger CPU-Last sehen wir Taktspitzen, erst im weiteren Verlauf wird heruntergeregelt. Das bedeutet, dass wir auf dem Energiekostenmessgerät Spitzen von 106 Watt (65 W cTDP) und 96 Watt (45 W cTDP) bei Tomb Raider (2013) beobachten können. Der Durchschnittsverbrauch beträgt 104 Watt (65 W cTDP) bzw. 81 Watt (45 Watt cTDP).
Dieses Verhalten zeigt uns, dass trotz cTDP weiterhin ein ausreichend starkes Netzteil vorhanden sein muss, um das System auch bei diesen Spitzen mit ausreichend Strom zu versorgen. Für HTPC-Nutzer könnte es also sinnvoll sein, von vornherein 65-W-APUs zu kaufen und diese dann herunterzuregeln, falls kein ausreichend starkes Netzteil zur Verfügung steht.
Die Rechenleistung des Systems wird selbstverständlich unterschiedlich stark durch die gewählte cTDP beeinflusst.
Während die Begrenzung der TDP auf 65 Watt (- 32 %) die Leistung um bis zu 14 % sinken lässt, sind es bei 45 Watt (- 53 %) bis zu 27 %.
Absolutwerte für: Battlefield 4, Bioshock Infinite, Crysis 3, Hitman Absolution, Tomb Raider
Speziell bei Spielen sehen wir ein anderes Bild. Bei 65 Watt sehen wir auf den ersten Blick keinen nennenswerten Einbruch bei den durchschnittlichen Bildraten. Die Beschränkung auf 45 Watt TDP hingegen bedeutet 13 % niedrigere Bildraten. Diese 13 % machen mitunter auch den groben Unterschied zwischen spielbar und nicht spielbar aus.
Wir spielen zusätzlich die erste halbe Stunde des Ego-Shooters Battlefield 3. Anhand der Auswertung der Frametimes, der vom Tool FRAPS aufgezeichneten Abstände zwischen zwei gerenderten Bildern, zeigen sich deutliche Unterschiede zu den vorherigen Benchmarks.
Die Spitzen innerhalb der Kurven repräsentieren Ingame-Videosequenzen und Ladesequenzen. Trotzdem sehen wir, dass die Kurve im 65-W-Betrieb deutlich flacher ausfällt. Die Frametimes und damit die Bildrate (=1000 ms/Frametime) streuen stärker. Gleichzeitig sehen wir, dass die Bildrate in diesem speziellen Fall geringer ausfällt. Die Festlegung von cTDP auf 45 Watt sorgt für die weitere, vollkommen erwartete Reduzierung der Bildrate (Erhöhung der Frametimes). Hier macht sich offenbar das von uns für die 65 W cTDP beobachtete Springen der CPU-Taktraten zwischen 2,4 GHz und 3,0 GHz bemerkbar.
Sowohl die Rechenleistung als auch die Leistungsaufnahme sinkt, das haben wir gesehen. Hinsichtlich der Effizienz (z.B. FPS/Watt) sehen wir, dass diese nicht in allen Szenarien steigt. Bei reiner CPU-Last sehen wir eine um bis zu 40 % höhere Effizienz, während GPU-lastige Anwendungen “nur” für 15 % bessere Werte gut sind.