APU (CPU+GPU): 4+1 oder 3+1?

Gerby19

Vice Admiral Special
Mitglied seit
04.02.2004
Beiträge
513
Renomée
26
Standort
Schleswig-Holstein
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
Hi!

Hier und da möchte ich gerne ein wenig mitcrunchen. Bei mir läuft nichts Dolles: Llano APU A6-3650 2,6 GHz (GPU: HD 6530D 444 MHz) - besser als nichts. ;D

Einstein@Home läuft als einziges Projekt mit 4 CPU-Threads und einem GPU-Thread. Bei letzterem zeigt die CPU-Auslastung weniger als 1 % an, die GPU-Auslastung pendelt dabei leider nur so zwischen 10 und 15 %. :(

Wenn ich per app_config.xml der BRP5-App einen ganzen CPU-Kern zuweise (<cpu_usage>1.0</cpu_usage>), dann steigt die GPU-Auslastung auf ca. 90 %. :) Nur leider liegt dann ein CPU-Kern beinahe brach (Auslastung ca. 3 %). :(

Folgendes habe ich noch ausprobiert:
  • Bei 4 CPU-Threads die Priorität des GPU-Threads im Task-Manager erhöht (hier: Process Explorer) -> keine Änderung der GPU-Auslastung.
  • <cpu_usage>0.99</cpu_usage> und kleiner -> 4+1 Threads, Auslastung wie oben.
  • Mehrere GPU-Threads anhand der app_config.xml laufen gelassen -> GPU-Auslastung steigt insgesamt nur etwas und schwankt stärker, Overhead (Speicherauslastung, CPU-Auslastung eines Kerns) steigt.

Gibt es noch irgendeine Stellschraube, so dass ich die (mehr oder weniger) volle GPU-Auslastung bei 4 CPU-Threads erreiche, idealerweise mit einem GPU-Thread?

Gruß
Gerby
 
einstein benötigt einen freien cpu kern um eine vernünftige gpu auslastung zu erzeugen ;)
 
Gerby19 schrieb:
APU (CPU+GPU): 4+1 oder 3+1?
4+1
Cpu-Last 100 %, die Gpu läuft allerdings nur auf äußerster Sparflamme, da sie nur Cpu-Notunterstützung erhält. Die Zeiten für die Gpu-Work sind dann dementsprechend auch Grottenschlecht.
Die Zeiten für die Cpu-Work steigen leicht an.

3+1
Die Cpu-Last sinkt auf etwa 80 %, die Gpu-Work hat jetzt aber optimale Unterstützung durch die Cpu. Der freie Core wäre jetzt mit einer besseren Gpu sehr viel besser auszulasten, da mehr parallel laufen könnte.. Kannst testen, ob 2 Wus parallel auf Deiner Gpu noch effektiv laufen. Ansonsten liegen 9/10 eines Cores leider brach.


Credittechnisch ist die Version 3+1 vorzuziehen, da die GPU-Work in der Regel sehr viel besser honoriert wird.
 
Zuletzt bearbeitet:
Gilt das auch bei den IGPs? Habe hier Intel Core i5 Ivy bridge mit HD2500.

Muss mann die app_config machen für die genaue Ressourcenzuteilung mit Einstein oder reicht auch im BM einfach "Nutze bei Multiprozessorsystem höchsten - 99% - der Prozessoren"???

wo kann man den die IGP/GPU Auslastung ablesen, extra Tool?
 
@MLMapster
Das gilt auch für die IGPs. Läuft es nicht optimal, streuen die Laufzeiten auch gewaltig.

Grundsätzlich läuft es auch ohne app_config, sofern das Accountsetting ausreichend ("GPU utilization factor of BRP apps") ist und die Default- Werte für die entsprechende app mit der vorhandenen Grafik stimmig sind.
Der Account reagiert allerdings etwas träge auf Änderungen. Sie gilt erst für neue Gpu-Wus.

Für eine optimale Gpu-Arbeit (egal ob mit oder ohne app_config) ist ein beschränken der Cores über den Boincmanager nur nötig, sofern die Summe aller parallelen Gpu-Arbeiten keinen vollen Cpu-Core ergeben.
Läuft ein Cpu-Projekt allerdings mit hoher Priorität, muß für eine optimale Gpu_Arbeit ein Core gesperrt werden.

Tool für Gpu-Auslastung
GPU-Z 0.7.X
 
Zuletzt bearbeitet:
4+1
Cpu-Last 100 %, die Gpu läuft allerdings nur auf äußerster Sparflamme, da sie nur Cpu-Notunterstützung erhält. Die Zeiten für die Gpu-Work sind dann dementsprechend auch Grottenschlecht.
Die Zeiten für die Cpu-Work steigen leicht an.

3+1
Die Cpu-Last sinkt auf etwa 80 %, die Gpu-Work hat jetzt aber optimale Unterstützung durch die Cpu. Der freie Core wäre jetzt mit einer besseren Gpu sehr viel besser auszulasten, da mehr parallel laufen könnte.. Kannst testen, ob 2 Wus parallel auf Deiner Gpu noch effektiv laufen. Ansonsten liegen 9/10 eines Cores leider brach.


Credittechnisch ist die Version 3+1 vorzuziehen, da die GPU-Work in der Regel sehr viel besser honoriert wird.
Das ist eine sehr gute Antwort!
Ich nutze vorwiegend 3+1, dass lässt sich besser händeln mit Background (NSA) APPs. ;)
 
Wie würde denn eine entsprechende app_config aussehen? Ich habe hier nen Server mit 32 Kernen und 1x Ati HD7790. Ich würde gerne den GPU-Last-Anteil maximieren. Kann die GPU mehr als einen Task ausführen?
 
Für eine optimale Gpu-Arbeit (egal ob mit oder ohne app_config) ist ein beschränken der Cores über den Boincmanager nur nötig, sofern die Summe aller parallelen Gpu-Arbeiten keinen vollen Cpu-Core ergeben.
Läuft ein Cpu-Projekt allerdings mit hoher Priorität, muß für eine optimale Gpu_Arbeit ein Core gesperrt werden.
Das ist interessant!
In deren Forum habe ich irgendwo gelesen, dass der Hintergrund darin besteht, dass OpenCL auf geringerer Priorität läuft und deswegen immer ein Kern frei sein muss, der dann quasi OpenCL füttert.

Ich hatte schon einiges experimentiert, aber gilt das auch, wenn man mehr als eine GPU in einem System hat?
Ich lasse momentan auf je einer von zwei Tahitis 2 WUs parallel laufen (insgesamt 4), die mit aktuellen Einstellungen insgesamt 2 CU Kerne tot legen.
Wäre es also praktisch möglich, trotz der 4 GPU WUs (auf zwei Karten) nur einen Kern zu "verschwenden"?

Die config aktuell:
Code:
<app_config>
 <app>
        <name>hsgamma_FGRP3</name>
        <gpu_versions>
        <gpu_usage>1.0</gpu_usage>
        <cpu_usage>0.8</cpu_usage>
        </gpu_versions>
 </app>
 <app>
        <name>einsteinbinary_BRP4G</name>
        <gpu_versions>
        <gpu_usage>0.5</gpu_usage>
        <cpu_usage>0.5</cpu_usage>
        </gpu_versions>
 </app>
 <app>
        <name>einsteinbinary_BRP5</name>
        <gpu_versions>
        <gpu_usage>0.5</gpu_usage>
        <cpu_usage>0.5</cpu_usage>
        </gpu_versions>
 </app>
 <app>
        <name>einsteinbinary_BRP6</name>
        <gpu_versions>
        <gpu_usage>0.5</gpu_usage>
        <cpu_usage>0.5</cpu_usage>
        </gpu_versions>
 </app>
</app_config>

Mit nur einer GPU WU ist deren Auslastung jedenfalls viel zu gering und mehr als zwei binden dann noch mehr CPU Kerne.


Gestalte ich die Einstellungen so, dass ich einen Kern freihalte, geht die GPU Auslastung (auf beiden) nicht über 70%. Halte ich zwei frei, sind zeitweise über 90% möglich.
 
Wie würde denn eine entsprechende app_config aussehen? Ich habe hier nen Server mit 32 Kernen und 1x Ati HD7790. Ich würde gerne den GPU-Last-Anteil maximieren. Kann die GPU mehr als einen Task ausführen?

upps verdammt lang her ....:o
ist wohl auch längst erledigt
Einstein -- > app_config.xml Ati 7750/7770/7790 (2 Wus)
<app_config>

<app>
<name>einsteinbinary_BRP4G</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP5</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP6</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>

</app_config>



@cyrusNGC_224
Einstein:
Mit einer Wu pro Gpu (1 cpu/1 gpu) erstmal ermitteln, wie viel Coreunterstützung die Karte überhaupt benötigt (WTaskmanager).
Dann für die Tahiti die effektivste Auslastung ermitteln. Das sind auf jeden Fall mehr als zwei Wus parallel.
Soll nur insgesamt 1 Core (bei 2 Tahitis) geopfert werden, mußt Du auch testen, was dann das optimale Setting in der app_config wäre !
Eventuell ist in dem Fall eine Karte sogar überflüssig !!!


Da bei Einstein momentan die Umstellung von BRP5 (Perseus Arm Survey) auf BRP6 (Parkes PMPS XT) erfolgt, vielleicht noch ein paar Tage mit dem Testen warten. Wegen Betagedöns usw.
 
Zuletzt bearbeitet:
*ausgrab*

Während des Pentathlons wollte ich eigentlich meinen Athlon 5350 | HD 8400 mitrechnen lassen.
Zunächst musste ich mal den reservierten Speicher für die IGP auf über 512MB anheben (1x4GB insgesamt) und er zog auch artig Units, aber war instant fest.
Neustarts usw. halfen nicht.
Ich musste dann wieder ins BIOS und den Speicher runterstellen, was dann zum Abbruch durch Einstein geführt hat. :(
Als Mainboard kommt das beliebte ASUS AM1I-A zum Einsatz.

Meine Fragen: braucht der mehr Power? bzw. muss ich mal manuell schauen wieviel Volt da wo landen?
Hab bisher alles @stock gelassen.

Lohnt es am Ende überhaupt von der Laufzeit?
Hat jemand von Euch unter Linux (Mint) einen 5350 am Start und ähnliche Erfahrungen gemacht?

LG Soran
 
Hat jemand von Euch unter Linux (Mint) einen 5350 am Start und ähnliche Erfahrungen gemacht?

Meiner lief auch schon unter Linux Mint 17 ohne Probleme - im Moment aber unter Windows 7 und er hat 8 GB. Er rechnet normaler weise 3 x yoyo (CPU) und 2 x Collatz Solo (GPU).

Laut Collatz stehen 762MB als GPU Speicher zur Verfügung. Guthaben bisher 8,069,333. Einstein beim Pentathlon hat er auch geknuspert

UMA Frame Buffer Size steht auf Auto.

PS. der lief auch so einwandfrei mit 4 GB.
 
Ich habe die sowohl unter Linux (alles Debian Jessie) als auch unter Win 8.1 mit 4 GB und 8 GB laufen. Bisher eine sehr stabile Plattform (gab schon mal Hänger, aber das hing u.a. an festgefahrenen Apps). Je nach Board sind die sogar bis 2,4 GHz übertaktet - keine Probleme bisher.

Eventuell ist bei Dir etwas defekt; Speicher?
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste. Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).
 
Meiner lief auch schon unter Linux Mint 17 ohne Probleme - im Moment aber unter Windows 7 und er hat 8 GB. Er rechnet normaler weise 3 x yoyo (CPU) und 2 x Collatz Solo (GPU).

Laut Collatz stehen 762MB als GPU Speicher zur Verfügung. Guthaben bisher 8,069,333. Einstein beim Pentathlon hat er auch geknuspert

UMA Frame Buffer Size steht auf Auto.

PS. der lief auch so einwandfrei mit 4 GB.

Ich stell das nochmal manuell um, bei "Auto" sind 472MB oder so reserviert.
4GB sollten auch locker reichen.

Ich habe die sowohl unter Linux (alles Debian Jessie) als auch unter Win 8.1 mit 4 GB und 8 GB laufen. Bisher eine sehr stabile Plattform (gab schon mal Hänger, aber das hing u.a. an festgefahrenen Apps). Je nach Board sind die sogar bis 2,4 GHz übertaktet - keine Probleme bisher.

Eventuell ist bei Dir etwas defekt; Speicher?
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste. Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).

Defekt? Nee, hatte bisher immer Glück, das schließe ich mal aus. ;)
Ja, das mit dem Kern ist so ein Ding.
Milkyway läuft noch nicht, wegen der CAL Geschichte (obwohl es ja über OpenCL läuft) bzw. muss ich da wohl nochmal die app_info anschauen.

Danke erstmal, ich melde mich dann mal mit Ergebnissen.
 
Soran schrieb:
Während des Pentathlons wollte ich eigentlich meinen Athlon 5350 | HD 8400 mitrechnen lassen.
Zunächst musste ich mal den reservierten Speicher für die IGP auf über 512MB anheben (1x4GB insgesamt) und er zog auch artig Units, aber war instant fest.
Neustarts usw. halfen nicht.
Vermutlich ist auf demselben Core eine Cpu-Work mitgelaufen. Eine Ati 5750 macht bei dem Setting nur alle paar Sekunden 0,001 Prozent (Parkes).

Die Kalindi im Einsatz bei Einstein (mit Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11381380
Olle Kalesche schrieb:
...
Wie ich erwähnte , ich hab' die IGP des Athlon 5350 (Kalindi) im Linux Mint 17 zum Laufen gebracht.
Wenn ich mich recht erinnere (habe Linux z.Zt. nicht laufen) meldete der Boinc-Start in etwa
knapp 100 GFLOPS peak für die Kalindi.
...

Falls Du zukünftig bei Einstein oder Seti einsteigen möchtest, wirst Du um eine Zusatzkarte nicht herumkommen. Da ist die Kalindi einfach zu schwach.
Die CapVerde laufen ganz vernünftig bei diesen beiden Projekten. Du hast ja eine Bonaire als Orientierungshilfe in einem Deiner Systeme.
OpenCl braucht bei diesen beiden Projekten für ein optimales Arbeiten aber immer einen freien Core zur Unterstützung.

Oder Du gehst auf Cuda. Die NVIDIA GeForce GTX 750 Ti ist bei Einstein auf der Stärke einer Bonaire, bei Seti allerdings deutlich überlegen. Und das bei gleichzeitiger Nutzung des Cores durch ein Cpu Projekt.
AMD Athlon(tm) II X2 mit NVIDIA GeForce GTX 750 Ti
Zur Zeit laufen 2 X Universe@home + 3 Einstein (Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11144667







Auf der Intel(R) HD Graphics 4600 (1297MB) laufen bei Einstein:
Binary Radio Pulsar Search (Parkes PMPS XT)
[einsteinbinary_BRP6]
Intel iGpu* ab HD 4000 möglich (Betastatus muß im Einsteinaccount aktiviert werden)

und die
Binary Radio Pulsar Search (Arecibo)
[einsteinbinary_BRP4]
Intel iGpu* ab HD 2500
nur für Win
Technical News : Support for (integrated) Intel GPUs (Ivy Bridge and later) :
http://einstein.phys.uwm.edu/forum_thread.php?id=10215
Problems and Bug Reports : BRP4 Intel GPU app feedback thread:
http://einstein.phys.uwm.edu/forum_thread.php?id=10214



*Intel iGpu (driver: 10.18.10.3621)
 
Zuletzt bearbeitet:
Vermutlich ist auf demselben Core eine Cpu-Work mitgelaufen. Eine Ati 5750 macht bei dem Setting nur alle paar Sekunden 0,001 Prozent (Parkes).

Die Kalindi im Einsatz bei Einstein (mit Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11381380


Falls Du zukünftig bei Einstein oder Seti einsteigen möchtest, wirst Du um eine Zusatzkarte nicht herumkommen. Da ist die Kalindi einfach zu schwach.
Die CapVerde laufen ganz vernünftig bei diesen beiden Projekten. Du hast ja eine Bonaire als Orientierungshilfe in einem Deiner Systeme.
OpenCl braucht bei diesen beiden Projekten für ein optimales Arbeiten aber immer einen freien Core zur Unterstützung.

Danke für die ausführliche Antort.
Ok, dann denke ich mal bleibt der 5350 CPU-only. Bin ja froh das der im Antec ISK-150 "wenig" schluck @24/7.

Oder Du gehst auf Cuda. Die NVIDIA GeForce GTX 750 Ti ist bei Einstein auf der Stärke einer Bonaire, bei Seti allerdings deutlich überlegen. Und das bei gleichzeitiger Nutzung des Cores durch ein Cpu Projekt.
AMD Athlon(tm) II X2 mit NVIDIA GeForce GTX 750 Ti
Zur Zeit laufen 2 X Universe@home + 3 Einstein (Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11144667

Interessant das du NV ansprichst, ich hab ne 560 Ti geschenkt bekommen, will die aber nicht in meinem Haupsystem haben (GPU, DP schlechter als die Bonaire).
Im Athlon-Sys passt die mir auch nicht so ins Konzept (dazu mehr hier).


Auf der Intel(R) HD Graphics 4600 (1297MB) laufen bei Einstein:
Binary Radio Pulsar Search (Parkes PMPS XT)
[einsteinbinary_BRP6]
Intel iGpu* ab HD 4000 möglich (Betastatus muß im Einsteinaccount aktiviert werden)

und die
Binary Radio Pulsar Search (Arecibo)
[einsteinbinary_BRP4]
Intel iGpu* ab HD 2500
nur für Win
Technical News : Support for (integrated) Intel GPUs (Ivy Bridge and later) :
http://einstein.phys.uwm.edu/forum_thread.php?id=10215
Problems and Bug Reports : BRP4 Intel GPU app feedback thread:
http://einstein.phys.uwm.edu/forum_thread.php?id=10214



*Intel iGpu (driver: 10.18.10.3621)


Ok, dann kann ich ja die WS @work noch mehr quälen! :) Wobei die schon ganz schön warm wird... *lol*
 
Zuletzt bearbeitet:
Die Ati 7750 (CapVerde) und die Nvidia 750 TI liegen maximal bei 55 Watt bzw 60 Watt.
Die Nvidia 560 TI liegt bei max. 170 Watt. Die 320 bit verbrät gar bis max. 210 Watt.
http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html




cyrusNGC_224 schrieb:
...
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste.
Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).
In dem Fall sind keine Änderungen nötig. :)
 
Zuletzt bearbeitet:
Zurück
Oben Unten