Olle Kalesche stellt sich vor

Olle Kalesche

Admiral Special
Mitglied seit
02.04.2015
Beiträge
1.126
Renomée
72
Standort
Hessen
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
"Antworten" , Erweitert" , "+Antworten" ... was ist wofür ... ?
ich wähle jetzt "Direkt antworten" , mal seh'n was passiert ...
-----------------------------------------------------------
Hallo Leute ,

ich bin neu im "Planet 3DNow!"-Forum und bitte um Nachsicht - ich bin lernfähig und offen.
Meine Angaben im Forum sind noch nicht vollständig - wenn's gut läuft kommt mehr.

Also , wenn der Forum-Rechner jetzt bei diesem Versuch abstürzt - ICH WAR'S - habe Mist gebaut !!!
... Spaß muß sein , sorry Roland !
----------------------------------

Der Forumseintrag "Rechner für BOINC optimieren" sollte eigentlich für mein Anliegen passen ...
ich muß offensichtlich nix "Neues Eröffnen" - ich fang' einfach mal an.
----------------------------------

Los gehts :
Demnächst folgt sicherlich wieder der/die/das "BOINC Pentathlon" für 2015 !
Da möchte ich wieder mit dabeisein - ich bin PC mäßig nur 'ne kleine Nummer - "Dabeisein ..." usw. .

Mein PC : AsRock AM1B-ITX , Athlon 5350 , 8GB RAM + Nvidia GeForce GT 530 mit 2GB (super Watt-spar-Kiste !).
Meine "ollen Kamellen" verbrauchen mir zu viel Watt ! ... werden nur im Notfall aktiviert !

Betriebssystem : Wahlweise Win32pro (soll entsorgt werden) oder
Linux Mint 17 KDE (64 Bit , Kernel 3.16.? , System noch auf USB3.0-Stick) - ist absolut passabel lauffähig .
Kubuntu 15.04 ist ein eventueller Folgekandidat , wegen des Kernels 3.19.? (4.0?) - mal sehen.

Unter Win32 sehe ich , daß der/die/das GPU-Core etwa zu 85-90 % ausgelastet ist ,
GPU Memory Controller ist im Mittel etwa zu 75-80% ausgelastet ,
GPU Memory selbst ist nur zu geschätzt 15-20% ausgelastet !
Gewiß , die CPUs sind voll am Arbeiten (ich lasse z.B. "SETI V7 7.00" (cuda32 - LUNATICS 43a)" laufen).
Bei potenten Grakas kann man aber Parameter in Boinc einstellen , die die Auslastung/Effektivität
der Graka in die Höhe treibt - hab' ich hier im Forum irgendwo gelesen -
dummerweise gibt es keine Infos zu den "Mini-Grakas" - nur zu den "dicken Brummern".
Geht da noch was bei der GT 530 (weil der GPU-Speicher fast ungenutzt ist) ???

Unter Linux Mint 17 habe ich die iGPU des Athlon 5350 zum Laufen gebracht (Standard-Seti - noch kein LUNATICS) ,
danach die GT530 installiert und ...
die iGPU vom Athlon 5350 ist "nicht mehr da" ... - offensichtlich geht hier nur - ENTWEDER AMD-iGPU - ODER Nvidia-GPU ...
ich bin noch Anfängerin im Linux.

Also meine ersten Fragen an die Spezialisten hier im Forum :
1. Geht bei der Nvidia GT 530 noch was per Boinc-Parameter ?
Vermutlich nicht , weil vermutlich zu "dünne" Hardware.
2. Falls mehr ginge ... muß ich die Parameter nur für die Hardware oder auch pro Projekt anpassen ?
3. Eine bessere Graka (und PC) ist aus meiner Sicht geplant (aber noch nicht spruchreif ,
weil AMD den "Zen" bzw. etwas "Passendes" noch nicht anbietet).
Welche bessere Graka wäre sinnvoll für AsRock AM1B-ITX und Boinc
(mit Sicht auf "Zen" als dann passable Graka in Zukunft - um die 100-Watt !) ?
Eine GTX 750Ti oder GTX 960 (GTX 950?) sind wohl zu "dicke" für AsRock AM1B-ITX/ATHLON 5350 -
oder sollte es besser eine AMD-ATI-Graka sein ?
Hat jemand Antworten auf meine Fragen ?

Ich hätte noch tausend Fragen - doch für mein "Intro" hier im Forum soll's erst mal genug sein.

Danke von "Olle Kalesche"

P.S. Vielen Dank für die Hilfe Roland !
-----------------------------------
Sorry , wenn ich jetzt Sch... gebaut habe , aber ... ich muß einfach sehen , was passiert ...
 
Hallo und HERZLICH WILLKOMMEN
auf dem GRÜNEN PLANETEN

Habe mir mal erlaubt Deinen Beitrag in einen eigenen Thread zu verschieben.
So sollte er besser aufgehoben sein.

Für "ICH WARs - habe Mist gebaut !!!" sind hier nicht die neuen zuständig ;)
Da haben wir schon den einen oder anderen der Dir das abnimmt*buck*

Zu Deinen Fragen wird hier mit Sicherheit noch die eine oder andere Antwort folgen.
Viel Spaß hier bei und mit uns, auch in Hinsicht auf den bevorstehenden Pentathlon.


Gruß

D.U.
 
Der Athlon 5350 ist in unseren Furparks gern gesehen. Die IGP alleine bringt z.B. eine Menge beim Projekt Collatz.
Die Wahl eine separaten GPU würde ich auf AMD begrenzen, obwohl NV auch funktioniert. Und ja, die IGP scheint exklusiv zu sein, also nicht mehr nutzbar, wenn eine separate eingesteckt wird.
Die kann übrigens so dick sein, wie man mag. Ich habe eine R9 280X, ohne dass diese wegen der schmalen PCIe Anbindung schwächeln würde.
Achja, Unter Linux laufen diese Athlons inklusive IGP auch prima.
 
@unterstudienrat
Danke für das HERZLICHE WILLKOMMEN .
Daß Du für meine Anfrage einen eigenen Thread angelegt hast ist OK -
Du kannst das besser beurteilen als ich.
Ich werde in jedem Fall versuchen Sinnvolles hier im Forum beizutragen ...

@cyrusNGC_224
Danke für Deine Antwort .
Wie ich erwähnte , ich hab' die IGP des Athlon 5350 (Kalindi) im Linux Mint 17 zum Laufen gebracht.
Wenn ich mich recht erinnere (habe Linux z.Zt. nicht laufen) meldete der Boinc-Start in etwa
knapp 100 GFOLPS peak für die Kalindi.
Unter WinXP32 zeigt der Boinc-Start 269 GFOLPS peak für die GT 530.
Also nutze ich die GT 530 im Augenblick für Win und Linux.

Bei der geplanten GPU achte ich zuerst auf die verbratenen Watt - der PC läuft manchmal 24h und mehr -
währenddessen läuft auch Boinc.
Die GTX 750Ti braucht gerade mal ca. 10 Watt mehr (ca. 60W, übertaktet max. 75W) als meine
GT 530 (ca. 50W) und leistet x-Mal soviel.
Eine GTX 960 braucht etwa 120W , etwas "heruntergetaktet" angeblich unter 100W
bei nur ein paar % Leistungsverlust.
Bei den AMD-GPUs warte ich auf ein ähnliches "Rechenleistung/Watt"-Verhältnis (nächste Generation).
Um die 100W maximal für die GPU ist mein Ziel.

Neue Frage :
Wenn ich mit dem 5350 eine AMD-ATI-GPU laufen lasse , kann Kalindi dann mitrechnen ?
 
Erfahrungsgemäß nein. Die IGP wird dann einfach ignoriert, also auch nicht gelistet.
 
Erstmal willkommen @ Olle Kalesche und viel Spaß bei uns.

Klappt das mit der IGP und einer GPU nur bei AMD nicht?
Ich hab einen Intel i5 und eine Nvidea Grafikkarte in meinem Laptop und unter Boinc werden beide erkannt und rechnen auch beide parallel.
 
Olle Kalesche schrieb:
Bei der geplanten GPU achte ich zuerst auf die verbratenen Watt - der PC läuft manchmal 24h und mehr -
währenddessen läuft auch Boinc.
Die GTX 750Ti braucht gerade mal ca. 10 Watt mehr (ca. 60W, übertaktet max. 75W) als meine
GT 530 (ca. 50W) und leistet x-Mal soviel.
Eine GTX 960 braucht etwa 120W , etwas "heruntergetaktet" angeblich unter 100W
bei nur ein paar % Leistungsverlust.
Da stecken leider viele Halbwahrheiten drin. Zunächst einmal solltest du dir im klaren sein, wie Nvidia seine GPUs so "effizient" bekommt, also wieso sie wie viel Strom weniger benötigen und wieso sie wie viel weniger Hitze erzeugen. Ein Punkt ist hier die z.T. künstlich beschnittene Double-Precision-Leistung (DP). Die entsprechenden Hardwareeinheiten brauchen Strom. Sind sie nicht vorhanden, braucht der Grafikchip plötzlich weniger Strom selbst in Anwendungsfällen, in denen vorhandene DP-Einheiten gar nicht genutzt würden.

Zweitens berechnet Nvidia - nach dem, was ich vor einigen Monaten las - seine TDP hierbei anders als AMD:
- Bei AMD gibt die TDP an, welche Kühlung typischerweise vonnöten wäre, wenn alle Einheiten der GPU auf übliche Weise (Volllast durch tatsächliche Nutzung, nicht durch "Powerviren" wie Furmark und Prime95) gleichzeitig in Aktion treten;
- Nvidias TDP gibt an, welche Kühlung typischerweise vonnöten wäre, wenn alle Einheiten der GPU bis auf DP-Einheiten auf übliche Weise (Volllast durch tatsächliche Nutzung, nicht durch "Powerviren" wie Furmark und Prime95) gleichzeitig in Aktion treten.
Und nun rate mal, welche Einheiten beim Crunchen/BOINCen sehr profitabel sein können (je nach Projekt).

Drittens werden die Chipträger (keine Ahnung, wie das offiziell heißt; bitte korrigieren, falls bekannt) von Nvidia immer größer gewählt, als nötig wäre, damit die Hitze sich besser verteilen und abgeleitet werden kann. Die größeren Träger kosten Nvidia mehr als die von AMD verwendeten kleineren Exemplare, doch Nvidia kann die Kosten dafür schließlich einfach an den Kunden weiterreichen; das nennt man Premiumaufpreis.

Viertens solltest du ganz allgemein keinem Hersteller allzuweit trauen, der seine Angaben über jede Gebühr (also auch bei geduldiger Hinnahme der branchenüblichen Tricks) schönt. Hier seien genannt:
- eine ARM-CPU samt GPU, die gemäß Nvidia fünfmal schneller als (= sechsmal so schnell wie) der Vorgänger ist; wie sich herausstellte, addierte Nvidia für diese Angabe einfach die Leistungssteigerung vom CPU- und vom GPU-Teil - also dreimal so schnell plus zweimal so schnell gleich fünfmal schneller.
- die tolle neue, dennoch namenlose und nur heimlich bei einem Produkt, das nicht mal die Speerspitze zu dem Zeitpunkt bildete, gebrauchte Technologie, die es ermöglicht, an ein Speicherinterface, welches maximal 3,5 GiB Grafikspeicher performant beliefern kann, weiteren Grafikspeicher anzubinden, der nur mit einem Bruchteil der Geschwindigkeit verwendet werden kann und das auch nur, wenn ein anderer Teil des Speichers zum gleichen Zeitpunkt Ruhepause hat, sodass Mikro- bis Makroruckler schon bei FullHD, vor allem aber darüber entstehen - und das bei einem über 300 bis über 400 Euro teuren und bereits von Spulenfiepen heimgesuchten Produkt. Ein Wunder, dass schon nach einem halben Jahr im Verkauf bekannt gegeben wurde, dass diese grandiose Technologie extra hierfür erfunden wurde.

Um konkret zu werden, die GTX 960 ist maximal ebenbürtig mit der Monate zuvor erschienenen, von Leuten außerhalb von Redaktionen verrissenen, von Nvidia belächelten/geschmähten, von Redaktionen als gut, aber zu teuren und ggf. mit zu wenig Speicher ausgestatteten R9 285. Dazu kommt, dass bei den GeForce-900ern Spulenfiepen und starker Effizienzabfall bei Betrieb außerhalb der Referenzspezifikationen (= schon bei leichter Übertaktung, Änderung des Power Targets, geschweige denn bei direkter Spannungsänderung) an der Tagesordnung sind. Man kann hier also nur entweder Effizienz oder gute Leistung erzielen. Beides zu vereinbaren ist schwierig.
Sapphires ITX-Version der R9 285 ist sehr gut gelungen und beeindruckte HT4Us Tester. Entscheidest du dich noch zu einer leichten bis mittleren Spannungsreduzierung (bei AMD traditionell sehr gut möglich, ohne die Stabilität zu gefährden - leider, denn somit könnte man die Karten theoretisch gleich effizienter auf den Markt bringen), hast du einen sehr guten Kandidaten sowohl für Spiele als auch fürs BOINCen. Das einzig Abschreckende bleibt die relativ geringe Speicherausstattung, wobei manch einer sagt, dass es noch eine ganze Weile reichen wird.* Der verdoppelte Speicher der neuen Sapphire-290X brachte im HT4U-Test immerhin fast keinen Vorteil. Ähnliches war bei der HD 7850 der Fall, weshalb die 1-GiB-Versionen zum Preis-Leistungs-Kracher wurden.


Irgendetwas wollte ich noch ansprechen. Naja, vllt. wird es mir später einfallen.

* - Nachtrag: Ich vergaß, dass ich einen direkten Vergleich von GTX 960 und R9 285 begonnen hatte. In dem Fall ist die Speicherausstattung schon wieder nicht so gering, da beide gleich viel haben.
 
Zuletzt bearbeitet:
@ Unbekannter Krieger. Danke für diesen ausführichen Artikel.
NUR: Das wird @ Olle Kalesche nicht viel Info geben bei seiner Suche nach einer GPU die um die 100 W verbraucht und ein gutes "Rechenleistung/Watt"-Verhältnis bestitzt.

Besser wäre es wenn du ihm Vorschläge zu einer GPU geben könntest die seiner Suche entsprechen oder du ihm sagst das es so eine GPU zur Zeit nicht gibt.
 
Das ist völlig richtig. Ich empfehle: Warte noch etwas auf die R9 370er und R7 360er. Eine davon wird bestimmt die Kriterien erfüllen.
 
Die GTX 750Ti macht schon ordentlich Dampf bei Seti und ist dabei noch bescheiden im Verbrauch. Bei den größeren ist bestimmt auch noch ein neues Netzteil fällig !!

In dem System laufen 2 Wus parallel auf der 750 Ti bei Seti:
http://setiathome.berkeley.edu/results.php?hostid=6637658


Grafikkarten bei Seti
http://setiathome.berkeley.edu/gpu_list.php




Olle Kalesche schrieb:
Unter Win32 sehe ich , daß der/die/das GPU-Core etwa zu 85-90 % ausgelastet ist ,
GPU Memory Controller ist im Mittel etwa zu 75-80% ausgelastet ,
GPU Memory selbst ist nur zu geschätzt 15-20% ausgelastet !
Auf der GeForce GT 530 gehen auch 2 Wus parallel. Ob es sich lohnt, müßtest Du ausprobieren. Geht auch mit den Lunatics -->
Die app_config.xml z. B. mit dem Notepad erstellen und in den Projektordner von Seti im BOINC data directory (bei Win7 ist dies gewöhnlich "C:\ProgramData\BOINC\projects\setiathome.berkeley.edu") kopieren. Beachtet, dass die Dateiendung 'xml' lautet und nicht 'xml.txt' oder ähnliches!

app_config.xml für Seti (2 Wus parallel auf der Grafik, Cuda)
<app_config>

<app>
<name>setiathome_v7</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>

<app>
<name>astropulse_v7</name>
<max_concurrent>1</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>

</app_config>
 
Zuletzt bearbeitet:
@ cyrusNGC_224
Ja , leider (offensichtlich) , d.h. aber auch , wenn ich eine APU kaufe ,
dann sollte ich die Finger von den GPUs lassen.
Bei AMD und Nvidia verstehe ich noch den Konkurrenzkampf , wenn einer in den Treibern
den ANDEREN "abschaltet" - obwohl das eigentlich mieß ist - ich habe doch für beide
Hardware-Produkte bezahlt - dann will ich auch BEIDE AUSNUTZEN !

Dennoch finde ich es "seltsam" , daß AMD viel APUs verkauft und eine APU mit iGPU plus
zusätzlich eine GPU (sogar aus dem eigenen Haus) in Ihren Treibern offensichtlich nicht unterstützt !?
Ist diese Situation nicht oft genug gegeben ?
Ich könnte mir vorstellen , daß so mancher PC-User mit der iGPU bei Boinc rechnen
und mit der GPU spielen , Fotos bearbeiten oder sonstiges durchführen will ,
evtl. auch umgekehrt - per Boinc-Parameter kann man bestimmen , welche (i)GPU beim Rechnen
benutzt werden soll - keine - beide oder nur eine bestimmte (i)GPU.

@ Fränki's Welle
Danke für das Willkommen.
"Klappt das mit der IGP und einer GPU nur bei AMD nicht?" ...
Vermutlich ist das so - leider - evtl. gibt sich AMD doch mal Mühe um die Treiber
entsprechend anzupassen ... zumindest für die eigenen iGPUs+GPUs ...

@ Unbekannter Krieger
Vielen Dank für die ausführliche Antwort - ich denke ich muß mir das noch ein paar Mal durchlesen ,
bis ich alles verstanden habe.
Dennoch mir ist bewußt , daß Nvidia die DP-Berechnungen vernachlässigt.
Mir ist allerdings nicht bekannt , ob und in welchen Ausmaß DP-Berechnungen wichtig sind -
und bei welchen Boinc-Projekten !
Falls DP-Berechnungen bei Spielen wichtig sind , dann benötige ich das nicht -
ich spiele höchstens mal Mahjongg oder sowas ...

Meine geplante zukünftige GPU ist noch nicht ausgewählt.
Ob Nvidia oder AMD ist mir eigentlich egal - sie sollte nur sparsam im Verbrauch und
optimal für Boinc sein. Die zukünftigen AMD-GPUs habe ich schon im Visier ,
aber da ist noch nichts für mich wichtiges bekannt.
Die von Dir angesprochenen R9 370er und R7 360er hab' ich im Visier.

@ Pollux
Danke für Deine klärenden Infos.
Weil auch ich gehört habe , daß die GTX 750Ti für Boinc geeignet ist und dazu noch wenig Strom verbraucht ,
deshalb habe ich diese GPU im Visier.
Selbst bei einer größeren GPU z.B. 'ner GTX 960 mit 120 Watt hätte ich mit dem Netzteil noch keine Probleme -
ein halbes Jahr , bevor ich mir den Athlon 5350 zugelegt habe - mußte ich für meine olle Kiste ein neues Netzteil kaufen.
Das Cooler Master V450S mit 450 Watt (Gold-Geprüft oder wie das heißt) betreibt jetzt den Athlon 5350.
Sicherlich ist das Netzteil für den Athlon 5350 (max. 25 Watt ?) "zu dick" , mit der GT 530 (max. 50 Watt) ,
alle CPUs und die GPU am Maximum laufend benötigt der PC 70-80 Watt laut Meßgerät an der Steckdose -
ich denke das ist noch OK.

Den Hinweiß , die GT 530 könnte auch 2 WUs bewältigen , werde ich gleich mal ausprobieren.
Ich habe noch ein paar Setis für CUDA32 (gleiche Laufzeit) - die werden zum Test herangezogen.
Zuerst lasse ich eine WU berechnen und merke mir die Zeit , dann probier ich es mit 2 WUs.
Ob es etwas bringt , vermelde ich dann hier.

Falls das erfolgreich ist , könnte ich auch noch die Infos für "Einstein" gebrauchen.
Wo findet man die Angaben für die Parameter der app_config.xml ?
Die entsprechenden Parameter für der/die/das "BOINC Pentathlon" 2015 findet man sicherlich im Forum ,
wenn's losgeht.


Vielen Dank nochmal an ALLE , die mir helfen ...
von Olle Kalesche (Iris)
 
DP Berechnungen verwendet meines Wissens nur Milkyway exzessiv (deswegen ist AMD Tahiti in jedem Top Rechner dort). Vielleicht auch Primegrid zum Teil. Und Asteroids, aber die haben nur eine Cuda App, welche mit Maxwell recht gut läuft. Deren CPU Apps gehören jedenfalls zu den am besten optimiertesten, schließlich gibt es auch welche für AVX.

Achja, die IGP der Kaveri, oder aller FM(1|2) APUs, werden trotz zusätzlicher GPU ebenfalls genutzt.
 
Olle Kalesche schrieb:
Falls DP-Berechnungen bei Spielen wichtig sind , dann benötige ich das nicht -
ich spiele höchstens mal Mahjongg oder sowas ...
Es gab bei einem bis ein paar Spielen Gerüchte, DP könnte evtl. genutzt werden, vllt. auch mittels Mantle. Die allgemeine Anschauung aber sagt, dass DP für Spiele komplett irrelevant ist. Darum kann Nvidia sie außerhalb des professionellen Markts (Quadro-Karten) künstlich minimieren.
Dort und bei manchen BOINC-Projekten aber ist DP ein wichtiges Kriterium. Welche Projekte es betrifft, da bin ich nicht der richtige Ansprechpartner, eher cyrus über mir z.B.
 
Zuletzt bearbeitet:
Die entsprechenden Parameter für der/die/das "BOINC Pentathlon" 2015 findet man sicherlich im Forum ,
wenn's losgeht.


Vielen Dank nochmal an ALLE , die mir helfen ...
von Olle Kalesche (Iris)

Die Vorzeichen zum Pentathlon sind da!!!
LINK


Gruß

D.U.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Da ich als Nicht-Zocker und APU-User (Llano) geim Thema Grakas nicht allzuviel mitreden kann (Mein Tip wäre ne Gainward Geforce GTX 750Ti Golden Sample, an ca. gut 150 Euro) ein Tip bezüglich dem Kernel:

Zufällig hab ich selbst Mint Qiana KDE (64bit) im Einsatz, und hab erst heute testweise den Kernel 3.19.3 installiert.
Sollte das der einzige Grund für nen evtl. Umstieg auf KUbuntu sein, ist es keiner ;)

Und auch sonst würd ich raten: bleib bei Qiana, oder zumindest bei ner LTS-Version...

Falls Interesse, hier der Link zum Kernel-PPA:
http://kernel.ubuntu.com/~kernel-ppa/mainline/v3.19.3-vivid/
In dieser Reihenfolge manuell installieren:
linux-headers-..._all.deb
linux-headers-..._amd64.deb
linux-image-..._amd64.deb
Geht meist sogar direkt aus z.B: Firefox, falls nicht, halt die runtergeladenen .debs manuell installieren, sollte per Klick gehen.

...beim 3.16er Kernel zu bleiben ist aber auch kein wirklicher Verlust, ausser man hat Hardware die davon noch nicht unterstützt wird oder man braucht unbedingt eins der neuen Features, z.B richtung Dateisystem oder whatever.
Selber war ich halt neugierig, und der "alte" Kernel ist noch da als Fallback ;)
Echten Grund hatte ich ehrlich gesagt keinen...
 
@Pollux und allen anderen , die es interessiert
Dein Vorschlag app_config.xml auf der GT 530 auszuprobieren führte zu folgenden Ergebnissen :

Teil 1 ohne app_config.xml (je eine WU seriell):
WU-# ohne app_config.xml Zeitvorgabe Zeit real
1 Lokal: setiathome_v7 7.00 (cuda32) 0:52:28 0:38:46
2 Lokal: setiathome_v7 7.00 (cuda32) 0:52:28 0:37:56
für 2 WUs 1:44:56 1:16:42
pro WU 0:52:28 0:38:21

Teil 2 mit app_config.xml (je 2 WUs parallel):
WU-# app_config.xml (2 WUs auf GT 530) Zeitvorgabe Zeit real
3 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:12:06
4 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:40
Zwischensumme für WU 3+4 3:22:36 2:23:46
Effektiver Durchschnitt für 2 WUs 1:41:18 1:11:53

WU-# app_config.xml (2 WUs auf GT 530) Zeitvorgabe Zeit real
5 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:58
6 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:34
Zwischensumme für WU 5+6 3:22:36 2:23:32
Effektiver Durchschnitt für 2 WUs 1:41:18 1:11:46

Teil 3:
Zeitvorgabe Zeit real
2 WUs gleichzeitig auf GT 530 (3+4) 1:41:18 1:11:53
2 WUs gleichzeitig auf GT 530 (5+6) 1:41:18 1:11:46
Zwischensumme für die WUs 3+4 + 5+6 3:22:36 2:23:39
Durchschnitt je 2 WUs auf GT 530 1:41:18 1:11:49
Vergleich seriell 2 WUs auf GT 530 1:44:56 1:16:42
Unterschied 0:03:38 0:04:52
Ich hoffe , die Tabellen kommen einigermaßen spaltengerecht 'rüber.


Ergebnis auf GT 530 :
2WUs seriell = 1h 16m 42s
2WUs parallel = 1h 11m 49s = 0h 4m 52s schneller !
Das ist nicht besonders viel , aber der Mensch freut sich ...

Die GT 530 war mit app_config.xml zu 100% ,
GPU-Controller war etwas mehr als bei seriell und
GPU-Memory etwa zu 30-40% ausgelastet (seriell etwa 15-20%).

Auf den CPUs liefen gleichzeitig :
CPU
1 Lokal: setiathome_v7 7.00
2 Lokal: setiathome_v7 7.00
3 Gravitational Wave search S6Bucket Follow-up #1 1.06 (SSE2)
4 Gamma-ray pulsar search #4 1.05 (FGRP4-SSE2)

Danke Pollux für den Tip !

@cyrusNGC_224
zu "Achja, die IGP der Kaveri, oder aller FM(1|2) APUs, werden trotz zusätzlicher GPU ebenfalls genutzt. " ...
... sorry Zitate einzubinden muß ich noch üben ...

Wenn's bei den "großen" APUs läuft , frage ich mich , warum nicht auch auf den "kleinen" APUs !?
Gerade hier ist doch "jedes Gramm" CPU- bzw. iGPU-Leistung absolut sinnvoll !!!
... zu AVX : ... kann der Athlon 5350 meines Wissens auch.
Vielleicht kommt im "BOINC Pentathlon" 2015 etwas mit AVX , wobei "mein Winzling" ein paar Punkte holen kann.

@Unbekannter Krieger
Ob und wie mein Athlon 5350 "Mantle" kann und wie man das nutzt bzw. aktiviert - keine Ahnung -
das wäre möglicherweise vorteilhaft.

@MikeHammer
Danke für die Info.
Ob ich diesen oder jenen Linux-Kernel brauche (von Vorteil wäre) weiß ich nicht.
Da ich , wie viele PC-User , vom Win herkomme , ist Linux , egal welches , erst einmal eine Herausforderung.
Außerdem , welches Linux ist für mich optisch und von der Bedienung her gefällig ?
Es gibt so viele Versionen/Variationen - ich bin noch am Suchen !
Deshalb habe ich mir 4 64GB-USB-Sticks gekauft. Auf denen übe ich ca. jede Woche einmal Installation ,
Update und auch einmal einen Kernel zu installieren , mit verschiedenen Linuxen ...
Ich muß noch viel lernen und hoffe innerhalb der nächsten Monate komplett auf Linux umstellen zu können.
Deine Hinweise den 3.19.3 einmal zu installieren , werde ich versuchen.
Ich mach mir vorher eine Kopie auf einen "Reserve" USB-Stick.
Übrigens , KUBUNTU 15.04 , einer meiner Testkandidaten hat den 3.19.3 schon eingebaut und soll Ende April ferig sein.

... zu "Warnung!
ein Wechsel von Windows nach Linux kann in Verbindung mit mangelndem Know-How und/oder Faulheit zu übermäßiger Frustration bis hin zu trollhaften Postings führen! Zum Verzehr der Handbücher wird daher dringend geraten!" ...
DAS IST ALLERDING WAHR !

--- Update ---

... war wohl nix mit spaltengerecht ...
 
... zu AVX : ... kann der Athlon 5350 meines Wissens auch.
Vielleicht kommt im "BOINC Pentathlon" 2015 etwas mit AVX , wobei "mein Winzling" ein paar Punkte holen kann.
Naja, AVX macht selbst bei Intel erst ab Haswell Sinn, weil es eben da durch die aufgebohrte FPU zu mehr Leistung führen kann. Bei AMD gibt es noch keine CPU, die Mehrleistung durch AVX bringt. Warten auf Zen ;)

@Unbekannter Krieger
Ob und wie mein Athlon 5350 "Mantle" kann und wie man das nutzt bzw. aktiviert - keine Ahnung -
das wäre möglicherweise vorteilhaft.
Erstens gibt es bisher nur Mantle-fähige Spiele für Win und zweitens macht Mantle eben nur in Spielen etwas aus, die mit der vorhandenen Hardware im CPU Limit sind. Mantle entlastet also die Kerne bzw lastet sie besser parallel aus. Für's Computing bringt es gar nichts.

Bezüglich Linux:
Viele kleine Schritte und viel Geduld. Nicht gleich komplett auf Linux umschwenken wollen!
Das braucht alles Zeit.
 
cyrusNGC_224 schrieb:
zweitens macht Mantle eben nur in Spielen etwas aus, die mit der vorhandenen Hardware im CPU Limit sind.
Das stimmt nicht ganz (Verdopplung des nutzbaren Speichers im CrossFire, auch bessere Auslastung der GPU laut neuerer Meldungen), der Rest schon.
 
Also ich kann mich bei Nvidia und Boinc bei den Maxwells absolut nicht beschweren.
Die Effizienz ist exzellent.
Schon die GTX750ti blieb bei Seti und Einstein weit unter ihrer TDP (Einstein=35W Diff. Last-Idle, idle~10W) und auch die GTX970 kommt da noch einigermaßen mit (Einstein je nach Projekt 85-110W Diff, idle~15W). Ich schätze mal, eine GTX960 würde dann noch sehr deutlich unter 100W bleiben und hat auch keinen 4GB-Bug.
Nur für Boinc hätte ich wohl statt der 970 lieber 2x750ti nehmen sollen - ist billiger und bringt mehr Punkte. Aber ab und zu will ich ja doch mal spielen und auf Microruckler per SLI hatte ich keine Lust.
Dass ein 400W-Netzteil für einen FX-8350+GTX970 locker reicht, hätte ich erst gar nicht geglaubt.
Von Seti hab ich gerade keine Messwerte parat und WUs gibts aktuell auch keine, kann ich aber bei Bedarf gern noch nachreichen.

Meines Wissens konnte AMD früher mal integrierte und zusätzliche GPUs gleichzeitig nutzen, aber auch nur in bestimmten Kombinationen. Das ist natürlich schade, dass das inzwischen nicht mehr geht.
 
Zuletzt bearbeitet:
Das sollte auch jetzt noch gehen - abhängig von den GPUs und den Einstellungen im Catalyst.
 
Danke für die neuen Antworten.
Ich bleib 'drann am Optimieren meines kleinen PCs.

Doch jetzt habe ich etwas gefunden ...
... laut "fudzilla" "AMD x86 16-core Zen APU detailed" ... vermutlich für den Server ...

Wenn das kein fake ist und wenn ich mir den "Zen"-Dektop halbiert oder geviertelt vorstelle ,
dann hab' ich meinen "um die 100 Watt" Desktop in ca. 2 Jahren ohne zusätzliche GPU.
Super !
... wenn's stimmt ...

... dann könnte ich meinem Athlon 5350 jetzt eine GTX 750Ti gönnen -
das reicht für die Zeit bis dahin.
 
Olle Kalesche schrieb:
Unter Linux Mint 17 habe ich die iGPU des Athlon 5350 zum Laufen gebracht (Standard-Seti - noch kein LUNATICS) ,
danach die GT530 installiert und ...
die iGPU vom Athlon 5350 ist "nicht mehr da" ... - offensichtlich geht hier nur - ENTWEDER AMD-iGPU - ODER Nvidia-GPU ...
Warum sollten nicht beide gleichzeitig bei Boinc benutzt werden können? Geht doch bei den Intels auch. Grundsätzlich macht es ja Sinn, daß die iGPU deaktiviert wird, da der normale User nicht im DC Bereich tätig ist. Entweder gibt es im Bios etwas dazu, oder es reicht schon das Einstöpseln des Monitors in die Kalindi.
Eintrag in Boinc ProgramData Ordner nötig: cc_config.xml erstellen mit Parameter
<cc_config>

<options>
<use_all_gpus>1</use_all_gpus>
</options>

</cc_config>
Bei der inst der Lunatics muß dann auch Ati und Nvidia (cuda 50 cuda 42) aktiviert werden.

Grafik von Athlon 5350 nutzen




Die Berechnungen bei Seti sind etwas irritierend. Die tatsächlichen Wuberechnungszeiten streuen normal erheblich und die Credits (abhängig auch vom Boincmondbenchmark) ebenso.
Der Test sollte schon über ein paar Tage laufen und die erhaltenen Credits berücksichtigt werden. Zum Beispiel 10 fertige Wus mit um die 100 Credits miteinander vergleichen.




Olle Kalesche schrieb:
Falls das erfolgreich ist , könnte ich auch noch die Infos für "Einstein" gebrauchen.
Wo findet man die Angaben für die Parameter der app_config.xml ?
Zuerst bitte dem Team beitreten.
In Deinem Einstein-Account müßte noch "Run beta/test application versions" aktiviert werden. Die Betas der Parkes PMPS XT haben kürzere Berechnungszeiten bei gleichen Credits und sind auch schon produktiv.

app_config.xml (Einstein, Parkes PMPS XT, 1 Wu, Cuda)
<app_config>

<app>
<name>einsteinbinary_BRP6</name>
<max_concurrent></max_concurrent>
<gpu_versions>
<gpu_usage>1</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>

</app_config>
<gpu_usage>1</gpu_usage> --> 1 Wu
<gpu_usage>0.5</gpu_usage> --> 2 Wus
<gpu_usage>0.33</gpu_usage> --> 3 Wus usw.

Die app_config.xml z. B. mit dem Notepad erstellen und in den Projektordner von Einstein im BOINC data directory (bei Win7 ist dies gewöhnlich "C:\ProgramData\BOINC\projects\einstein.phys.uwm.edu") kopieren. Beachtet, dass die Dateiendung 'xml' lautet und nicht 'xml.txt' oder ähnliches!




app_config.xml
 
Zuletzt bearbeitet:
Unter Win 8.1 erkennt er trotz <use_all_gpus>1</use_all_gpus> nur die zugesteckte dedizierte GPU. Wie gesagt, ist nur bei AM1 so.
 
Zurück
Oben Unten