App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
- Foren
- Planet 3DNow! Community
- Planet 3DNow! Distributed Computing
- Astronomie und Astrophysik
- Einstein@Home
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
APU (CPU+GPU): 4+1 oder 3+1?
- Ersteller Gerby19
- Erstellt am
Gerby19
Vice Admiral Special
- Mitglied seit
- 04.02.2004
- Beiträge
- 513
- Renomée
- 26
- Standort
- Schleswig-Holstein
- Aktuelle Projekte
- Sporadisch sowohl BOINC-Projekte als auch Folding@Home
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- Ryzen 5 3600 (6-Kerner), Sapphire Radeon RX 460 mit 2 GByte
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Allround-Tower
- Prozessor
- AMD Ryzen 5 3600
- Mainboard
- MSI B550-A PRO
- Kühlung
- Scythe Mugen 5 Rev. B
- Speicher
- 2 x 16 GB DDR4
- Grafikprozessor
- MSI GeForce RTX 3060 Ventus 2X 12G OC
- Display
- 2 x Dell U2415
- SSD
- Kingston KC2500 NVMe 1TB, Kingston SNV2S NVMe 2TB
- HDD
- 4 TB
- Optisches Laufwerk
- Lite-On iHAS624
- Soundkarte
- Realtek (on board)
- Gehäuse
- Chieftec
- Netzteil
- be quiet! PURE POWER 10 350W
- Betriebssystem
- Windows 11 x64 Professional
- Webbrowser
- Vivaldi
Hi!
Hier und da möchte ich gerne ein wenig mitcrunchen. Bei mir läuft nichts Dolles: Llano APU A6-3650 2,6 GHz (GPU: HD 6530D 444 MHz) - besser als nichts.
Einstein@Home läuft als einziges Projekt mit 4 CPU-Threads und einem GPU-Thread. Bei letzterem zeigt die CPU-Auslastung weniger als 1 % an, die GPU-Auslastung pendelt dabei leider nur so zwischen 10 und 15 %.
Wenn ich per app_config.xml der BRP5-App einen ganzen CPU-Kern zuweise (<cpu_usage>1.0</cpu_usage>), dann steigt die GPU-Auslastung auf ca. 90 %. Nur leider liegt dann ein CPU-Kern beinahe brach (Auslastung ca. 3 %).
Folgendes habe ich noch ausprobiert:
Gibt es noch irgendeine Stellschraube, so dass ich die (mehr oder weniger) volle GPU-Auslastung bei 4 CPU-Threads erreiche, idealerweise mit einem GPU-Thread?
Gruß
Gerby
Hier und da möchte ich gerne ein wenig mitcrunchen. Bei mir läuft nichts Dolles: Llano APU A6-3650 2,6 GHz (GPU: HD 6530D 444 MHz) - besser als nichts.
Einstein@Home läuft als einziges Projekt mit 4 CPU-Threads und einem GPU-Thread. Bei letzterem zeigt die CPU-Auslastung weniger als 1 % an, die GPU-Auslastung pendelt dabei leider nur so zwischen 10 und 15 %.
Wenn ich per app_config.xml der BRP5-App einen ganzen CPU-Kern zuweise (<cpu_usage>1.0</cpu_usage>), dann steigt die GPU-Auslastung auf ca. 90 %. Nur leider liegt dann ein CPU-Kern beinahe brach (Auslastung ca. 3 %).
Folgendes habe ich noch ausprobiert:
- Bei 4 CPU-Threads die Priorität des GPU-Threads im Task-Manager erhöht (hier: Process Explorer) -> keine Änderung der GPU-Auslastung.
- <cpu_usage>0.99</cpu_usage> und kleiner -> 4+1 Threads, Auslastung wie oben.
- Mehrere GPU-Threads anhand der app_config.xml laufen gelassen -> GPU-Auslastung steigt insgesamt nur etwas und schwankt stärker, Overhead (Speicherauslastung, CPU-Auslastung eines Kerns) steigt.
Gibt es noch irgendeine Stellschraube, so dass ich die (mehr oder weniger) volle GPU-Auslastung bei 4 CPU-Threads erreiche, idealerweise mit einem GPU-Thread?
Gruß
Gerby
denjo
Grand Admiral Special
- Mitglied seit
- 28.12.2005
- Beiträge
- 3.746
- Renomée
- 116
- Standort
- Kellinghusen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PDM <--- sowas gabs mal :(
- Lieblingsprojekt
- all
- Meine Systeme
- Ryzen 7 1700, 3.60GHz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen 9 3900X, 4,1Ghz All Core VID 1.13
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Thermalright Le Grand Macho RT
- Speicher
- Gskill F4-3600C16-8GTZNC -> 4*8 GB 3733Mhz (16-19-19-19-35)
- Grafikprozessor
- 5700XT Nitro+
- Display
- LG UltraGear 27GL850-B
- SSD
- Samsung 970 NVMe 1 TB
- HDD
- Western Digital Blue 4TB + 500 Samsung
- Optisches Laufwerk
- gehören der Vergangenheit an.
- Soundkarte
- Onboard
- Gehäuse
- bequite! PURE BASE 500
- Netzteil
- Enermax Revolution87+ 550 W GOLD -> Thx p3d
- Betriebssystem
- Windows X
- Webbrowser
- Chrome, Firefox
- Verschiedenes
- MEHR POWER ^^
- Internetanbindung
- ▼600 ▲50
einstein benötigt einen freien cpu kern um eine vernünftige gpu auslastung zu erzeugen
4+1Gerby19 schrieb:APU (CPU+GPU): 4+1 oder 3+1?
Cpu-Last 100 %, die Gpu läuft allerdings nur auf äußerster Sparflamme, da sie nur Cpu-Notunterstützung erhält. Die Zeiten für die Gpu-Work sind dann dementsprechend auch Grottenschlecht.
Die Zeiten für die Cpu-Work steigen leicht an.
3+1
Die Cpu-Last sinkt auf etwa 80 %, die Gpu-Work hat jetzt aber optimale Unterstützung durch die Cpu. Der freie Core wäre jetzt mit einer besseren Gpu sehr viel besser auszulasten, da mehr parallel laufen könnte.. Kannst testen, ob 2 Wus parallel auf Deiner Gpu noch effektiv laufen. Ansonsten liegen 9/10 eines Cores leider brach.
Credittechnisch ist die Version 3+1 vorzuziehen, da die GPU-Work in der Regel sehr viel besser honoriert wird.
Zuletzt bearbeitet:
MLMapster
Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 219
- Renomée
- 14
- Mitglied der Planet 3DNow! Kavallerie!
- BOINC-Statistiken
Gilt das auch bei den IGPs? Habe hier Intel Core i5 Ivy bridge mit HD2500.
Muss mann die app_config machen für die genaue Ressourcenzuteilung mit Einstein oder reicht auch im BM einfach "Nutze bei Multiprozessorsystem höchsten - 99% - der Prozessoren"
wo kann man den die IGP/GPU Auslastung ablesen, extra Tool?
Muss mann die app_config machen für die genaue Ressourcenzuteilung mit Einstein oder reicht auch im BM einfach "Nutze bei Multiprozessorsystem höchsten - 99% - der Prozessoren"
wo kann man den die IGP/GPU Auslastung ablesen, extra Tool?
@MLMapster
Das gilt auch für die IGPs. Läuft es nicht optimal, streuen die Laufzeiten auch gewaltig.
Grundsätzlich läuft es auch ohne app_config, sofern das Accountsetting ausreichend ("GPU utilization factor of BRP apps") ist und die Default- Werte für die entsprechende app mit der vorhandenen Grafik stimmig sind.
Der Account reagiert allerdings etwas träge auf Änderungen. Sie gilt erst für neue Gpu-Wus.
Für eine optimale Gpu-Arbeit (egal ob mit oder ohne app_config) ist ein beschränken der Cores über den Boincmanager nur nötig, sofern die Summe aller parallelen Gpu-Arbeiten keinen vollen Cpu-Core ergeben.
Läuft ein Cpu-Projekt allerdings mit hoher Priorität, muß für eine optimale Gpu_Arbeit ein Core gesperrt werden.
Tool für Gpu-Auslastung
GPU-Z 0.7.X
Das gilt auch für die IGPs. Läuft es nicht optimal, streuen die Laufzeiten auch gewaltig.
Grundsätzlich läuft es auch ohne app_config, sofern das Accountsetting ausreichend ("GPU utilization factor of BRP apps") ist und die Default- Werte für die entsprechende app mit der vorhandenen Grafik stimmig sind.
Der Account reagiert allerdings etwas träge auf Änderungen. Sie gilt erst für neue Gpu-Wus.
Für eine optimale Gpu-Arbeit (egal ob mit oder ohne app_config) ist ein beschränken der Cores über den Boincmanager nur nötig, sofern die Summe aller parallelen Gpu-Arbeiten keinen vollen Cpu-Core ergeben.
Läuft ein Cpu-Projekt allerdings mit hoher Priorität, muß für eine optimale Gpu_Arbeit ein Core gesperrt werden.
Tool für Gpu-Auslastung
GPU-Z 0.7.X
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Das ist eine sehr gute Antwort!4+1
Cpu-Last 100 %, die Gpu läuft allerdings nur auf äußerster Sparflamme, da sie nur Cpu-Notunterstützung erhält. Die Zeiten für die Gpu-Work sind dann dementsprechend auch Grottenschlecht.
Die Zeiten für die Cpu-Work steigen leicht an.
3+1
Die Cpu-Last sinkt auf etwa 80 %, die Gpu-Work hat jetzt aber optimale Unterstützung durch die Cpu. Der freie Core wäre jetzt mit einer besseren Gpu sehr viel besser auszulasten, da mehr parallel laufen könnte.. Kannst testen, ob 2 Wus parallel auf Deiner Gpu noch effektiv laufen. Ansonsten liegen 9/10 eines Cores leider brach.
Credittechnisch ist die Version 3+1 vorzuziehen, da die GPU-Work in der Regel sehr viel besser honoriert wird.
Ich nutze vorwiegend 3+1, dass lässt sich besser händeln mit Background (NSA) APPs.
Sightus
Grand Admiral Special
- Mitglied seit
- 01.12.2006
- Beiträge
- 3.072
- Renomée
- 283
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Einige
- Meine Systeme
- Neumodische Taschenrechner mit grafischer Oberfläche
- BOINC-Statistiken
Wie würde denn eine entsprechende app_config aussehen? Ich habe hier nen Server mit 32 Kernen und 1x Ati HD7790. Ich würde gerne den GPU-Last-Anteil maximieren. Kann die GPU mehr als einen Task ausführen?
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Das ist interessant!Für eine optimale Gpu-Arbeit (egal ob mit oder ohne app_config) ist ein beschränken der Cores über den Boincmanager nur nötig, sofern die Summe aller parallelen Gpu-Arbeiten keinen vollen Cpu-Core ergeben.
Läuft ein Cpu-Projekt allerdings mit hoher Priorität, muß für eine optimale Gpu_Arbeit ein Core gesperrt werden.
In deren Forum habe ich irgendwo gelesen, dass der Hintergrund darin besteht, dass OpenCL auf geringerer Priorität läuft und deswegen immer ein Kern frei sein muss, der dann quasi OpenCL füttert.
Ich hatte schon einiges experimentiert, aber gilt das auch, wenn man mehr als eine GPU in einem System hat?
Ich lasse momentan auf je einer von zwei Tahitis 2 WUs parallel laufen (insgesamt 4), die mit aktuellen Einstellungen insgesamt 2 CU Kerne tot legen.
Wäre es also praktisch möglich, trotz der 4 GPU WUs (auf zwei Karten) nur einen Kern zu "verschwenden"?
Die config aktuell:
Code:
<app_config>
<app>
<name>hsgamma_FGRP3</name>
<gpu_versions>
<gpu_usage>1.0</gpu_usage>
<cpu_usage>0.8</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP4G</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP5</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP6</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
</app_config>
Mit nur einer GPU WU ist deren Auslastung jedenfalls viel zu gering und mehr als zwei binden dann noch mehr CPU Kerne.
Gestalte ich die Einstellungen so, dass ich einen Kern freihalte, geht die GPU Auslastung (auf beiden) nicht über 70%. Halte ich zwei frei, sind zeitweise über 90% möglich.
Wie würde denn eine entsprechende app_config aussehen? Ich habe hier nen Server mit 32 Kernen und 1x Ati HD7790. Ich würde gerne den GPU-Last-Anteil maximieren. Kann die GPU mehr als einen Task ausführen?
upps verdammt lang her ....
ist wohl auch längst erledigt
Einstein -- > app_config.xml Ati 7750/7770/7790 (2 Wus)
<app_config>
<app>
<name>einsteinbinary_BRP4G</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP5</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP6</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
</app_config>
<app>
<name>einsteinbinary_BRP4G</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP5</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
<app>
<name>einsteinbinary_BRP6</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>
</app_config>
@cyrusNGC_224
Einstein:
Mit einer Wu pro Gpu (1 cpu/1 gpu) erstmal ermitteln, wie viel Coreunterstützung die Karte überhaupt benötigt (WTaskmanager).
Dann für die Tahiti die effektivste Auslastung ermitteln. Das sind auf jeden Fall mehr als zwei Wus parallel.
Soll nur insgesamt 1 Core (bei 2 Tahitis) geopfert werden, mußt Du auch testen, was dann das optimale Setting in der app_config wäre !
Eventuell ist in dem Fall eine Karte sogar überflüssig !!!
Da bei Einstein momentan die Umstellung von BRP5 (Perseus Arm Survey) auf BRP6 (Parkes PMPS XT) erfolgt, vielleicht noch ein paar Tage mit dem Testen warten. Wegen Betagedöns usw.
Zuletzt bearbeitet:
Soran
Vice Admiral Special
- Mitglied seit
- 16.08.2002
- Beiträge
- 758
- Renomée
- 29
- Aktuelle Projekte
- World Community Grid (eigenes Team) | Diverse Projekte @P3DNow!
- Meine Systeme
- AMD Ryzen 5 5600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- A1181
- Prozessor
- AMD Ryzen 5 5600 @ 4,2GHz
- Mainboard
- ASUS PRIME B350M-A
- Kühlung
- Scythe Kotetsu Mark II
- Speicher
- 32GB Hynix HMA81GU6CJR8N-VK @3200 MHz
- Grafikprozessor
- ZOTAC GeForce® GTX 1070 Ti AMP Extreme
- Display
- LG UltraGear 24GN650-B + ViewSonic VG930m
- SSD
- WD Blue 1TB SN570 NVMe & OCZ AMD Radeon R7 SSD 480GB & WD Blue 500GB
- Optisches Laufwerk
- Extern USB-HP-DVD
- Soundkarte
- Onboard
- Gehäuse
- be quiet! Pure Base 500
- Netzteil
- Seasonic Focus Plus 550W Gold 80 Plus
- Tastatur
- Cherry MX-3850 USB | gewonnen im P3DN-Gewinnspiel! :)
- Maus
- Sharkoon Darkglider
- Betriebssystem
- Windows 10 Pro 64Bit
- Webbrowser
- FF
*ausgrab*
Während des Pentathlons wollte ich eigentlich meinen Athlon 5350 | HD 8400 mitrechnen lassen.
Zunächst musste ich mal den reservierten Speicher für die IGP auf über 512MB anheben (1x4GB insgesamt) und er zog auch artig Units, aber war instant fest.
Neustarts usw. halfen nicht.
Ich musste dann wieder ins BIOS und den Speicher runterstellen, was dann zum Abbruch durch Einstein geführt hat.
Als Mainboard kommt das beliebte ASUS AM1I-A zum Einsatz.
Meine Fragen: braucht der mehr Power? bzw. muss ich mal manuell schauen wieviel Volt da wo landen?
Hab bisher alles @stock gelassen.
Lohnt es am Ende überhaupt von der Laufzeit?
Hat jemand von Euch unter Linux (Mint) einen 5350 am Start und ähnliche Erfahrungen gemacht?
LG Soran
Während des Pentathlons wollte ich eigentlich meinen Athlon 5350 | HD 8400 mitrechnen lassen.
Zunächst musste ich mal den reservierten Speicher für die IGP auf über 512MB anheben (1x4GB insgesamt) und er zog auch artig Units, aber war instant fest.
Neustarts usw. halfen nicht.
Ich musste dann wieder ins BIOS und den Speicher runterstellen, was dann zum Abbruch durch Einstein geführt hat.
Als Mainboard kommt das beliebte ASUS AM1I-A zum Einsatz.
Meine Fragen: braucht der mehr Power? bzw. muss ich mal manuell schauen wieviel Volt da wo landen?
Hab bisher alles @stock gelassen.
Lohnt es am Ende überhaupt von der Laufzeit?
Hat jemand von Euch unter Linux (Mint) einen 5350 am Start und ähnliche Erfahrungen gemacht?
LG Soran
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.858
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Hat jemand von Euch unter Linux (Mint) einen 5350 am Start und ähnliche Erfahrungen gemacht?
Meiner lief auch schon unter Linux Mint 17 ohne Probleme - im Moment aber unter Windows 7 und er hat 8 GB. Er rechnet normaler weise 3 x yoyo (CPU) und 2 x Collatz Solo (GPU).
Laut Collatz stehen 762MB als GPU Speicher zur Verfügung. Guthaben bisher 8,069,333. Einstein beim Pentathlon hat er auch geknuspert
UMA Frame Buffer Size steht auf Auto.
PS. der lief auch so einwandfrei mit 4 GB.
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Ich habe die sowohl unter Linux (alles Debian Jessie) als auch unter Win 8.1 mit 4 GB und 8 GB laufen. Bisher eine sehr stabile Plattform (gab schon mal Hänger, aber das hing u.a. an festgefahrenen Apps). Je nach Board sind die sogar bis 2,4 GHz übertaktet - keine Probleme bisher.
Eventuell ist bei Dir etwas defekt; Speicher?
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste. Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).
Eventuell ist bei Dir etwas defekt; Speicher?
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste. Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).
Soran
Vice Admiral Special
- Mitglied seit
- 16.08.2002
- Beiträge
- 758
- Renomée
- 29
- Aktuelle Projekte
- World Community Grid (eigenes Team) | Diverse Projekte @P3DNow!
- Meine Systeme
- AMD Ryzen 5 5600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- A1181
- Prozessor
- AMD Ryzen 5 5600 @ 4,2GHz
- Mainboard
- ASUS PRIME B350M-A
- Kühlung
- Scythe Kotetsu Mark II
- Speicher
- 32GB Hynix HMA81GU6CJR8N-VK @3200 MHz
- Grafikprozessor
- ZOTAC GeForce® GTX 1070 Ti AMP Extreme
- Display
- LG UltraGear 24GN650-B + ViewSonic VG930m
- SSD
- WD Blue 1TB SN570 NVMe & OCZ AMD Radeon R7 SSD 480GB & WD Blue 500GB
- Optisches Laufwerk
- Extern USB-HP-DVD
- Soundkarte
- Onboard
- Gehäuse
- be quiet! Pure Base 500
- Netzteil
- Seasonic Focus Plus 550W Gold 80 Plus
- Tastatur
- Cherry MX-3850 USB | gewonnen im P3DN-Gewinnspiel! :)
- Maus
- Sharkoon Darkglider
- Betriebssystem
- Windows 10 Pro 64Bit
- Webbrowser
- FF
Meiner lief auch schon unter Linux Mint 17 ohne Probleme - im Moment aber unter Windows 7 und er hat 8 GB. Er rechnet normaler weise 3 x yoyo (CPU) und 2 x Collatz Solo (GPU).
Laut Collatz stehen 762MB als GPU Speicher zur Verfügung. Guthaben bisher 8,069,333. Einstein beim Pentathlon hat er auch geknuspert
UMA Frame Buffer Size steht auf Auto.
PS. der lief auch so einwandfrei mit 4 GB.
Ich stell das nochmal manuell um, bei "Auto" sind 472MB oder so reserviert.
4GB sollten auch locker reichen.
Ich habe die sowohl unter Linux (alles Debian Jessie) als auch unter Win 8.1 mit 4 GB und 8 GB laufen. Bisher eine sehr stabile Plattform (gab schon mal Hänger, aber das hing u.a. an festgefahrenen Apps). Je nach Board sind die sogar bis 2,4 GHz übertaktet - keine Probleme bisher.
Eventuell ist bei Dir etwas defekt; Speicher?
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste. Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).
Defekt? Nee, hatte bisher immer Glück, das schließe ich mal aus.
Ja, das mit dem Kern ist so ein Ding.
Milkyway läuft noch nicht, wegen der CAL Geschichte (obwohl es ja über OpenCL läuft) bzw. muss ich da wohl nochmal die app_info anschauen.
Danke erstmal, ich melde mich dann mal mit Ergebnissen.
Vermutlich ist auf demselben Core eine Cpu-Work mitgelaufen. Eine Ati 5750 macht bei dem Setting nur alle paar Sekunden 0,001 Prozent (Parkes).Soran schrieb:Während des Pentathlons wollte ich eigentlich meinen Athlon 5350 | HD 8400 mitrechnen lassen.
Zunächst musste ich mal den reservierten Speicher für die IGP auf über 512MB anheben (1x4GB insgesamt) und er zog auch artig Units, aber war instant fest.
Neustarts usw. halfen nicht.
Die Kalindi im Einsatz bei Einstein (mit Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11381380
Olle Kalesche schrieb:...
Wie ich erwähnte , ich hab' die IGP des Athlon 5350 (Kalindi) im Linux Mint 17 zum Laufen gebracht.
Wenn ich mich recht erinnere (habe Linux z.Zt. nicht laufen) meldete der Boinc-Start in etwa
knapp 100 GFLOPS peak für die Kalindi.
...
Falls Du zukünftig bei Einstein oder Seti einsteigen möchtest, wirst Du um eine Zusatzkarte nicht herumkommen. Da ist die Kalindi einfach zu schwach.
Die CapVerde laufen ganz vernünftig bei diesen beiden Projekten. Du hast ja eine Bonaire als Orientierungshilfe in einem Deiner Systeme.
OpenCl braucht bei diesen beiden Projekten für ein optimales Arbeiten aber immer einen freien Core zur Unterstützung.
Oder Du gehst auf Cuda. Die NVIDIA GeForce GTX 750 Ti ist bei Einstein auf der Stärke einer Bonaire, bei Seti allerdings deutlich überlegen. Und das bei gleichzeitiger Nutzung des Cores durch ein Cpu Projekt.
AMD Athlon(tm) II X2 mit NVIDIA GeForce GTX 750 Ti
Zur Zeit laufen 2 X Universe@home + 3 Einstein (Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11144667
Auf der Intel(R) HD Graphics 4600 (1297MB) laufen bei Einstein:
Binary Radio Pulsar Search (Parkes PMPS XT)
[einsteinbinary_BRP6]
Intel iGpu* ab HD 4000 möglich (Betastatus muß im Einsteinaccount aktiviert werden)
und die
Binary Radio Pulsar Search (Arecibo)
[einsteinbinary_BRP4]
Intel iGpu* ab HD 2500
nur für Win
Technical News : Support for (integrated) Intel GPUs (Ivy Bridge and later) :
http://einstein.phys.uwm.edu/forum_thread.php?id=10215
Problems and Bug Reports : BRP4 Intel GPU app feedback thread:
http://einstein.phys.uwm.edu/forum_thread.php?id=10214
*Intel iGpu (driver: 10.18.10.3621)
Zuletzt bearbeitet:
Soran
Vice Admiral Special
- Mitglied seit
- 16.08.2002
- Beiträge
- 758
- Renomée
- 29
- Aktuelle Projekte
- World Community Grid (eigenes Team) | Diverse Projekte @P3DNow!
- Meine Systeme
- AMD Ryzen 5 5600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- A1181
- Prozessor
- AMD Ryzen 5 5600 @ 4,2GHz
- Mainboard
- ASUS PRIME B350M-A
- Kühlung
- Scythe Kotetsu Mark II
- Speicher
- 32GB Hynix HMA81GU6CJR8N-VK @3200 MHz
- Grafikprozessor
- ZOTAC GeForce® GTX 1070 Ti AMP Extreme
- Display
- LG UltraGear 24GN650-B + ViewSonic VG930m
- SSD
- WD Blue 1TB SN570 NVMe & OCZ AMD Radeon R7 SSD 480GB & WD Blue 500GB
- Optisches Laufwerk
- Extern USB-HP-DVD
- Soundkarte
- Onboard
- Gehäuse
- be quiet! Pure Base 500
- Netzteil
- Seasonic Focus Plus 550W Gold 80 Plus
- Tastatur
- Cherry MX-3850 USB | gewonnen im P3DN-Gewinnspiel! :)
- Maus
- Sharkoon Darkglider
- Betriebssystem
- Windows 10 Pro 64Bit
- Webbrowser
- FF
Vermutlich ist auf demselben Core eine Cpu-Work mitgelaufen. Eine Ati 5750 macht bei dem Setting nur alle paar Sekunden 0,001 Prozent (Parkes).
Die Kalindi im Einsatz bei Einstein (mit Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11381380
Falls Du zukünftig bei Einstein oder Seti einsteigen möchtest, wirst Du um eine Zusatzkarte nicht herumkommen. Da ist die Kalindi einfach zu schwach.
Die CapVerde laufen ganz vernünftig bei diesen beiden Projekten. Du hast ja eine Bonaire als Orientierungshilfe in einem Deiner Systeme.
OpenCl braucht bei diesen beiden Projekten für ein optimales Arbeiten aber immer einen freien Core zur Unterstützung.
Danke für die ausführliche Antort.
Ok, dann denke ich mal bleibt der 5350 CPU-only. Bin ja froh das der im Antec ISK-150 "wenig" schluck @24/7.
Oder Du gehst auf Cuda. Die NVIDIA GeForce GTX 750 Ti ist bei Einstein auf der Stärke einer Bonaire, bei Seti allerdings deutlich überlegen. Und das bei gleichzeitiger Nutzung des Cores durch ein Cpu Projekt.
AMD Athlon(tm) II X2 mit NVIDIA GeForce GTX 750 Ti
Zur Zeit laufen 2 X Universe@home + 3 Einstein (Parkes)
http://einstein.phys.uwm.edu/results.php?hostid=11144667
Interessant das du NV ansprichst, ich hab ne 560 Ti geschenkt bekommen, will die aber nicht in meinem Haupsystem haben (GPU, DP schlechter als die Bonaire).
Im Athlon-Sys passt die mir auch nicht so ins Konzept (dazu mehr hier).
Auf der Intel(R) HD Graphics 4600 (1297MB) laufen bei Einstein:
Binary Radio Pulsar Search (Parkes PMPS XT)
[einsteinbinary_BRP6]
Intel iGpu* ab HD 4000 möglich (Betastatus muß im Einsteinaccount aktiviert werden)
und die
Binary Radio Pulsar Search (Arecibo)
[einsteinbinary_BRP4]
Intel iGpu* ab HD 2500
nur für Win
Technical News : Support for (integrated) Intel GPUs (Ivy Bridge and later) :
http://einstein.phys.uwm.edu/forum_thread.php?id=10215
Problems and Bug Reports : BRP4 Intel GPU app feedback thread:
http://einstein.phys.uwm.edu/forum_thread.php?id=10214
*Intel iGpu (driver: 10.18.10.3621)
Ok, dann kann ich ja die WS @work noch mehr quälen! Wobei die schon ganz schön warm wird...
Zuletzt bearbeitet:
Die Ati 7750 (CapVerde) und die Nvidia 750 TI liegen maximal bei 55 Watt bzw 60 Watt.
Die Nvidia 560 TI liegt bei max. 170 Watt. Die 320 bit verbrät gar bis max. 210 Watt.
http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html
Die Nvidia 560 TI liegt bei max. 170 Watt. Die 320 bit verbrät gar bis max. 210 Watt.
http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html
In dem Fall sind keine Änderungen nötig.cyrusNGC_224 schrieb:...
Für Einstein lohnt die IGP meiner Meinung nicht, da auch ein Kern mit frei gemacht werden müsste.
Für Projekte ohne diese Bedingung eignet die sich jedoch sehr gut (Milkyway, Collatz, ...).
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 8
- Aufrufe
- 23K
- Antworten
- 0
- Aufrufe
- 52K
- Antworten
- 0
- Aufrufe
- 71K
- Antworten
- 3K
- Aufrufe
- 537K