App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Teraflops daheim. Enttäuscht oder begeistert?
- Ersteller HalbeHälfte
- Erstellt am
@Cmdr_Zod
Wenn das alles klappt, sie ihn also im verhältnis so boosten lassen wie den 3300X, und sowas überhaupt kommt, wird der 4300X aber richtig cool sein. Ich bin da langsam heiss drauf
Der könnte dann aber möglicherweise nicht mehr besser performen als ein hexa-Core seiner Generation.
Bei der nächsten Generation soll der CCX von 4 auf 8 Cores erweitert werden, das heisst es entfallen dann allfällige Leistungseinbussen durch die Inter-CCX-Kommunikation bei mehr als 4 Kernen (oder bei 2+2 Kernen auf einem CCX, wie beim Ryzen 3 3100).
@Cmdr_Zod
Für den PC tätigt man NIEMALS "Investitionen in die Zukunft" Man kauf was man grad gut gebrauchen kann.
Also so absolut ist das definitiv falsch.
Beim Netzteil achten viele drauf dass es nicht nur knapp reicht (und nicht nach zwei Jahren stirbt, weils das günstigste ist wo 500W drauf steht), falls man mal die Grafikkarte aufrüsten will, beim Speicherplatz schaut man dass er nicht gleich 90% voll ist. Bei der CPU oder beim Board sollte man sich auch überlegen wie lange das halten soll, oder ob man allenfalls in der Zukunft aufrüstet.
Klar, ich würde jetzt niemandem dazu raten ein E-ATX Dual-Sockel-Board zu kaufen, und erst mal nur nen kleinen Epyc reinzustecken, weil das ja im Moment reicht, aber ein kleines bisschen sollte man schon in die Zukunft schauen, oder sich halt bewusst dafür entscheiden, dass man wirklich gar nichts machen kann (Das sind dann die Apple-Kunden ).
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Hängt glaub ich so bisschen von der "in die Zukunft" Definition ab Zu weit nach Vorn sollte man halt nicht schauen.
Shai Hulud
Grand Admiral Special
- Mitglied seit
- 02.04.2007
- Beiträge
- 4.853
- Renomée
- 453
- Aktuelle Projekte
- WCG, Rosetta, Einstein, Universe
- Lieblingsprojekt
- WCG
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 3950X // AMD Ryzen 5 2400G
- Mainboard
- ASRock B450M-HDV 4.0 // ASRock A320M-HDV
- Kühlung
- Enermax N31 // Boxed
- Speicher
- 2x 16GB DDR4-3200 G.Skill // 2x 8GB DDR4-3200 G.Skill
- Grafikprozessor
- MSI Aero ITX RX 560 // APU
- Display
- ASUS 27" VA27EHE // V7 24"
- SSD
- 1TB Western Digital Blue NVMe // 500GB Kingston A2000 NVMe
- HDD
- 2TB + 3TB 5400rpm // 1TB 5400rpm
- Optisches Laufwerk
- N.A. // LG Blu-Ray Combo
- Soundkarte
- OnBoard // OnBoard
- Gehäuse
- Sharkoon VG4-W Blau // Cube
- Netzteil
- Be Quiet! Pure Power 11 400W // Be Quiet! Pure Power 11 300W
- Betriebssystem
- Windows 10 Professional 64bit // Windows 10 Professional 64bit
- Webbrowser
- Chrome // Chrome
- Internetanbindung
- ▼200 MBit ▲40 MBit
Bin mir nicht sicher, ob ich den Ausgangsthread korrekt erfasst habe, aber mir ist vor Jahren schon aufgefallen, dass die Hardware der Software hinterherhechelt. Ist dir zu lahm? Dann kauf doch nen besseren PC, Du Opfer!
Als ich anfing, selber zu programmieren, hat man sich noch die Mühe gemacht und den Code optimiert. Einzelne Prozeduren in ASM. Musste ja auch auf eine Diskette passen ^^ Die Software musste ja auch auf der vorhandenen (damals ja noch extrem teuren) Hardware lauffähig sein.
Heute wird mit Octacore und mehr geprahlt, die ein deutliches Leistungsplus vorgaukeln, aber kaum von üblicher Software ausgenutzt werden.
Als ich anfing, selber zu programmieren, hat man sich noch die Mühe gemacht und den Code optimiert. Einzelne Prozeduren in ASM. Musste ja auch auf eine Diskette passen ^^ Die Software musste ja auch auf der vorhandenen (damals ja noch extrem teuren) Hardware lauffähig sein.
Heute wird mit Octacore und mehr geprahlt, die ein deutliches Leistungsplus vorgaukeln, aber kaum von üblicher Software ausgenutzt werden.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Das Prob ist ja eben, daß dir "besserer PC" auch nicht wirklich was bringt, in all diesen Fällen. Die echte Leistung haben in der letzten Zeit die SSDs gebracht. Die CPUs weniger. Da kam es nachwievor auf IPC und die ist auch seit Sandy und gar Ivy immernoch ordentlich gestiegen (allgemein, bei AMD ist sie halt ausserordentlich gestiegen, aber die hatten auch einiges aufzuholen...), aber Welten ist was anderes.
Die Skalierung der Software in die Breite - also das was sich wirklich signifikant steigert - ist schon sehr mager. Es fehlen Teil die Ideen, teils einfach nur Wissen und Lust.
Auch bei der klaren Kommerz leider.
Puget scripted sich z.B. recht tief durch die Soft von Adobe. Auch wenn nur strikt nach Datenblättern. Sprich, sie haben imho nie einen Sandy mit >1333 Speicher getestet. gut, wie dem auch sie, wenn man bisschen Ahnung hat kann man sich das halbwegs grob normieren.
Das Schöne bei denen ist, daß sie z.B. bei Photoshop/Lightroom die Leistung nicht nur über stumpfsinnige Batches erfassen möchten (Konvertieren/Speichern), sondern kleinwenig auch das reale Arbeiten abbilden möchten schon einen 3770k/4.45 mit Speicher nah 2000 und brauchbaren Timings nimmt (2012) - oder auch aktueller einfach einem 3300X - mit den vermeindlichen Hochleistungssystemen ab ~2019 (!) bis heute vergleicht. 45% sind da schon ein Wow.
Auch wenn man für seine Workloads nur zu wenig Speicher hat bzw. hatte, schon 2011 gingen die heimischen Platformen bis 32GB.
GPGPU dagegen, die in gleicher Generation ab Midrange eben vieles mind. "mehrfach" schneller kann als die CPUs im obersten 1/3, und auch genau das woran CPUs sich sonst am meisten abrackern, ist auch weiterhin eine Nische innerhalb einer Nische.
Nicht die Hardware hechelt also der Software hinterher, sondern klar umgekehrt.
Die Skalierung der Software in die Breite - also das was sich wirklich signifikant steigert - ist schon sehr mager. Es fehlen Teil die Ideen, teils einfach nur Wissen und Lust.
Auch bei der klaren Kommerz leider.
Puget scripted sich z.B. recht tief durch die Soft von Adobe. Auch wenn nur strikt nach Datenblättern. Sprich, sie haben imho nie einen Sandy mit >1333 Speicher getestet. gut, wie dem auch sie, wenn man bisschen Ahnung hat kann man sich das halbwegs grob normieren.
Das Schöne bei denen ist, daß sie z.B. bei Photoshop/Lightroom die Leistung nicht nur über stumpfsinnige Batches erfassen möchten (Konvertieren/Speichern), sondern kleinwenig auch das reale Arbeiten abbilden möchten schon einen 3770k/4.45 mit Speicher nah 2000 und brauchbaren Timings nimmt (2012) - oder auch aktueller einfach einem 3300X - mit den vermeindlichen Hochleistungssystemen ab ~2019 (!) bis heute vergleicht. 45% sind da schon ein Wow.
Auch wenn man für seine Workloads nur zu wenig Speicher hat bzw. hatte, schon 2011 gingen die heimischen Platformen bis 32GB.
GPGPU dagegen, die in gleicher Generation ab Midrange eben vieles mind. "mehrfach" schneller kann als die CPUs im obersten 1/3, und auch genau das woran CPUs sich sonst am meisten abrackern, ist auch weiterhin eine Nische innerhalb einer Nische.
Nicht die Hardware hechelt also der Software hinterher, sondern klar umgekehrt.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi
naja so ganz kommt das halt nur hin wenn du ihn dem begrenzen Sichtfeld auch nur schaust.
Wenn du dir mal Boinc anschaust sieht das schon ganz anders aus. da ist die Leistung deines 2012 PCs
heute nicht mal mehr nen laues Lüftchen, und über Effizienz wollen wir da auch nicht sprechen.
Aber bleiben wir mal bei Kommerziellen Programmen da darfst du dann erstmal am Besten auf Linux setzen um
deine Leistung auszuspielen, den oh wunder es gibt Programme die Können auch mehrkerne richtig nutzen.
Habe einiges mit Catia am Rande zu tun und da ist es schon sichtbar ob du ne Workstation 2012 oder 2020 hast,
Aber jetzt in Zeiten der Cloud kannst das auch wieder vergessen da jeder ständig irgendwas ins netz senden muss.
Gleiches gilt für die browser, schalte mal nen Proxy vor deinen Rechner und filtere alle 3party raus , bekomme aber
keinen geschwindigkeitsrausch das nur noch albern was heutzutage so läuft ….
lg
naja so ganz kommt das halt nur hin wenn du ihn dem begrenzen Sichtfeld auch nur schaust.
Wenn du dir mal Boinc anschaust sieht das schon ganz anders aus. da ist die Leistung deines 2012 PCs
heute nicht mal mehr nen laues Lüftchen, und über Effizienz wollen wir da auch nicht sprechen.
Aber bleiben wir mal bei Kommerziellen Programmen da darfst du dann erstmal am Besten auf Linux setzen um
deine Leistung auszuspielen, den oh wunder es gibt Programme die Können auch mehrkerne richtig nutzen.
Habe einiges mit Catia am Rande zu tun und da ist es schon sichtbar ob du ne Workstation 2012 oder 2020 hast,
Aber jetzt in Zeiten der Cloud kannst das auch wieder vergessen da jeder ständig irgendwas ins netz senden muss.
Gleiches gilt für die browser, schalte mal nen Proxy vor deinen Rechner und filtere alle 3party raus , bekomme aber
keinen geschwindigkeitsrausch das nur noch albern was heutzutage so läuft ….
lg
GPGPU dagegen, die in gleicher Generation ab Midrange eben vieles mind. "mehrfach" schneller kann als die CPUs im obersten 1/3, und auch genau das woran CPUs sich sonst am meisten abrackern, ist auch weiterhin eine Nische innerhalb einer Nische.
Ich kenne mich in dem GPGPU-Bereich zu wenig aus, wie gut ist da die Verbreitung und die Standardisierung?
Vom GPU-Bereich weiss ich nur, dass es ein Wetteifern zwischen CUDA und OpenCL gab, und dass der Suppport z.B. unter Linux auch nicht immer so toll war (oder noch ist, wie gesagt, GPGPU hat mich meines Wissens nie betroffen).
Bei den CPUs kann man 64bit, SMP, SSE2/3/4/ oder AVX ab einer bestimmten Generation voraussetzten und die Software entsprechend programmieren/kompilieren.
Wie ist das bei GPUs, kann der Softwareentwickler eine einheitliche Baseline voraussetzen, oder muss er immer alternativ-Code als Fallback mitschleppen und pflegen?
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.264
- Renomée
- 1.851
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
OpenCL kann man schon als universell nutzbar ansehen.Ich kenne mich in dem GPGPU-Bereich zu wenig aus, wie gut ist da die Verbreitung und die Standardisierung?
Vom GPU-Bereich weiss ich nur, dass es ein Wetteifern zwischen CUDA und OpenCL gab, und dass der Suppport z.B. unter Linux auch nicht immer so toll war (oder noch ist, wie gesagt, GPGPU hat mich meines Wissens nie betroffen).
Bei den CPUs kann man 64bit, SMP, SSE2/3/4/ oder AVX ab einer bestimmten Generation voraussetzten und die Software entsprechend programmieren/kompilieren.
Wie ist das bei GPUs, kann der Softwareentwickler eine einheitliche Baseline voraussetzen, oder muss er immer alternativ-Code als Fallback mitschleppen und pflegen?
Aber wenn man mit aktueller CUDA-Version loslegt und das gut optimiert ist, dann lässt es OpenCL in manchen Fällen einfach stehen.
Inzwischen beginne ich zu ahnen, was der Nachteil von zu vielen Kernen ist. Meine Office-Maschine ist einfach mal lahm. Ich hatte letztendlich 4 Threads und 6GB Speicher auf einem dicken Xeon@2,5GHz zusammen mit zig anderen Kollegen als VM. Nach diversen Beschwerden sind es nun 8 Threads. Logischerweise hat das keine Besserung gebracht, weil Excel, Word und PDF-Murks nur auf einem Kern laufen. Da würde ich mir die hochgetakteten Epyc-CPUs wünschen, die AMD neulich vorgestellt hat.
Woodstock
Grand Admiral Special
- Mitglied seit
- 04.05.2002
- Beiträge
- 9.816
- Renomée
- 246
- Standort
- Somewhere in Oberfranken
- Mein Laptop
- Lenovo T460
- Prozessor
- I7-5960x
- Mainboard
- Gigabyte GA X99 UD4
- Kühlung
- Arctic Liquid Freezer II 280
- Speicher
- 8x 8GB Corsair Venegance DDR4 2666
- Grafikprozessor
- Sapphire Nitro+ RX 480 8G D5 OC, 8GB GDDR5 (11260-01-20G)
- Display
- 2x LG 24EB23 24" 16:10 TFT/ Sony SDM-HS94 19" 5:4 TFT
- SSD
- Samsung 970 EVO Plus 250GB NVME für OS, Samsung 860 QVO 1TB für Bilder und MP3
- HDD
- 2x 3TB Seagate, 1x 2TB WD
- Optisches Laufwerk
- Asus BR Brenner, Pioneer BR Brenner
- Soundkarte
- Onoard
- Gehäuse
- Nanoxia Deep Silence 6 Anthrazit
- Netzteil
- be quiet! System Power 9 CM 600W
- Tastatur
- Zu alt
- Maus
- Auch zu alt
- Betriebssystem
- Windows 10 64
- Webbrowser
- Firefox / Chrome / IE
Also zumindest Excel hat ne Option das es mehrere Kerne nutzen kann. Aber in einer VM kommst dann drauf an wie viele Kerne der VM zugewiesen sind.
Was nutzt eine 64 Core VMware Server wenn sie den einzelnen VMs immer nur einen virtuellen Kern zuteilt.
Ich habe auf meiner Kiste auch hin und wieder mal eine VM am laufen. Der habe ich 2 Kerne und 8 GB zugeteilt. Solange der Container auf einer SSD liegt fällts noch nicht mal auf das das ne VM ist. Also zumindest bei dem Kram für den ich die VM nutze.
Was nutzt eine 64 Core VMware Server wenn sie den einzelnen VMs immer nur einen virtuellen Kern zuteilt.
Ich habe auf meiner Kiste auch hin und wieder mal eine VM am laufen. Der habe ich 2 Kerne und 8 GB zugeteilt. Solange der Container auf einer SSD liegt fällts noch nicht mal auf das das ne VM ist. Also zumindest bei dem Kram für den ich die VM nutze.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
JA, schon klar. Und ihm erweiterten sichtfeld taucht Boinc auf. "mega"Hi
naja so ganz kommt das halt nur hin wenn du ihn dem begrenzen Sichtfeld auch nur schaust
Das ist ok. auch Solidworks ist ok. Nur von Daheim aus gesehen ist auch das eine Nische in einer Nische. Selbst wen die halbe oder 3/4 der Industrie das nutzt, oder gar alle die irgendetwas konstruieren, ist das auf dem HeimPC auf die Anzahl aller HiemPCs nicht mal im Promillenbereich. Boinc und Catia machen den Calmund nicht im geringsten fett...Habe einiges mit Catia am Rande zu tun und da ist es schon sichtbar ob du ne Workstation 2012 oder 2020 hast
Sowas läuft hier längst. Schon aber alleine mit NoScript kommt einem eine 16Mbit Leitung wie bei anderen eine 25er... Ja. Das ist wahrlich ein richtig übler Scherz dieser Dreck. Nur halt OTGleiches gilt für die browser, schalte mal nen Proxy vor deinen Rechner und filtere alle 3party raus , bekomme aber
keinen geschwindigkeitsrausch das nur noch albern was heutzutage so läuft ….
@Cmdr_Zod
Befehlssätze sind weniger wichtig, weils keine gibt OpenCL und "Shader-Modell" haben ihre Versionen und ihren Funktionsset und das ist der Rahmen. Fertig.
Alles was man für schöner wohnen daheim gebrauchen könnte, ist ab OpenGL4 und OpenCL1.2 dabei. Das Problem dabei ist aber die Programmierung. Cuda kommt nicht grundsätzlich wegen der Leistung an, sondern wegen der Programmierbarkeit und der Tools. Du hast für Cuda, Cuda Fortran und Cuda C. Und das wars schon für OpenCL.
Jedenfalls für so Leute die z.B. einen netten Bildanzeiger programmieren und sich überlegen, man könnte die Vorschauen (Thumbs) 4x so schnell machen lassen, wenn die Graaka das mal machen würde (was ja geht). Das ist aber für einen ASM/C Programmierer in etwa wie für einen Fußballultra, das erste mal in einem Baseballstadion zu sitzen... Das hat NV schon sehr früh verstanden.
Khronos dagegen konnte sich dagegen erst mit Intels Geld in diese Richtung bewegen. Quasi jetzt erst. Also seit Vulcan bzw. OpenCL 2.1 + Spir(-V). Da gibt es nun auch, sozusagen, Frontends für Fortran und C.
Wer macht aber, und was davon hat einen sinnvollen Nutzen, was in Freeware oder Shareware sogar in Cuda? Das ist auch sehr sehr wenig. Die meisten Rechner diesser Welt nutzen die GPU in einer Intel AMD CPU. Cuda kommt also da meist wirklich zur Geltung, wo die Wissenschaft oder die Industrie sich dicke Eisen mit Teslas hinstellt.
Ob Cuda OpenCL also verhaut oder nicht, davon hat man daheim auch kaum etwas.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi,
das doch genau das Problem heute, wer nimmt sich den die Zeit noch zu optimieren?
Wobei dein Bsp. nicht wirklich schneller ist wie mit der CPU wenn du mal Optionen nutzen würden
den Job ehr nach Queue als nach fertig zu bauen, den die CPU wartet bei sowas eigentlich immer auf das
IO …
Wenn man sich bsp. anschaut von Software wie schlank es sein kann und wie schlimm es ist, man CRM Programme
sind da nen tolles Bsp. begleite seit über 20Jahren den Bereich und haben vor Jahren mal Spaß halber ne Effizienz Rechnung gemacht
um wieviel Langsamer die System pro Event geworden sind das darf man keinen sagen. Und warum weil Cloud weil Standard interface
weil Smart sein muss aber das man gut mit arbeiten kann und nicht bei jedem Click 10+sek wartet das interessiert keinen …
Von daher geht in vielen Bereichen der Software Entwicklung der Rückschritt seit Jahren weiter ...
lg
das doch genau das Problem heute, wer nimmt sich den die Zeit noch zu optimieren?
Wobei dein Bsp. nicht wirklich schneller ist wie mit der CPU wenn du mal Optionen nutzen würden
den Job ehr nach Queue als nach fertig zu bauen, den die CPU wartet bei sowas eigentlich immer auf das
IO …
Wenn man sich bsp. anschaut von Software wie schlank es sein kann und wie schlimm es ist, man CRM Programme
sind da nen tolles Bsp. begleite seit über 20Jahren den Bereich und haben vor Jahren mal Spaß halber ne Effizienz Rechnung gemacht
um wieviel Langsamer die System pro Event geworden sind das darf man keinen sagen. Und warum weil Cloud weil Standard interface
weil Smart sein muss aber das man gut mit arbeiten kann und nicht bei jedem Click 10+sek wartet das interessiert keinen …
Von daher geht in vielen Bereichen der Software Entwicklung der Rückschritt seit Jahren weiter ...
lg
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Naja... GPU zu nutzen ist nicht gleich optimieren. Eher das gleiche Problem mit einer anderen Lösung erledigen.
Das Beispiel mit den Thumbs ist schon ok. Adobe ist auf diese glorreiche Idee auch mal gekommen und hat, natürlich nach genug Tests, das vor kurzem in Lightroom eingebaut. Das ist schon um einiges schneller. Nutze ich zwar nicht (wegen Abo), aber anschauen konnte ich mir das schon.
ACDSee meine ich nutzt für Jpeg2000 (Vorschauen) irgendeine Lib die sie sich extern angelacht haben, was in Cuda geschrieben ist (ergo optional), und das war 2015 auf gleichem Rechner 600 MAL schneller bei den Thumbs als das beste was man für XnView einbinden konnte. Das war zum Zeitpunkt imho noch Maxwell, kein Pascal...
Damit kann man auch heute einen Epyc 7H12 trotz AVX-code mit einem einzigen Nackenschlag auf die Bretter schicken. Heute würde man für Cuda daheim aber vielleicht eher eine schlichte 1660 nehmen.
AVX ist nett, so in etwa 25% bis ~60% schneller als SSE 4.2 meine ich. Das hilft aber beim obigen Beispiel auch nicht viel. Selbst wenn man die CPUs dazu bringt sich bei AVX nicht runterzutakten
Das Beispiel mit den Thumbs ist schon ok. Adobe ist auf diese glorreiche Idee auch mal gekommen und hat, natürlich nach genug Tests, das vor kurzem in Lightroom eingebaut. Das ist schon um einiges schneller. Nutze ich zwar nicht (wegen Abo), aber anschauen konnte ich mir das schon.
ACDSee meine ich nutzt für Jpeg2000 (Vorschauen) irgendeine Lib die sie sich extern angelacht haben, was in Cuda geschrieben ist (ergo optional), und das war 2015 auf gleichem Rechner 600 MAL schneller bei den Thumbs als das beste was man für XnView einbinden konnte. Das war zum Zeitpunkt imho noch Maxwell, kein Pascal...
Damit kann man auch heute einen Epyc 7H12 trotz AVX-code mit einem einzigen Nackenschlag auf die Bretter schicken. Heute würde man für Cuda daheim aber vielleicht eher eine schlichte 1660 nehmen.
AVX ist nett, so in etwa 25% bis ~60% schneller als SSE 4.2 meine ich. Das hilft aber beim obigen Beispiel auch nicht viel. Selbst wenn man die CPUs dazu bringt sich bei AVX nicht runterzutakten
Zuletzt bearbeitet:
burki_pdm
Commander
- Mitglied seit
- 18.07.2008
- Beiträge
- 180
- Renomée
- 6
- Standort
- Potsdam
- BOINC-Statistiken
- Prozessor
- Ryzen 5 3600
- Mainboard
- MSI B450 Gaming Plus Max
- Kühlung
- Arctic Freezer 34 Esports DUO
- Speicher
- 4x 8 gb Crucial Ballistix Sport DDR 4 3200 SR
- Grafikprozessor
- KFA2 GTX 1660 Super 1click Oc
- Display
- 24" Acer CB241H
- SSD
- Samsung SSD 860 Evo, Crucial MX 500, M.2 NVME Kingston A 2000
- HDD
- 2 TB Seagate HD
- Optisches Laufwerk
- Lite-On IHOS BD-Rom
- Soundkarte
- Creative Labs X-Fi Titanium Fatality Champion
- Gehäuse
- BeQuiet Puse Base 600 Orange, Glas
- Netzteil
- BeQuiet Pure Power 11 500 CM
- Maus
- Steelseries Kinzu V2 MSI Edition (älteres Baujahr)
- Betriebssystem
- Windows 10 Pro, Linux Manjaro / KDE
- Webbrowser
- Firefox, MS Edge, Chrome
- Internetanbindung
- ▼100 mbit ▲40 mbit
Ich glaube, das viele Leute immer die Software unpassend für viele Kerne halten. Oftmals natürlich mit Recht, weil es oft so ist. Aber eben nicht immer.
Der gemeine Nutzer wie ich, der braucht doch garkeine einzelne Software, die mit 16 Kernen und 32 Threads skaliert. Weil ich weder soviele Kerne habe, noch eine einzelne Software nutze, die sowas überhaupt bräuchte.
Ich nutze nun 6K/12T und finde das schon sehr viel besser, als noch vor Jahren Single- oder Dualcore. Heute schaue ich kaum noch, wieviele Tabs ich offen habe, was alles zusammen läuft. Da der Webbrowser, dazu noch ein Musicplayer. Nebenher packe ich etwas und lese Mails. Also für mich sind mehr Kerne als ich früher hatte durchaus positiv. Eben nicht wegen einer speziellen Software, sondern wegen vielen Dingen, die gleichzeitig gemacht werden. Mit 4 Kernen geht das auch, aber ich finde mit 6 und SMT sehr viel besser.
Viele die nun meckern, nutzen eher ein spezielles Programm. Zum Video bearbeiten oder ähnlichen und denken, früher mit 4 Kernen hat das eine Stunde gedauert mit 16 darf es doch nicht mehr als 15 min dauern. Das liegt dann wirklich an der Software. Aber man kann eben auch nicht alles ins unendliche paralelisieren.
Der gemeine Nutzer wie ich, der braucht doch garkeine einzelne Software, die mit 16 Kernen und 32 Threads skaliert. Weil ich weder soviele Kerne habe, noch eine einzelne Software nutze, die sowas überhaupt bräuchte.
Ich nutze nun 6K/12T und finde das schon sehr viel besser, als noch vor Jahren Single- oder Dualcore. Heute schaue ich kaum noch, wieviele Tabs ich offen habe, was alles zusammen läuft. Da der Webbrowser, dazu noch ein Musicplayer. Nebenher packe ich etwas und lese Mails. Also für mich sind mehr Kerne als ich früher hatte durchaus positiv. Eben nicht wegen einer speziellen Software, sondern wegen vielen Dingen, die gleichzeitig gemacht werden. Mit 4 Kernen geht das auch, aber ich finde mit 6 und SMT sehr viel besser.
Viele die nun meckern, nutzen eher ein spezielles Programm. Zum Video bearbeiten oder ähnlichen und denken, früher mit 4 Kernen hat das eine Stunde gedauert mit 16 darf es doch nicht mehr als 15 min dauern. Das liegt dann wirklich an der Software. Aber man kann eben auch nicht alles ins unendliche paralelisieren.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
@burki_pdm
Für die vielen gemählichen Tasks braucht man weniger mehr Kerne, als mehr Speicher, als früher. So, primär.
Das stimmt aber schon was du sagst. Nur ist das nicht erst mit 6C/12T gekommen. Das ist mit XPsp3 und 4C gekommen. Sonst allerspätestestens mit Win7 und 4C. Wie du es selbst anmerkst...
Daß es mit 6C/12T insgesamt besser läuft, liegt an der im Laufe der Zeit ebenfalls gesteigerten IPC und dem höheren Speicherdurchsatz.
Den Beweis ist (mit Verlaub) geilerweise nun AMD angetreten. Mit dem 3300X, den man in den Ring mal gegen den 3600 schicken kann, um nachzuschauen wieviel besser das alles mit 6C/12T für in etwa + 40€ läuft. Da wird die Luft nach Videos editieren/umkodieren und Division(2) irgendwie ganz schnell recht dünn.
Die Anwendungsszenarien die man dabei meist ins Feld führt finde ich oft bisschen fadenscheinig. Sorry.
Z.B. bei der Menge die man heute durchschnittlich daheim als Archivdatei zusammenfügt, also mal packt, sind 7-zip/Winrar schon auf einem 2500k/4.6 (2011) so schnell, daß man für die "12s" sich nicht mit anderen Sachen beschäftigen braucht. Geschweige man nimmt was von 2012, wie den 3770K/4.4.
Wirklich nennenswerte Datenmengen sind zu 99% Media und da sollte man schon wissen, daß sowas meist kaum noch weiter gepackt werden kann. Es ist also sehr klug dafür keine fetten Packersetups zu wählen und dann dauert es schon wieder nicht lange genug, um sich während dessen sinnvoll mit 2 anderen Sachen zu beschäftigen.
Die gemählichen Tasks wären schon mit 2C rund gelaufen, falls der Speicher auch da wäre. Die taugen in dem Beispiel eher weniger.
Für die vielen gemählichen Tasks braucht man weniger mehr Kerne, als mehr Speicher, als früher. So, primär.
Das stimmt aber schon was du sagst. Nur ist das nicht erst mit 6C/12T gekommen. Das ist mit XPsp3 und 4C gekommen. Sonst allerspätestestens mit Win7 und 4C. Wie du es selbst anmerkst...
Daß es mit 6C/12T insgesamt besser läuft, liegt an der im Laufe der Zeit ebenfalls gesteigerten IPC und dem höheren Speicherdurchsatz.
Den Beweis ist (mit Verlaub) geilerweise nun AMD angetreten. Mit dem 3300X, den man in den Ring mal gegen den 3600 schicken kann, um nachzuschauen wieviel besser das alles mit 6C/12T für in etwa + 40€ läuft. Da wird die Luft nach Videos editieren/umkodieren und Division(2) irgendwie ganz schnell recht dünn.
Die Anwendungsszenarien die man dabei meist ins Feld führt finde ich oft bisschen fadenscheinig. Sorry.
Z.B. bei der Menge die man heute durchschnittlich daheim als Archivdatei zusammenfügt, also mal packt, sind 7-zip/Winrar schon auf einem 2500k/4.6 (2011) so schnell, daß man für die "12s" sich nicht mit anderen Sachen beschäftigen braucht. Geschweige man nimmt was von 2012, wie den 3770K/4.4.
Wirklich nennenswerte Datenmengen sind zu 99% Media und da sollte man schon wissen, daß sowas meist kaum noch weiter gepackt werden kann. Es ist also sehr klug dafür keine fetten Packersetups zu wählen und dann dauert es schon wieder nicht lange genug, um sich während dessen sinnvoll mit 2 anderen Sachen zu beschäftigen.
Die gemählichen Tasks wären schon mit 2C rund gelaufen, falls der Speicher auch da wäre. Die taugen in dem Beispiel eher weniger.
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.264
- Renomée
- 1.851
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Äh, was?Für die vielen gemählichen Tasks braucht man weniger mehr Kerne, als mehr Speicher, als früher. So, primär.
In der Aufzählung sind ja auch einige Open Source-Programme dabei. Da kann man doch wunderbar ansetzen, wenn man mit der Leistung nicht zufrieden ist: selber mit programmieren und es besser machen als die jetzigen Programmierer. Nur mal so als Anstoß.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Speicher. Spei-cher. RAM, sozusagen.Äh, was?
@Fliwatut
Ich hab vor Jahren über ein e.V. eine der Verbraucherschutz(zentralen) unterstützt. Mitunterstützt. Das war garnicht so wenig Arbeit. Da hat mir wirklich jemand gefehlt der den Leuten verklickert, wenn man es auseinanderschrauben kann, sollte man es selbst verbessern. Und über alles wovon man nicht so die Ahnung hat, sollte man halt nicht meckern.
Wenn man solche Fähigkeiten hat ist das ein totes Kapital sie nicht zu nutzen. Ich wette z.B. Norton Security bezahlt so eine Stelle fürstlich im 3-tier Support, wenn man sowas wirklich drauf hat. Nur mal so als Anstoß.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.264
- Renomée
- 1.851
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Ja, das Wort Speicher konnte ich lesen, das Drumherum kam mir merkwürdig vor.
In Ermangelung eines DVD-Players laste ich gerade alle 16 Threads meines Ryzen mit Handbrake aus. Alle paar Minuten purzelt ein MKV-Video einer Serienfolge raus.
Aber da das eh nebenbei im Hintergrund läuft, würde die Welt nicht untergehen, wenn das mit nur 2 Kernen eben 8x so lange dauert.
In Ermangelung eines DVD-Players laste ich gerade alle 16 Threads meines Ryzen mit Handbrake aus. Alle paar Minuten purzelt ein MKV-Video einer Serienfolge raus.
Aber da das eh nebenbei im Hintergrund läuft, würde die Welt nicht untergehen, wenn das mit nur 2 Kernen eben 8x so lange dauert.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Ja... Das hatten wir halt schon alles.
Um das mal oder erstmal abzuschliessen: Ich hab nichts gegen Mehrkerner. Und auch nichts gegen 36 und mehr CUs, die dann auch noch ihre spezifischen - aber auch nicht unbedingt sehr exotischen - Aufgaben, nochmals pro CU mehrfach schneller abarbeiten können als ein Kern über AVX.
Was mich mittlerweile nur soweit nervt, daß ich das auch mal laut ausspreche, ist wie diese Leistung meist brach liegt. Die Software kommt nicht hinterher und das tut sie schon seit den ersten 4kerner nicht mehr so wirklich. Mit Core2Duo kam einem noch ALLES irgendwie auch wenn nur einen kleinen Taken schneller als davor. Mit 4kerner einiges. Ab da aber wurde es sehr zeh...
Den allermeisten Schub brachten in der Zeit eigentlich die SSDs, die sich steigernden IPCs und DDR3 nah 2000. Igendwann schenllerer DDR4.
Nicht aber die da schon aufkommenden und dank AMD anhaltende core-flood an sich. Und, was ich selbst für viel schlimmer finde, nicht der GPUs.
Ciao.
Um das mal oder erstmal abzuschliessen: Ich hab nichts gegen Mehrkerner. Und auch nichts gegen 36 und mehr CUs, die dann auch noch ihre spezifischen - aber auch nicht unbedingt sehr exotischen - Aufgaben, nochmals pro CU mehrfach schneller abarbeiten können als ein Kern über AVX.
Was mich mittlerweile nur soweit nervt, daß ich das auch mal laut ausspreche, ist wie diese Leistung meist brach liegt. Die Software kommt nicht hinterher und das tut sie schon seit den ersten 4kerner nicht mehr so wirklich. Mit Core2Duo kam einem noch ALLES irgendwie auch wenn nur einen kleinen Taken schneller als davor. Mit 4kerner einiges. Ab da aber wurde es sehr zeh...
Den allermeisten Schub brachten in der Zeit eigentlich die SSDs, die sich steigernden IPCs und DDR3 nah 2000. Igendwann schenllerer DDR4.
Nicht aber die da schon aufkommenden und dank AMD anhaltende core-flood an sich. Und, was ich selbst für viel schlimmer finde, nicht der GPUs.
Ciao.
Zuletzt bearbeitet:
burki_pdm
Commander
- Mitglied seit
- 18.07.2008
- Beiträge
- 180
- Renomée
- 6
- Standort
- Potsdam
- BOINC-Statistiken
- Prozessor
- Ryzen 5 3600
- Mainboard
- MSI B450 Gaming Plus Max
- Kühlung
- Arctic Freezer 34 Esports DUO
- Speicher
- 4x 8 gb Crucial Ballistix Sport DDR 4 3200 SR
- Grafikprozessor
- KFA2 GTX 1660 Super 1click Oc
- Display
- 24" Acer CB241H
- SSD
- Samsung SSD 860 Evo, Crucial MX 500, M.2 NVME Kingston A 2000
- HDD
- 2 TB Seagate HD
- Optisches Laufwerk
- Lite-On IHOS BD-Rom
- Soundkarte
- Creative Labs X-Fi Titanium Fatality Champion
- Gehäuse
- BeQuiet Puse Base 600 Orange, Glas
- Netzteil
- BeQuiet Pure Power 11 500 CM
- Maus
- Steelseries Kinzu V2 MSI Edition (älteres Baujahr)
- Betriebssystem
- Windows 10 Pro, Linux Manjaro / KDE
- Webbrowser
- Firefox, MS Edge, Chrome
- Internetanbindung
- ▼100 mbit ▲40 mbit
Es wird doch keiner gezwungen, sich irgendwelche Vielkern CPUs zu kaufen. Auch Heute gibt es noch Dualcores, kleine aber aktuelle Athlon Modelle und eben aktuell sauschnelle 4 Kerner wie den Ryzen 3 3300. Also es gibt für jeden das, was er braucht und letztlich auch bezahlen kann.
Ich denke auch, vieles wird nicht auf sehr viele Threads optimiert, weil eben viele Kunden garnicht soviele Threads haben, das es sich für die Entwickler lohnt. Ich denke es sind auf der Welt, in allen PC immer noch 2Kerne-4 Threads Standard.
Ich denke auch, vieles wird nicht auf sehr viele Threads optimiert, weil eben viele Kunden garnicht soviele Threads haben, das es sich für die Entwickler lohnt. Ich denke es sind auf der Welt, in allen PC immer noch 2Kerne-4 Threads Standard.
Na, umso mehr Motivation sollte das doch für dich seinIch wette z.B. Norton Security bezahlt so eine Stelle fürstlich im 3-tier Support, wenn man sowas wirklich drauf hat.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Ich glaub so tun als wenn einem der Kontext komplett abgegangen wäre macht die Sache nicht wirklich besser