Teraflops daheim. Enttäuscht oder begeistert?

@Cmdr_Zod
Wenn das alles klappt, sie ihn also im verhältnis so boosten lassen wie den 3300X, und sowas überhaupt kommt, wird der 4300X aber richtig cool sein. Ich bin da langsam heiss drauf :)

Der könnte dann aber möglicherweise nicht mehr besser performen als ein hexa-Core seiner Generation.
Bei der nächsten Generation soll der CCX von 4 auf 8 Cores erweitert werden, das heisst es entfallen dann allfällige Leistungseinbussen durch die Inter-CCX-Kommunikation bei mehr als 4 Kernen (oder bei 2+2 Kernen auf einem CCX, wie beim Ryzen 3 3100).


@Cmdr_Zod
Für den PC tätigt man NIEMALS "Investitionen in die Zukunft" ;) Man kauf was man grad gut gebrauchen kann.

Also so absolut ist das definitiv falsch.
Beim Netzteil achten viele drauf dass es nicht nur knapp reicht (und nicht nach zwei Jahren stirbt, weils das günstigste ist wo 500W drauf steht), falls man mal die Grafikkarte aufrüsten will, beim Speicherplatz schaut man dass er nicht gleich 90% voll ist. Bei der CPU oder beim Board sollte man sich auch überlegen wie lange das halten soll, oder ob man allenfalls in der Zukunft aufrüstet.
Klar, ich würde jetzt niemandem dazu raten ein E-ATX Dual-Sockel-Board zu kaufen, und erst mal nur nen kleinen Epyc reinzustecken, weil das ja im Moment reicht, aber ein kleines bisschen sollte man schon in die Zukunft schauen, oder sich halt bewusst dafür entscheiden, dass man wirklich gar nichts machen kann (Das sind dann die Apple-Kunden *lol* ).
 
Hängt glaub ich so bisschen von der "in die Zukunft" Definition ab ;) Zu weit nach Vorn sollte man halt nicht schauen.
 
Bin mir nicht sicher, ob ich den Ausgangsthread korrekt erfasst habe, aber mir ist vor Jahren schon aufgefallen, dass die Hardware der Software hinterherhechelt. Ist dir zu lahm? Dann kauf doch nen besseren PC, Du Opfer!

Als ich anfing, selber zu programmieren, hat man sich noch die Mühe gemacht und den Code optimiert. Einzelne Prozeduren in ASM. Musste ja auch auf eine Diskette passen ^^ Die Software musste ja auch auf der vorhandenen (damals ja noch extrem teuren) Hardware lauffähig sein.

Heute wird mit Octacore und mehr geprahlt, die ein deutliches Leistungsplus vorgaukeln, aber kaum von üblicher Software ausgenutzt werden.
 
Das Prob ist ja eben, daß dir "besserer PC" auch nicht wirklich was bringt, in all diesen Fällen. Die echte Leistung haben in der letzten Zeit die SSDs gebracht. Die CPUs weniger. Da kam es nachwievor auf IPC und die ist auch seit Sandy und gar Ivy immernoch ordentlich gestiegen (allgemein, bei AMD ist sie halt ausserordentlich gestiegen, aber die hatten auch einiges aufzuholen...), aber Welten ist was anderes.

Die Skalierung der Software in die Breite - also das was sich wirklich signifikant steigert - ist schon sehr mager. Es fehlen Teil die Ideen, teils einfach nur Wissen und Lust.
Auch bei der klaren Kommerz leider.

Puget scripted sich z.B. recht tief durch die Soft von Adobe. Auch wenn nur strikt nach Datenblättern. Sprich, sie haben imho nie einen Sandy mit >1333 Speicher getestet. gut, wie dem auch sie, wenn man bisschen Ahnung hat kann man sich das halbwegs grob normieren.
Das Schöne bei denen ist, daß sie z.B. bei Photoshop/Lightroom die Leistung nicht nur über stumpfsinnige Batches erfassen möchten (Konvertieren/Speichern), sondern kleinwenig auch das reale Arbeiten abbilden möchten schon einen 3770k/4.45 mit Speicher nah 2000 und brauchbaren Timings nimmt (2012) - oder auch aktueller einfach einem 3300X *great* - mit den vermeindlichen Hochleistungssystemen ab ~2019 (!) bis heute vergleicht. 45% sind da schon ein Wow.

Auch wenn man für seine Workloads nur zu wenig Speicher hat bzw. hatte, schon 2011 gingen die heimischen Platformen bis 32GB.

GPGPU dagegen, die in gleicher Generation ab Midrange eben vieles mind. "mehrfach" schneller kann als die CPUs im obersten 1/3, und auch genau das woran CPUs sich sonst am meisten abrackern, ist auch weiterhin eine Nische innerhalb einer Nische.

Nicht die Hardware hechelt also der Software hinterher, sondern klar umgekehrt.
 
Hi
naja so ganz kommt das halt nur hin wenn du ihn dem begrenzen Sichtfeld auch nur schaust.
Wenn du dir mal Boinc anschaust sieht das schon ganz anders aus. da ist die Leistung deines 2012 PCs
heute nicht mal mehr nen laues Lüftchen, und über Effizienz wollen wir da auch nicht sprechen.

Aber bleiben wir mal bei Kommerziellen Programmen da darfst du dann erstmal am Besten auf Linux setzen um
deine Leistung auszuspielen, den oh wunder es gibt Programme die Können auch mehrkerne richtig nutzen.
Habe einiges mit Catia am Rande zu tun und da ist es schon sichtbar ob du ne Workstation 2012 oder 2020 hast,
Aber jetzt in Zeiten der Cloud kannst das auch wieder vergessen da jeder ständig irgendwas ins netz senden muss.
Gleiches gilt für die browser, schalte mal nen Proxy vor deinen Rechner und filtere alle 3party raus , bekomme aber
keinen geschwindigkeitsrausch das nur noch albern was heutzutage so läuft ….
lg
 
GPGPU dagegen, die in gleicher Generation ab Midrange eben vieles mind. "mehrfach" schneller kann als die CPUs im obersten 1/3, und auch genau das woran CPUs sich sonst am meisten abrackern, ist auch weiterhin eine Nische innerhalb einer Nische.

Ich kenne mich in dem GPGPU-Bereich zu wenig aus, wie gut ist da die Verbreitung und die Standardisierung?
Vom GPU-Bereich weiss ich nur, dass es ein Wetteifern zwischen CUDA und OpenCL gab, und dass der Suppport z.B. unter Linux auch nicht immer so toll war (oder noch ist, wie gesagt, GPGPU hat mich meines Wissens nie betroffen).
Bei den CPUs kann man 64bit, SMP, SSE2/3/4/ oder AVX ab einer bestimmten Generation voraussetzten und die Software entsprechend programmieren/kompilieren.
Wie ist das bei GPUs, kann der Softwareentwickler eine einheitliche Baseline voraussetzen, oder muss er immer alternativ-Code als Fallback mitschleppen und pflegen?
 
Ich kenne mich in dem GPGPU-Bereich zu wenig aus, wie gut ist da die Verbreitung und die Standardisierung?
Vom GPU-Bereich weiss ich nur, dass es ein Wetteifern zwischen CUDA und OpenCL gab, und dass der Suppport z.B. unter Linux auch nicht immer so toll war (oder noch ist, wie gesagt, GPGPU hat mich meines Wissens nie betroffen).
Bei den CPUs kann man 64bit, SMP, SSE2/3/4/ oder AVX ab einer bestimmten Generation voraussetzten und die Software entsprechend programmieren/kompilieren.
Wie ist das bei GPUs, kann der Softwareentwickler eine einheitliche Baseline voraussetzen, oder muss er immer alternativ-Code als Fallback mitschleppen und pflegen?
OpenCL kann man schon als universell nutzbar ansehen.
Aber wenn man mit aktueller CUDA-Version loslegt und das gut optimiert ist, dann lässt es OpenCL in manchen Fällen einfach stehen.

Inzwischen beginne ich zu ahnen, was der Nachteil von zu vielen Kernen ist. Meine Office-Maschine ist einfach mal lahm. Ich hatte letztendlich 4 Threads und 6GB Speicher auf einem dicken Xeon@2,5GHz zusammen mit zig anderen Kollegen als VM. Nach diversen Beschwerden sind es nun 8 Threads. Logischerweise hat das keine Besserung gebracht, weil Excel, Word und PDF-Murks nur auf einem Kern laufen. Da würde ich mir die hochgetakteten Epyc-CPUs wünschen, die AMD neulich vorgestellt hat.
 
Also zumindest Excel hat ne Option das es mehrere Kerne nutzen kann. Aber in einer VM kommst dann drauf an wie viele Kerne der VM zugewiesen sind.
Was nutzt eine 64 Core VMware Server wenn sie den einzelnen VMs immer nur einen virtuellen Kern zuteilt.

Ich habe auf meiner Kiste auch hin und wieder mal eine VM am laufen. Der habe ich 2 Kerne und 8 GB zugeteilt. Solange der Container auf einer SSD liegt fällts noch nicht mal auf das das ne VM ist. Also zumindest bei dem Kram für den ich die VM nutze.
 
Hi
naja so ganz kommt das halt nur hin wenn du ihn dem begrenzen Sichtfeld auch nur schaust
JA, schon klar. Und ihm erweiterten sichtfeld taucht Boinc auf. "mega" *buck*

Habe einiges mit Catia am Rande zu tun und da ist es schon sichtbar ob du ne Workstation 2012 oder 2020 hast
Das ist ok. auch Solidworks ist ok. Nur von Daheim aus gesehen ist auch das eine Nische in einer Nische. Selbst wen die halbe oder 3/4 der Industrie das nutzt, oder gar alle die irgendetwas konstruieren, ist das auf dem HeimPC auf die Anzahl aller HiemPCs nicht mal im Promillenbereich. Boinc und Catia machen den Calmund nicht im geringsten fett...

Gleiches gilt für die browser, schalte mal nen Proxy vor deinen Rechner und filtere alle 3party raus , bekomme aber
keinen geschwindigkeitsrausch das nur noch albern was heutzutage so läuft ….
Sowas läuft hier längst. Schon aber alleine mit NoScript kommt einem eine 16Mbit Leitung wie bei anderen eine 25er... Ja. Das ist wahrlich ein richtig übler Scherz dieser Dreck. Nur halt OT ;)

@Cmdr_Zod
Befehlssätze sind weniger wichtig, weils keine gibt ;) OpenCL und "Shader-Modell" haben ihre Versionen und ihren Funktionsset und das ist der Rahmen. Fertig.
Alles was man für schöner wohnen daheim gebrauchen könnte, ist ab OpenGL4 und OpenCL1.2 dabei. Das Problem dabei ist aber die Programmierung. Cuda kommt nicht grundsätzlich wegen der Leistung an, sondern wegen der Programmierbarkeit und der Tools. Du hast für Cuda, Cuda Fortran und Cuda C. Und das wars schon für OpenCL.

Jedenfalls für so Leute die z.B. einen netten Bildanzeiger programmieren und sich überlegen, man könnte die Vorschauen (Thumbs) 4x so schnell machen lassen, wenn die Graaka das mal machen würde (was ja geht). Das ist aber für einen ASM/C Programmierer in etwa wie für einen Fußballultra, das erste mal in einem Baseballstadion zu sitzen... Das hat NV schon sehr früh verstanden.
Khronos dagegen konnte sich dagegen erst mit Intels Geld in diese Richtung bewegen. Quasi jetzt erst. Also seit Vulcan bzw. OpenCL 2.1 + Spir(-V). Da gibt es nun auch, sozusagen, Frontends für Fortran und C.

Wer macht aber, und was davon hat einen sinnvollen Nutzen, was in Freeware oder Shareware sogar in Cuda? Das ist auch sehr sehr wenig. Die meisten Rechner diesser Welt nutzen die GPU in einer Intel AMD CPU. Cuda kommt also da meist wirklich zur Geltung, wo die Wissenschaft oder die Industrie sich dicke Eisen mit Teslas hinstellt.

Ob Cuda OpenCL also verhaut oder nicht, davon hat man daheim auch kaum etwas.
 
Hi,
das doch genau das Problem heute, wer nimmt sich den die Zeit noch zu optimieren?
Wobei dein Bsp. nicht wirklich schneller ist wie mit der CPU wenn du mal Optionen nutzen würden
den Job ehr nach Queue als nach fertig zu bauen, den die CPU wartet bei sowas eigentlich immer auf das
IO …
Wenn man sich bsp. anschaut von Software wie schlank es sein kann und wie schlimm es ist, man CRM Programme
sind da nen tolles Bsp. begleite seit über 20Jahren den Bereich und haben vor Jahren mal Spaß halber ne Effizienz Rechnung gemacht
um wieviel Langsamer die System pro Event geworden sind das darf man keinen sagen. Und warum weil Cloud weil Standard interface
weil Smart sein muss aber das man gut mit arbeiten kann und nicht bei jedem Click 10+sek wartet das interessiert keinen …
Von daher geht in vielen Bereichen der Software Entwicklung der Rückschritt seit Jahren weiter ...
lg
 
Naja... GPU zu nutzen ist nicht gleich optimieren. Eher das gleiche Problem mit einer anderen Lösung erledigen.

Das Beispiel mit den Thumbs ist schon ok. Adobe ist auf diese glorreiche Idee auch mal gekommen und hat, natürlich nach genug Tests, das vor kurzem in Lightroom eingebaut. Das ist schon um einiges schneller. Nutze ich zwar nicht (wegen Abo), aber anschauen konnte ich mir das schon.

ACDSee meine ich nutzt für Jpeg2000 (Vorschauen) irgendeine Lib die sie sich extern angelacht haben, was in Cuda geschrieben ist (ergo optional), und das war 2015 auf gleichem Rechner 600 MAL schneller bei den Thumbs als das beste was man für XnView einbinden konnte. Das war zum Zeitpunkt imho noch Maxwell, kein Pascal...

Damit kann man auch heute einen Epyc 7H12 trotz AVX-code mit einem einzigen Nackenschlag auf die Bretter schicken. Heute würde man für Cuda daheim aber vielleicht eher eine schlichte 1660 nehmen.

AVX ist nett, so in etwa 25% bis ~60% schneller als SSE 4.2 meine ich. Das hilft aber beim obigen Beispiel auch nicht viel. Selbst wenn man die CPUs dazu bringt sich bei AVX nicht runterzutakten ;)
 
Zuletzt bearbeitet:
Ich glaube, das viele Leute immer die Software unpassend für viele Kerne halten. Oftmals natürlich mit Recht, weil es oft so ist. Aber eben nicht immer.

Der gemeine Nutzer wie ich, der braucht doch garkeine einzelne Software, die mit 16 Kernen und 32 Threads skaliert. Weil ich weder soviele Kerne habe, noch eine einzelne Software nutze, die sowas überhaupt bräuchte.

Ich nutze nun 6K/12T und finde das schon sehr viel besser, als noch vor Jahren Single- oder Dualcore. Heute schaue ich kaum noch, wieviele Tabs ich offen habe, was alles zusammen läuft. Da der Webbrowser, dazu noch ein Musicplayer. Nebenher packe ich etwas und lese Mails. Also für mich sind mehr Kerne als ich früher hatte durchaus positiv. Eben nicht wegen einer speziellen Software, sondern wegen vielen Dingen, die gleichzeitig gemacht werden. Mit 4 Kernen geht das auch, aber ich finde mit 6 und SMT sehr viel besser.

Viele die nun meckern, nutzen eher ein spezielles Programm. Zum Video bearbeiten oder ähnlichen und denken, früher mit 4 Kernen hat das eine Stunde gedauert mit 16 darf es doch nicht mehr als 15 min dauern. Das liegt dann wirklich an der Software. Aber man kann eben auch nicht alles ins unendliche paralelisieren.
 
@burki_pdm
Für die vielen gemählichen Tasks braucht man weniger mehr Kerne, als mehr Speicher, als früher. So, primär.

Das stimmt aber schon was du sagst. Nur ist das nicht erst mit 6C/12T gekommen. Das ist mit XPsp3 und 4C gekommen. Sonst allerspätestestens mit Win7 und 4C. Wie du es selbst anmerkst...
Daß es mit 6C/12T insgesamt besser läuft, liegt an der im Laufe der Zeit ebenfalls gesteigerten IPC und dem höheren Speicherdurchsatz.
Den Beweis ist (mit Verlaub) geilerweise :) nun AMD angetreten. Mit dem 3300X, den man in den Ring mal gegen den 3600 schicken kann, um nachzuschauen wieviel besser das alles mit 6C/12T für in etwa + 40€ läuft. Da wird die Luft nach Videos editieren/umkodieren und Division(2) irgendwie ganz schnell recht dünn.

Die Anwendungsszenarien die man dabei meist ins Feld führt finde ich oft bisschen fadenscheinig. Sorry.
Z.B. bei der Menge die man heute durchschnittlich daheim als Archivdatei zusammenfügt, also mal packt, sind 7-zip/Winrar schon auf einem 2500k/4.6 (2011) so schnell, daß man für die "12s" sich nicht mit anderen Sachen beschäftigen braucht. Geschweige man nimmt was von 2012, wie den 3770K/4.4.

Wirklich nennenswerte Datenmengen sind zu 99% Media und da sollte man schon wissen, daß sowas meist kaum noch weiter gepackt werden kann. Es ist also sehr klug dafür keine fetten Packersetups zu wählen und dann dauert es schon wieder nicht lange genug, um sich während dessen sinnvoll mit 2 anderen Sachen zu beschäftigen.
Die gemählichen Tasks wären schon mit 2C rund gelaufen, falls der Speicher auch da wäre. Die taugen in dem Beispiel eher weniger.
 
Zuletzt bearbeitet:
In der Aufzählung sind ja auch einige Open Source-Programme dabei. Da kann man doch wunderbar ansetzen, wenn man mit der Leistung nicht zufrieden ist: selber mit programmieren und es besser machen als die jetzigen Programmierer. Nur mal so als Anstoß.
 
Speicher. Spei-cher. RAM, sozusagen.

@Fliwatut
Ich hab vor Jahren über ein e.V. eine der Verbraucherschutz(zentralen) unterstützt. Mitunterstützt. Das war garnicht so wenig Arbeit. Da hat mir wirklich jemand gefehlt der den Leuten verklickert, wenn man es auseinanderschrauben kann, sollte man es selbst verbessern. Und über alles wovon man nicht so die Ahnung hat, sollte man halt nicht meckern.

Wenn man solche Fähigkeiten hat ist das ein totes Kapital sie nicht zu nutzen. Ich wette z.B. Norton Security bezahlt so eine Stelle fürstlich im 3-tier Support, wenn man sowas wirklich drauf hat. Nur mal so als Anstoß.
 
Ja, das Wort Speicher konnte ich lesen, das Drumherum kam mir merkwürdig vor.

In Ermangelung eines DVD-Players laste ich gerade alle 16 Threads meines Ryzen mit Handbrake aus. Alle paar Minuten purzelt ein MKV-Video einer Serienfolge raus.
Aber da das eh nebenbei im Hintergrund läuft, würde die Welt nicht untergehen, wenn das mit nur 2 Kernen eben 8x so lange dauert.
 
Ja... Das hatten wir halt schon alles.

Um das mal oder erstmal abzuschliessen: Ich hab nichts gegen Mehrkerner. Und auch nichts gegen 36 und mehr CUs, die dann auch noch ihre spezifischen - aber auch nicht unbedingt sehr exotischen - Aufgaben, nochmals pro CU mehrfach schneller abarbeiten können als ein Kern über AVX.

Was mich mittlerweile nur soweit nervt, daß ich das auch mal laut ausspreche, ist wie diese Leistung meist brach liegt. Die Software kommt nicht hinterher und das tut sie schon seit den ersten 4kerner nicht mehr so wirklich. Mit Core2Duo kam einem noch ALLES irgendwie auch wenn nur einen kleinen Taken schneller als davor. Mit 4kerner einiges. Ab da aber wurde es sehr zeh...
Den allermeisten Schub brachten in der Zeit eigentlich die SSDs, die sich steigernden IPCs und DDR3 nah 2000. Igendwann schenllerer DDR4.
Nicht aber die da schon aufkommenden und dank AMD anhaltende core-flood an sich. Und, was ich selbst für viel schlimmer finde, nicht der GPUs.

Ciao.
 
Zuletzt bearbeitet:
Es wird doch keiner gezwungen, sich irgendwelche Vielkern CPUs zu kaufen. Auch Heute gibt es noch Dualcores, kleine aber aktuelle Athlon Modelle und eben aktuell sauschnelle 4 Kerner wie den Ryzen 3 3300. Also es gibt für jeden das, was er braucht und letztlich auch bezahlen kann.

Ich denke auch, vieles wird nicht auf sehr viele Threads optimiert, weil eben viele Kunden garnicht soviele Threads haben, das es sich für die Entwickler lohnt. Ich denke es sind auf der Welt, in allen PC immer noch 2Kerne-4 Threads Standard.
 
Ich glaub so tun als wenn einem der Kontext komplett abgegangen wäre macht die Sache nicht wirklich besser ;)
 
Zurück
Oben Unten