Teraflops daheim. Enttäuscht oder begeistert?

HalbeHälfte

Vice Admiral Special
Mitglied seit
30.07.2006
Beiträge
674
Renomée
8
Tach auch.

Wenn ich so durchrechne, welche Peakleistung, auch die möglichst reale, in <200€ CPUs und <160W GPUs, und das nicht erst seit 2020, bin ich ehrlich gesagt ziemlich davon enttäuscht, wie sie von den Programmierern real genutzt wird.

Durchs Netz streifend um etwas über die Leistungen zu erfahren, bekommt man den Eindruck, daß die PC-Nutzung größtenteils entweder aus Zocken oder dem Schneiden und Recodieren von Mediamaterial besteht. Flankiert vom ständigen Repacken der sonstigen Datenbestände, auf verschlüsselten Datenträgern.
Das wars dann auch fast schon mit den höhsten Gefühlen diesbezüglich.
Ok, es gibt auch noch bisschen mehr. Programme für die Konstruktion, in vierstelligen Preisbereichen. Auch die nutze ich aber nicht.

Es gibt sonst schon einige andere positivere Beispiele, die beziehen sich aber meist auf das Speichern des Ergebnisses. Beim Verarbeiten selbst wirkt sich das um Größenodernungen weniger aus. Und hat leider auch nichts damit zu tun, wie "modern" die Software ist.

Grad angesichts der durch AMD losgetretenen "core-flood" find ich das zuweilen schon bisschen frustierend. Geschweige der Leistung die über GPGPU vorhanden wäre, wenn man sie denn nutzen würde.

Meine real größten Leistungssteigerungen ergaben sich mit der Einführung der SSDs und das hochpeitschen des Hauptspeichers. Obwohl hiermit nicht nur sehr speicherintensive Szenarios gemeint sind. Beides brachte überall sehr spürbar etwas.

Davor und damals, war die große Steigerung mit dem Umstieg von XP auf Win7 und damit vom 2Kerner auf einen 4Kerner. Das brachte zwar den ohne Frage angenehmen Effekt, daß eine - für sich selbst und eine Weile - auf Vollast laufende Anwendung die sonstige Nutzung des Rechners nicht mehr mit feststellbaren Zucken&Rucken beinträchtigt hat und sie selbst durch jenes auch nicht relevant langsamer/gestört wurde.

Eigentlich wars das dann aber auch schon. Das meiste in den folgenden Upgrades ergab sich hier nur noch aus gesteigertem IPC. Nicht aus der core-flood.

Wie seht ihr das? (und warum/wodurch)
 
Zuletzt bearbeitet:
Es darf doch letztendlich Jeder selbst entscheiden, ob er lieber viele Kerne kauft oder eine CPU mit möglichst hohem Boost/Core-Takt bei eher wenig Kernen.
AMD hat nun für Jeden was im Programm und das finde ich gut so.
 
@trethupe
Weiß ich auch nicht... Das Thema wurde im Tech-Talk erst geschlossen, auf Nachfrage was damit sein sollte, hierhin verschoben.

Es sagt aber niemand, auch der Erstkommentator nicht, was damit jetzt nicht stimmen sollte. Der Erstkommentator wurde zwar seiner Rolle als Kämpfer für die allgemeine Redefreiheit wie immer gerecht..., mehr mochte er dazu aber auch nicht beitragen.

@Magic
Es darf doch letztendlich Jeder selbst entscheiden, ob er lieber [...]
Das ist zwar vollkommen richtig, stellt imho aber keinen Kontext zum ersten Beitrag. Da geht es nicht um dürfen und auch nicht darum diese oder jene Entscheidung infrage zu stellen.
 
Zuletzt bearbeitet:
Na gut gut, dann halt nur ein: "Bin begeistert!!"
 
Welche Software entfaltet sich da so begeisternd?

p.s.:
Grad kurz überlegt... Es kann vielleicht sein, daß die ganz trüben Lichter - also noch keiner hier - denken, es geht darum über die Hardware abzulästern. Nicht wirklich.
Wenn sich hier überhaupt eine Frage stellen sollte, dann eher nach der Software die ausserhalb dessen existiert was schon im ersten Beitrag erwähnt wurde.
 
Es geht um die bunten Bildchen meiner Signatur. Boinc.

So langsam beginne ich auch zu verstehen, was Beitrag #2 zu sagen hat, bei #1 dauert es noch ein wenig.
 
Ah ok. Das passt dann. Da kann ich auch nicht mitreden :)

Bei mir selbst fing erst eine kleine Flamme für ein neues Upgrade zu lodern, mit dem 3300X. Den fand ich sofort klasse. Nicht den 3700 und nicht den 3900 davor :(
Das ist aber wie gesagt eher und leider der Software und nicht der Hardware geschuldet.

Und das nervt mich langsam 8-(
 
Zuletzt bearbeitet:
*suspect*
Und dann? Ich kenn die Software und die ist ausgesucht, auch nach dem Abchecken von Alternativen.
 
Dann ist diese Diskussion kein Stochern im Nebel mehr, sondern verrät auch mal, was Du mit "Software" meinst und warum diese Dich frustriert.

Ich kenn die Software und die ist ausgesucht, auch nach dem Abchecken von Alternativen.

Du bist also der Meinung, es sei befruchtend für eine Diskussion, den Gesprächsteilnehmern eine Hauptkomponente des angestoßenen Themas vorzuenthalten. Wozu dann der Thread?
 
So langsam beginne ich auch zu verstehen, was Beitrag #2 zu sagen hat, bei #1 dauert es noch ein wenig.

Interessant, Beitrag #1 ist eigentlich sonnenklar, was er damit bezwecken will. Mal abgesehen, davon das du genau auf #1 passend geantwortet hast, nehme ich dir nicht ab das du es nicht verstehst.

Bei #2 verstehe ich nicht mal abgesehne davon, dass der Thread wohl in Tech-Talk falsch platziert war.

Edit:
Zum Thema, ich bin begeistert das dadurch für 0815 Anwendungen nun stromsparende HW zur Verfügung steht. Und sich mehrere Anwendungen nicht gegenseitig die Resourcen stehlen können, so dass sie nciht mehr benutzbar sind. Schade ist das es bei Viel SW einfach kein Mehrwert bietet die Leistung zu nutzen, da die Peripherie die Einschränkung ist wird es sich auch nicht ändern solange wir noch mit 1981er Peripherie unterwegs sind. Für den Alltag ist "Teraflop daheim" unnötig und eine Zeit/Energieverschwendung.
 
Zuletzt bearbeitet:
Interessant, Beitrag #1 ist eigentlich sonnenklar, was er damit bezwecken will. Mal abgesehen, davon das du genau auf #1 passend geantwortet hast, nehme ich dir nicht ab das du es nicht verstehst.
Inhaltlich, ja.
Aber ich habe den Eindruck, dass hier irgendwas zwischen den Zeilen existiert.
 
@Magic
Ich freu mich zwar auch, daß du eine dieser wenigen Ausnahmen bist, welche die Regel bestätigen, daß hinter fast jedem Beitrag irgendetwas zwischen den Zeilen existiert. Damit kann man aber daher noch keine Stigmatisierung erzeugen.

@Effe
Ist mir an der Stelle zu hoch. Was passiert dann, wenn sich der Nebel richtet? Aufklärung, daß die Programme doch sehr gut mehr als 4 threads nutzen? (und ich Depp das nicht geschnallt hab?) Oder halt, "ja da ist das halt so"? Ich hab von beiden nichts, da eben kein Depp ;)

@ONH
Und sich mehrere Anwendungen nicht gegenseitig die Resourcen stehlen können, so dass sie nciht mehr benutzbar sind.
Ich schrieb gleich darüber, als ich auch die Vorteile ab einem Vierkerner ansprach. Genau darüber...

Des Pudels Kern ist hier auch nicht, ob mehr als 4 oder 8 Threads irgendeinen Sinn ergeben, sondern wie schwer wohl den Codern Parallelisierung fällt. Anscheinend. Das ist es was zwischen den Zeilen existiert. Macht man gelegentlich, wenn man gerne sieht, wie sich eine Diskussion entwickelt und Leute sich dem Kern selbst nähern.

Meist scheitert das aber auch an einer zu hochen Erwartungshaltung. Wenn man z.B. wartet bis jemand selbst aufzählt was er im Alltag so an alltäglicher (?!) Software nutzt und seine Beispiele aufführt, wie gut das DANK 4 Threads oder gar mehr, abgeht.

Ich hab mir davor ehrlich gesagt aber auch keine Gedanken dazu gemacht, daß soetwas in einem most-AMD forum, zu Ryzenzeiten, eine Art Tabuthema sein könnte und man erstmal sofort gleich die Löschung des Themas postuliert, gefolgt schonmal von einer Schliessung, im Tech-Talk. Wo das nichts anderes als nur Tech-Talk ist...

Aber ok. Auch dadurch wird das hier keine Tragödie :) Danke allen Teilnehmern für ihre Zeit. Die Halbwertzeit des Threads wurde bereits nach 2 Tagen erreicht.

Ciao.
 
Viel BlaBla um nichts. Einen Thread eröffnen, aber das Gespräch verweigern ist ganz große Schule.
 
p.s.:
Viel BlaBla um nichts.
Weißt du wie oft ich dir schon sowas schreiben wollte? Ich wollte aber nicht die Gefahr laufen mir dann mit Gefühlsduselei begründete mangelnde Objektivität unterstellen lassen.
Für eine Gesprächsverwegerung sind meine Beiträge übrigens kleinwenig zu lang...

Ich bin trotzdem doch noch mal sehr gespannt wie sich das gleich weiter entwickeln wird:
Zwei Tools von Faststone, DxO/Lightroom, Firefox, Thunderbird, Open/Libre Office, TotalCommander, 7-zip, Paint.net, mpc-hc, Locate, Aimp, FileZilla, GnuPG, MinGW, Xmedia Recode, Foxit, Acronis, und paar andere kleinere Tools.
 
Multithreading wird zusehends besser genutzt, das sehe ich gut bei meinem steinalten Intel Q9550 (Core2Quad), der mir immer noch reicht für alles was ich mache, im Netz Surfen (ich neige dazu viele Tabs offen zu haben im Firefox), gelegentlich spielen (Team Fortress 2), Fotos bearbeiten (gimp), oder gerade demnächst wieder einfache 3D-Bearbeitung (FreeCAD). Ich habe häufig die CPU-Auslastung im Blick, und da kommt es durchaus vor, dass alle 4 Kerne gut belastest sind. Insofern sehe ich eine Anwendung für mehr (und natürlich auch schnellere) Kerne.
Wenn ich meinen Bulldozer mit 8 Threads (Opteron 3280) dazu überreden könnte, mit einer aktuellen Grafikkarte zu kooperieren, dann würde ich auch sofort umsteigen und den Intel wegstellen, auch wenn der Bulldozer pro Thread etwas weniger leistet.
Auch wen GPGPU kaum genutzt wird, Grafikkarten sind das, was ich wirklich aufrüsten musste in den letzten Jahren. Die CPU-Entwicklung lief doch sehr viel gemächlicher bis AMD mit Ryzen den Markt aufgemischt hat.
Wer öfters Software selber kompiliert, der profitiert definitiv von mehr Kernen, so ein EPYC 7402P oder ähnliches geht da ganz anders zu Werke, wenn man ihm genug Arbeit gibt. Auch moderne Videocodes wie AV1 können multithreaded decodiert (oder encodiert) werden, und Videos schauen ist nun wirklich keine Nischen-Anwendung (Besser ist natürlich wenn es die GPU decodiert).

Für mich ist klar dass mein nächster Rechner mindestens 8 Cores haben wird, Software wird zusehends besser darin, mehr Kerne auszunutzen, und ich versuche nach Möglichkeit bei jedem Upgrade alles mindestens zu verdoppeln, damit es sich lohnt.
Mein letztes Upgrade war von 2 (Opteron 1218) auf 4 Kerne (Q9550), bei identischem RAM und Massenspeicher, und das Upgrade habe ich durchaus gemerkt.
SMP ist jetzt auch nichts neues für die Programmierer, das gab es schon beim Pentium (Mein erster eigener Rechner war ein alter Dual-Pentium 100), Linux unterstützt das schon ewigs (IIRC ab Kernel 2.0 oder 2.2, ab 2.4 hat es richtig Spass gemacht), bei Windows ging es etwas länger bis es im Mainstream angekommen ist (XP war das erste Consumer-Windows auf NT-Basis, welches SMP konnte).

Auch bei den normalen Nutzern (Mit Windows 10, falls das jemand kennt) profitiert man von mehr als zwei Kernen. Ich habe heute meinen Eltern den alten Office-PC von 2 (E7500) auf 4 (Q8400) Kerne aufgerüstet, weil ich mich das letzte mal geärgert habe als ich mal wieder alle Software aktualisierte und alles etwa lange dauert.
Andererseits muss man leider sehen, dass auch im Jahr 2020 noch echt laaaangsaaaaaame Hardware verkauft wird, kürzlich war eine grosse Anzeige für ein Acer Notebook mit AMD A4-9120C in der Zeitung. Ich habe extra die Benchmarks rausgesucht, der alte Core 2Duo meiner Eltern war schneller als so eine Krücke :-)
Die wichtigste Neuerung in den letzten 10 Jahren war aber klar die SSD.

Der Serverbereich ist da auch weiter, im Webhosting wird ganz sicher niemand behaupten dass mehr Kerne nichts bringen.
Bei Kommerz-Software sieht es möglicherweise anders aus, die Hersteller haben teilweise seltsame Vorstellungen bei der Lizenzierung von Software in Abhängigkeit von der Anzahl CPU-Kerne. Ist aber zum Glück nicht mein Gebiet :-)

Mein Fazit: Mehr Kerne werden genutzt, auch mehr als 2 Kerne, aber es gibt halt auch noch jede Menge Hardware mit 2-4 Threads im Feld. Das ändert sich jetzt erst langsam, und der Modernisierungszyklus bei Computern ist länger geworden. Das hat auch seine guten Seiten, man muss nicht mehr so häufig den Rechner neu kaufen oder massiv aufrüsten und kann trotzdem alle Mainstream-Anwendungen nutzen.

Etwas irritiert haben mich übrigens die Benchmarks des 3300X. Der ist teilweise ähnlich schnell wie die Hexa-Cores von AMD.
 
Wer des Englischen mächtig ist, lese mal den folgenden Auszug aus Wikipedia:

An outdated version of an anti-virus application may create a new thread for a scan process, while its GUI thread waits for commands from the user (e.g. cancel the scan). In such cases, a multi-core architecture is of little benefit for the application itself due to the single thread doing all the heavy lifting and the inability to balance the work evenly across multiple cores. Programming truly multithreaded code often requires complex co-ordination of threads and can easily introduce subtle and difficult-to-find bugs due to the interweaving of processing on data shared between threads (see thread-safety). Consequently, such code is much more difficult to debug than single-threaded code when it breaks. There has been a perceived lack of motivation for writing consumer-level threaded applications because of the relative rarity of consumer-level demand for maximum use of computer hardware. Also, serial tasks like decoding the entropy encoding algorithms used in video codecs are impossible to parallelize because each result generated is used to help create the next result of the entropy decoding algorithm.


Given the increasing emphasis on multi-core chip design, stemming from the grave thermal and power consumption problems posed by any further significant increase in processor clock speeds, the extent to which software can be multithreaded to take advantage of these new chips is likely to be the single greatest constraint on computer performance in the future. If developers are unable to design software to fully exploit the resources provided by multiple cores, then they will ultimately reach an insurmountable performance ceiling.

Das ist meiner Meinung nach irgendwo schon der Fall. Die Software Entwicklung hängt für mich subjektiv der ganzen Multi-Core Entwicklung um 10 Jahre hinterher. Ich gebe aus beruflichen Gründen Geld für AutoCAD und ADOBE CC aus. Schaut man sich die Core Auslastung einmal an, es ist ein Trauerspiel. Bin nachwievor nicht sicher ob es wirklich Sinn gemacht hat den Ryzen 3600 zu kaufen, oder ich nicht besser einen Intel I3 mit 4 Kernen genommen hätte.

Der Trend hin zu 8, 12 oder 16 Kernen im Consumer Bereich ist aus meiner Sicht derzeit nur für eine verschwindend geringe Nische an Nutzern wirklich auch eine Verbesserung. Es gibt einfach zu wenig Software die das effektiv nutzen kann.

Für mich ist dieser Multi-Core Trend in gewisserweise lediglich geschicktes Marketing. Ansonsten würden die CPU Hersteller ja gar nix mehr verkaufen, da es einfach keinen Grund zum Wechsel gibt. Im Home-User Bereich geht es ohnehin weg vom "PC" die große Mehrheit hat jetzt schon nur noch Laptops (mit vergleichsweise geringer Leistung) und auch die werden weniger werden. Tablet und Smartphone ist alles was die meisten User im Alltag brauchen.
 
Die Software Entwicklung hängt für mich subjektiv der ganzen Multi-Core Entwicklung um 10 Jahre hinterher.
Ja. Und:
Ich gebe aus beruflichen Gründen Geld für AutoCAD und ADOBE CC aus. Schaut man sich die Core Auslastung einmal an, es ist ein Trauerspiel.
Ja.

Bin nachwievor nicht sicher ob es wirklich Sinn gemacht hat den Ryzen 3600 zu kaufen, oder ich nicht besser einen Intel I3 mit 4 Kernen genommen hätte.
Wäre es jetzt gewesen, würde ich dann doch eher den 3300X vorziehen. Ich bin von der CPU fast schon begeistert ;) Ich hoffe vom Zen3 gibts dann auch mal sowas.

@Cmdr_Zod
Etwas irritiert haben mich übrigens die Benchmarks des 3300X. Der ist teilweise ähnlich schnell wie die Hexa-Cores von AMD.
Mich nicht. Der passt eben besser (noch) in die Zeit als bereits alte core-flood. Aber hej, core-flood glättet frametimes...

Ich bin nicht der Meinung, daß ein Videodecoder multithreaded sein muss. Oder gar zwischen P5 und P7 eine Radeon auslasten sollte. Bei Videos teht es imho darum SO WENIG WIE MÖGLICH die Hardware zu beschäftigen. Ich sehe am anderen Verhalten ehrlich gesagt nichts moderneres. Ausnahmsweise.
Wenn man in Player oder gleich Glotze einen spezialisierten PGA hat der max. 15W verbraucht und u.a. einen Decoder für H.264 wie H.265, dann ist das was anderes als wenn man AV1 über 8 Kerne ausrollt.
In so einem Feature sehe ich wie gesagt ausnahmsweise nichts positives.
 
Zuletzt bearbeitet:
Tja, ich warte hingegen auf einen 8Kerner mit iGPU in 45W-Ausführung. ;)
 
Ja. Und:
@Cmdr_Zod
Mich nicht. Der passt eben besser (noch) in die Zeit als bereits alte core-flood. Aber hej, core-flood glättet frametimes...

Ich bin nicht der Meinung, daß ein Videodecoder multithreaded sein muss. Oder gar zwischen P5 und P7 eine Radeon auslasten sollte. Bei Videos teht es imho darum SO WENIG WIE MÖGLICH die Hardware zu beschäftigen. Ich sehe am anderen Verhalten ehrlich gesagt nichts moderneres. Ausnahmsweise.
Wenn man in Player oder gleich Glotze einen spezialisierten PGA hat der max. 15W verbraucht und u.a. einen Decoder für H.264 wie H.265, dann ist das was anderes als wenn man AV1 über 8 Kerne ausrollt.
In so einem Feature sehe ich wie gesagt ausnahmsweise nichts positives.

Grundsätzlich gebe ich dir recht, Decoding ist eigentlich Aufgabe eines spezifischen Funktionsblocks in der GPU. Blos kann die GPU halt nur das effizient in Hardware, was zum Zeitpunkt des Designs implementiert wurde. Im Notebook kann keiner die Grafikkarte tauschen, und auch auf dem Desktop sind es nur die Gamer und eine technisch interessierte Minderheit, die Grafikkarten tauscht oder nachrüstet. Folglich bin ich ganz glücklich, wenn ich AV1 auch mit ein paar CPU-Threads dekodieren kann.
Bei meiner HD 7750 ist bei MPEG 4 bzw VC 1 Schluss. Bei der ursprünglich verbauten Quadro FX 3700 wars nicht besser, blos kommt dort noch bescheidene Treiberunterstützung obendrauf. Onboard-Intel aus der Zeit kann nur MPEG 2.
Neuere AMD-Karten können auch HEVC und JPEG (JPEG? Wozu baut man jpeg-Dekodierung ein, wo doch MJPEG längst veraltet ist und die CPU JPEGs zum Frühstück verputzt?).
 
@Cmdr_Zod
Nicht zu vergessen die Software ("Player") die das erstmal richtig nutzen müssten...

p.s.: @kuppi
Du gehörst wohl wie ich zu denen die sich über einen 3300X viel mehr freuen würden als über den 3600 ;) Und ich denke der würde auch bei dir bessere rennen. Sowas sind aktuell die sinnvollsten CPUs, wenn es nicht um top-highend-gaming *suspect* geht. Oder sowas was Magic macht.
 
Zuletzt bearbeitet:
Das ist meiner Meinung nach irgendwo schon der Fall. Die Software Entwicklung hängt für mich subjektiv der ganzen Multi-Core Entwicklung um 10 Jahre hinterher. Ich gebe aus beruflichen Gründen Geld für AutoCAD und ADOBE CC aus. Schaut man sich die Core Auslastung einmal an, es ist ein Trauerspiel. Bin nachwievor nicht sicher ob es wirklich Sinn gemacht hat den Ryzen 3600 zu kaufen, oder ich nicht besser einen Intel I3 mit 4 Kernen genommen hätte.

Wieso kontaktiest du nicht den Hersteller und fragst, ob er gedenkt, mal moderne Technik umzusetzen? Du zahlst für das Zeugs, das ist nicht frei Software, wo es an den Interessen und der verfügbaren Freizeit von ein paar Hobby-Entwicklern hängt was und wie weiterentwickelt wird.


Der Trend hin zu 8, 12 oder 16 Kernen im Consumer Bereich ist aus meiner Sicht derzeit nur für eine verschwindend geringe Nische an Nutzern wirklich auch eine Verbesserung. Es gibt einfach zu wenig Software die das effektiv nutzen kann.

Für mich ist dieser Multi-Core Trend in gewisserweise lediglich geschicktes Marketing. Ansonsten würden die CPU Hersteller ja gar nix mehr verkaufen, da es einfach keinen Grund zum Wechsel gibt. Im Home-User Bereich geht es ohnehin weg vom "PC" die große Mehrheit hat jetzt schon nur noch Laptops (mit vergleichsweise geringer Leistung) und auch die werden weniger werden. Tablet und Smartphone ist alles was die meisten User im Alltag brauchen.

Es ist heute wesentlich einfacher, in die "Breite" zu gehen. Jahrelang konnte man die Fortschritte in der Chipfertigung darin stecken, einen Core schneller und besser zu machen (FPU integrieren, MMU integrieren, Cache, noch mehr Cache-Stufen, mehr parallele Ausführungseinheiten, lange Pipelines, Out of Order Instruction, Sprungvorhersage mit spekulativer Ausführung, Integration vom Speichercontroller, grössere Verarbeitungsbreite, SIMD-Befehle, mehr Taktrate...). Zwischenzeitlich sind wir aber am Punkt, wo das extrem schwierig ist, bzw. überproportional viel mehr Energie und Chipfläche pro zusätzliche Rechenleistung in einem Core verbraucht wird. Gut sieht man das z.B. an den ersten Atoms, die auf geringe Kosten getrimmt wurden. Die hatten keine Out of Order Instruction, aber dafür Hyperthreading, weil Hyperthreading weniger Chipfläche braucht um die Gesamtleistung zu steigern.
Bei den Tablets und Smartphones ist die Entwicklung ähnlich, dort sind auch bis 8 Kerne verbaut, teilweise unterschiedlicher Art, um besser Strom sparen zu können.

Mehr Kerne sind sind auch immer eine Investition in die Zukunft, zumindest am PC, wo man nicht nach 2 Jahren ohne Software-Updates im Regen steht.
Da kann man sich überlegen, ob man gleich 8 Kerne kauft, oder darauf spekuliert in ein paar Jahre günstig nachlegen zu können (Bei Intel ist das dann meist der Gebrauchtmarkt, bei AMD ist die Sockel-Politik kundenfreundlicher).

Noch ein Nachtrag zum Verkauf von neuen Computern. Es gab in den letzten Jahren auch abseits von der CPU Gründe zum Aufrüsten. Festplatten wurden grösstenteils durch SSDs ersetzt, die Anbindung der SSDs wird auch schneller, Arbeitsspeicher wurde schneller und mehr, USB wurde schneller, WLAN wurde besser (Irgendwann gibt es dann vielleicht auch endlich schnelleres Ethernet), Notebooks erhalten bessere Monitore und werden auch immer dünner (bessere Effizienz, bessere Akkus), und die Grafikkarten wurden modernisiert um hochauflösende Displays anzusprechen.
 
Zuletzt bearbeitet:
@Cmdr_Zod
Die Hersteller haben ewig fertige Textbausteine für solche Fragerei. Man bewirkt leider garnichts mit sowas. Wirklich. Vor allem wenn wer wirklich gut ist, im... ermöglichten Endergebnis, und weiß, die Leute nutzen das dann doch entweder mit Zähneknirschen, Nasrumpfen oder halt ohne zu mosern, dann passiert da erstmal seeehr lange nichts.

Du kannst auch ein Meer an Pros ansammeln. Wie bei Photoshop zum Beispiel. Und lässt deine angesammelten Kohorten auf die los, zu fragen, ob sie denn nicht bitte mal AVX oder mehr GPU in die Berechnungen einbeziehen könnten. Vergiss es.
Und das ist paar Routinen umzuschreiben bzw. zu erweitern. Das ist noch nicht Routinnen auseinandernehmen um sie zu parallelisieren. Sie haben irgendwann ihr Zeug von MMX nach SSE2 portiert und das wars *chatt*
Und so ist das überall in der Kommerz. Sowas kostet eben Geld. Wenn die Leute nicht drohen dir die Bude abzubrennen passiert da nichts. Man hat ja noch 304 Bugfixes von der Brust...

Wenn das alles klappt, sie ihn also im verhältnis so boosten lassen wie den 3300X, und sowas überhaupt kommt, wird der 4300X aber richtig cool sein. Ich bin da langsam heiss drauf :)

edit:
Für den PC tätigt man NIEMALS "Investitionen in die Zukunft" ;) Man kauf was man grad gut gebrauchen kann.
 
Zuletzt bearbeitet:
Zurück
Oben Unten