Mehr als 16 Kerne nicht geplant?

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
In einem interessanten Interview mit Jochen Polster, Geschäftsführer bei AMD Deutschland und Hannes Schwaderer, in selbiger Funktion bei Intel tätig, sprachen die beiden über die kommenden Prozessorentwicklungen.

So soll der derzeitige Trend zu mehr Kernen statt höherer Taktfrequenz auch in den nächsten Jahren noch anhalten. So ist dies momentan laut Jochen Polster im Hinblick auf die Energie-Effizienz der sinnvollere Weg, da eine Erhöhung der Taktfrequenz ungleich mehr Strom verbrauchen würde. Stattdessen sieht der Weg momentan so aus, dass Taktfrequenz gezielt reduziert würde, um mit dem gewonnenen Spielraum zusätzliche Kerne implementieren zu können:<ul><i>"Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch, und zwar um 73 Prozent. Wenn ich das jetzt aber umgekehrt mache, ich reduziere die Taktrate, dann brauche ich nur noch die Hälfte des Stroms, aber gewinne 73 Prozent an Leistung wenn ich den freien Platz dazu nutze, einen zweiten Kern einzusetzen."</i></ul>Sein Kollege bei Intel, Hannes Schwaderer, sieht dies ähnlich, betont aber, dass mit der aktuellen Software der Skalierfähigkeit Grenzen gesetzt sind. Für mehr als 16 Kerne sieht Schwaderer derzeit keine Chance, wobei zu ergänzen ist, dass er sich dabei auf Desktop-Systeme bezieht. In speziellen Server-Einsatzbereichen sind ja schon jetzt deutlich mehr als 16 Kerne - wenn auch nicht unbedingt auf einem CPU-Gehäuse - im Einsatz. Allerdings sind dort auch Betriebssysteme im Einsatz, die in der Multi-CPU-Landschaft groß geworden sind und Spezialanwendungen, die von Grund auf Parallelisierung ausgelegt wurden.

Die Einschätzung ist dabei sogar noch deutlich positiver, als es Microsoft-Strategie Ty Carlson vor ziemlich genau einem Jahr im Rahmen einer Podiumsdiskussion auf der „Future in Review“-Konferenz formuliert hatte. Damals <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1180476553">sprach er Windows Vista eine vernünftige Skalierfähigkeit bei mehr als 4 Kernen ab</a>. Um dieses Problem zu beheben, genügen keine kleinen Anpassungen am Thread-Scheduler. Hier sind völlig neue Ansätze sowohl beim Betriebssystem selbst, als auch bei den Anwendungen gefragt.

Das Gigahertz-Rennen ist zu Ende, die "alten" CPU-Designs sowohl bei Intel als auch bei AMD wurden inzwischen bereits mehrfach erweitert und aufgebohrt - der Phenom geht in der Kernarchitektur bis auf den 1999 eingeführten K7 zurück; der Core 2 basiert auf dem Design des Pentium III, der wiederum seine genetischen Vermächtnisse des 1995 eingeführten Pentium Pro nicht verleugnen kann und will - und damit wird die Luft für weitere Verbesserungen auf diesem Gebiet immer dünner. Da kam den Chipentwicklern die Multi-Core Strategie gerade recht, wo sich die Leistung durch Verwendung mehrerer Kerne in großen Schritten steigern lässt, sofern man Software zur Verfügung hat, die damit umgehen kann.

Man wird sehen, ob die Software-Entwicklung auf dem Desktop-Markt diesen Schritt nachhaltig unterstützen wird. Vor knapp 6 Jahren im Herbst 2002 hat Intel die HyperThreading-Technologie eingeführt. Zum ersten Mal mussten sich die Entwickler mit dem Thema Simultaneous Multithreading für eine breite Anwenderschaft auseinandersetzen. Seitdem hat sich einiges getan und doch ist die Bandbreite an SMT-/SMP-Anwendungen noch immer erschreckend gering. Die meisten Anwender profitieren von ihren Dual- und Quad-Core Systemen derzeit nur insofern, als dass sie mehrere Anwendungen gleichzeitig laufen lassen können ohne dass eine die andere ausbremst. Echte Multithreading-Anwendungen in breiter Kundenhand dagegen kann man noch immer an zwei Händen abzählen (WinRAR, ein paar Photoshop-Filter, DivX-Codec, HD-Video, ...).

<b>Links zum Thema:</b><ul><li><a href="http://www.golem.de/0805/59793.html" TARGET="_blank">AMD und Intel im Interview: Bei 16 Kernen ist Schluss</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1180476553">Windows Vista nicht für Multi-Core Systeme geeignet?</a></li><li><a href="http://www.planet3dnow.de/artikel/diverses/doping/11.shtml">Symmetric Multiprocessing (SMP)</a></li><li><a href="http://www.planet3dnow.de/artikel/diverses/doping/14.shtml">Simultaneous Multithreading (SMT)</a></li></ul>
 
Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch, und zwar um 73 Prozent.

20% = 0,2
0,2² = 0,1

120% = 1,2
1,2² = 1,44

20² = 400


Ich versteh das mit dem 20% mehr Takt bedeutet quadratische Steigerung des Strohmverbrauchs, also 73% ... Ich bekomm die Rechnung nich hin. Kann mir da einer helfen?

8)
 
Tja, dementsprechend ist ein Quadcore sehr selten notwendig und der Tripel von AMD erstmal sinnvoller (P/L mal vorgelassen und bitte auch kein AMD/Intel Disskusion hier, gibt genug Threads darüber).
Aber in fast allen Fällen reicht weiterhin ein DualCore wobei da sogar meistens der zweite Core mit Systemaufgaben beschäftigt ist (PFW, AV und den ganzen andren Müll der als notwendig erachtet wird).

Oder gibt es ein Officepaket/Browser/(hier Anwendung einfügen, mir fällt keine dritte Hauptanwendung für PC gerade ein) mit DualCore unterstützung??? Selbst Games sind ja an den Finger abzuzählen, wenn ich mich recht an den dazugehörigen Thread erinnere.

Wenn man dann sieht wie alt HT ist fragt man sich wirklich ob nicht die Software mal gründlich durchdacht werden sollte... und auch alle andren Sachen wie Flash-Inet Seiten und anders gedöns...

TAL9000
 
Ich tippe mal die meinen das so:
Faktor 1,44 für die Spannung (quadratisch) + Faktor 1,2 für den Takt (linear), sprich 1,2 hoch 3 = 1,728
Aber das würde keinen Sinn ergeben (Und ich glaubedu verwechselst Spannung gerade mit Leistung;))

Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch,
bis hier ist es noch logisch, angenommen, für 20MHz mehr Rechenleistung (einfach halber in MHz, auch wenn´s nicht 100% korrekt ist) bräuchte man eine Spannungserhöhung von 20%, so wird sich auch der Strom (bei gleichem Widerstand, Temperatur vernachlässigt ;)) um 20% erhöhen, die Verlustleistung (P=U*I) steigt also quadratisch.

Takt;
100MHz*120%=120MHz
P=100 Watt (welch ein Prozessor*buck*)
Verlustleistung:
P=(U*120%)*(I*120%)
P*120%² =144%, Erhöhung von 44%*noahnung* Warum sollte man hier noch die Taktratensteigerung dazurechnen*noahnung*
 
Ich denke mal nicht, daß diese Aussage als einwandfrei genaue Rechnung gedacht war, auch wenn ein "73%"-Wert darin vorkommt. Aber die Grundaussage, daß die Leistungssteigerung durch Taktverdoppelung (mit dem ganzen Rattenschwanz von technischen Problemen, der daran hängt, also Spannungserhöhung, Hochfrequenzprobleme usw.) wesentlich ineffizienter ist als einfach die Anzahl Cores zu verdoppeln, bleibt natürlich richtig.

Im Grafikbereich wird das ja auch so mit großem Erfolg gemacht, statt 128 Shadern mit 900MHz nur einen einzigen mit entsprechend höherer Frequenz wäre ja technisch völlig utopisch, die rechnerischen 115,2GHz würden wohl wegen Skalierungsproblemen nicht mal reichen für gleiche Leistung. Aber dort geht es auch, im CPU-Bereich bremst leider die Softwarelandschaft die Multicoreentwicklung.
 
Aber was mich wundert, es ist auch die Rede von Taktrate, ansonsten könnte man sage, dass dier die Steigerung für mehr "Leistung" nicht linear der Steigung in der Taktrate ist, zu welcher wiederum die Verlustleistung quadratisch ansteigt... dann müsste man da mehr mit einbeziehen, aber so*noahnung*
 
Aber das würde keinen Sinn ergeben (Und ich glaubedu verwechselst Spannung gerade mit Leistung;))

Wieso, der Stromverbrauch steigt doch in etwa quadratisch mit Erhöhung der Spannung und (zusätzlich) linear mit dem Takt.
Sprich wenn ich 20% mehr Takt haben will (und davon ausgehe, dass das nur mit Spannungserhöhung geht) brauche ich bei gleichbleibender Architektur Faktor 1,2 für den Takt, dazu das ganze noch mal mal Faktor 1,2 ² für die nötige Spannungserhöhung.

macht insgesammt Faktor 1,2³
Ist sicher auch was schöngerechnet um den Satz "Wir wollten 10GHz erreichen und sind bei 3,8 gescheitert" zu umgehen ;)
 
Zuletzt bearbeitet:
Naja ist ja auch schwierig, denn vor allem in Spielen hat mal Zeitlich abhängige Theats. Also solche, die nacheinander ablaufen müssen und eben nicht paralel laufen. Bei Photoshop etwa ist das ja wieder was anderes. Wenn man da einen Effekt auf ein Bild anwendet, wird das einfach in mehrere Bereiche gegliedert und die einzelnen Bereiche von jen einzelnen Cores bearbeitet. Funktioniert aber auch nicht, bei allen Effekten. Da viele Effekte ja nicht abgrenzbar sind...

de.Wikipedia.org:
Einzelne Threads eines Prozesses/Tasks können sehr schnell auf zeitkritische Ereignisse reagieren, während andere Threads langwierige Berechnungen durchführen.

Das waren die Worte die mir fehlten. Zeitkritische Ereignisse! Bei Spielen hat man ja fast ausschließlich solche. Außerdem ist es einfach viel unaufwendiger (-> ihr wisst was ich meine) ein Program in einen Threat zu packen, als in mehrere. Die meisten Spiele-Publisher scheren sich doch eh einen Scheiß um Kompatiblität!
 
Zuletzt bearbeitet:
@Blutschlumpf; OK, sorry, da hab ich dich falsch verstanden;) So würde das ganze wieder Sinn ergeben, das hatte ich jetzt nicht mit einbezogen, bzw gar nicht erst daran gedacht. Somit dürfte das "Rätsel" gelöst sein.
 
Solange die Ausnutzung von mehr Kernen sich nicht deutlich verbessert, ist das immer noch deutlich Ineffizienter als höherer Takt.
Und vor allem im Idle siehts doch bescheiden für die Mehrkerner aus, und das ist immer noch der größte "Arbeitsfall".
 
Schön sind ja mehrere Kerne, wenn denn die Betriebsysteme auch die möglichkeiten nutzen.
Habe selbst heute mit einem eigenem Programm (.NET2 sp1) mit diversen Threads auf Quadcores getestet. Der test lief auf Win XP Sp2, Win XP Sp3 und Win Server 2003 Sp2. (Vista ist für unsere Produktiv systeme nicht zugelassen).
Und was kam raus? Das blöde framework teilte die Threads hunsmieserabel auf. Anders kann ich mir nicht erklären das nach deaktivierung von 2 Kernen die Anwendung einen Leistungssprung von ca 40% machte (nur auf XP Sp3 und Win Server 2003).

Die Applikation hat 5 Threads, 4 davon erzeugen gut last und sind nicht von einander abhängig.

So kann das nichts werden. Fazit ist das wir nun Dualcore system bevorzugen da die schneller laufen als ein ähnlicher quad.

Gruss
Black-Byte
 
Hmm AMD oder Intel CPU ? Falls die Applikation viel RAM braucht, limitiert villeicht schon der FSB beim Intel.

Nur ne Vermutung.

ciao

Alex
 
Naja wenn sies schaffe, und leider würd ich sagen momentan eher Intel als AMD, dann wäre 16x 3 GHz eh der absolute Wahnsinn (aus heutiger Sicht)

Bei 32nm müsste sich ja dann eh was tun. is weniger als die Hälfte von 65nm sollten also mindestens (Platzmäßig) 16 Kerne ihr zuhause finden können.
 
Ist ein Intel Q6600 mit 4GB Ram. Die Speicherauslastung ist laut prozess explorer ca 33 MB. Sollte also genug Luft sein. ;)

Einzigestes IO ist das logging auf festplatte (sperater Thread damit er den rest nicht bremst)

Haben leider nur Dual AMDs hier sonnst hätte ich das auch mal auf nem AMD getestet.
 
Zuletzt bearbeitet:
Solange nur Spiele und Heimanwendungen im Vordergrund stehen, mögen die hier offerierten 'Argumente' eine gewisse Berechtigung haben. Insbesondere sind sie 'richtig', wenn man weiterhin einen Windows-vernagelten Blick anführt. Sogenannte 'Userland-Threads', wie sie in Spielen oder Anwendungen eingesetzt werden, sind dann Grenzen gesetzt, wenn es dem darunterliegenden Betriebssystem nicht möglich ist, einen Userthread möglichst optimal auf Kernel-Threads abzubilden. SUNs Lightweight-Kernel-Thread-Modell (n:m Threading) ist auf SPARC Architekturen sehr gut und skaliert mit n CPUs auch recht gut. Versuche, dieses Modell auch in die Intel-Welt zu portieren (KSE im FreeBSD-Kernel) sind gerade eingestellt worden, weil es offenbar auf der archaischen Architektur der x86-CPUs mit 1:1-Modellen besser klappt. Und an dieser Stelle eröffnet sich einem die Crux am Henne-Ei-Problem. Zum einen sind viele der heute gängigen Betriebssysteme architektonisch auf 16 CPUs limitiert/optimiert. Eine Änderung dieses Umstandes nimmt einige Jahre Entwicklungsarbeit in Anspruch - Frickeleien wie im Linux-Umfeld üblich einmal ausgeschlossen. Neben der x86-inhärenten Limitation kommt noch die NUMA/UMA-Problematik, die sich natürlich auch im Betriebssystem/Scheduler niederschlagen muß. Sind Mehrkern-Architekturen nicht vorhanden, wird man eben auch keine diese ausreizende Software produzieren!
Noch immer scheinen Threads ein Ding zu sein, um das die meisten Entwickler einen großen Bogen machen. Ich weiß nicht, wann ich das erste Mal von dieser Konzeption hörte, aber das ist mindestens 15 Jahre her. Und seither ist zwar viel passiert, aber lange nicht soviel, als daß man von einem echten Paradigmenwechsel sprechen könnte. Heute wird in vielen Bereichen noch Prozeß-orientiert programmiert und hofft auf eine optimale Verteilung per Scheduler auf vorhandene CPUs - und freut sich ob der gewonnenen Geschwindigkeit. Schaut man sich Datenbanksysteme wie MySQL an, so ist erst mit Version 5.1 (jüngst erschienen) eine Optimierung auf mehr als zwei CPUs erfolgt!
Nun ja, das Gesagte wäre ein Pro für die, die behaupten, man könne nicht mehr als 16 Kerne sinnvoll nutzen. Allerdings nutzen wir ab und an auch mal 512 CPUs/Kerne und sind froh, so viele zu haben und bei unseren 'Anwendungen' dreht leider keine CPU/kein Kern Däumchen.

Für mich liest sich dieses AMD/Intel-Interview wie eine Vorab-Apologie. Microsoft liefert auf absehbare Zeit (die nächsten 3 Jahre) kein wirklich gut skalierendes und mehr als 16 CPUs optimal nutzende Betriebssystem, die Monopol-Bastelfritzen a la AMD und Intel reden die architektonischen Limitationen ihrer Ergüsse schön und so geben sich wieder einmal die 'Richtigen' die Klinken in die Hand.

Wer dann noch den Mut hat und fragt, was eigentlich außerhalb des Windoof-x86-Zirkels passiert, der trifft dann vielleicht auf SUNs T2, die CELL/CELL 2, IBMs Power6 oder andere 'Exoten' aus der Welt der echten 64 Bit Prozessoren (und nicht aufgeblasene 32 Bit Spielzeuge) und ganz offenbar können diese Systeme mit entsprechenden Betriebssystemen auch locker mit 32/64 Prozessoren/Kernen umgehen (auch wenn SUN gerade mal 64 virtuelle 'CPUs' alias Threads auf einem Chipträger realisieren kann und die CPUs nicht immer in ein und demselben Gehäuse sitzen).

Mir fehlen die Visionäre! AMD brachte 64Bit in die bezahlbare Intelwelt und Dank Microsofts Windows 'brauchen' viele noch immer kein 64 Bit System. Ich kann nur für mich sprechen. Nachdem Microsoft mit seinem Dreck auch im wissenschaftlichen Sektor endgültig zu Intels Durchbruch verholfen hatte und man zunächst einen Rückfall von 64 Bit ins 32 Bit Steinzeitalter hinnehmen mußte, war man für AMDs Schritt, 64 Bit 'einzuführen', dankbar. Und bis heute profitiere ich davon - größerer Adreßraum (es zählt der virtuelle Adreßraum, nicht, was ich letztlich an RAM im Rechner stecken habe!), breitere (und vielfach vorhandene) Register etc. Was mich allerdings wurmt und was vermutlich nach wie vor auf das 32 Bit-Gerüst dieser 'Architektur' deutet, ist der Umstand, daß 64 Bit Zeiger-Arithmetik auf einem AMD64 System langsamer als eine 32 bittige Operation ist. Dieser Unterschied wird dann sehr deutlich, wenn man einen alten P4 mit einem Athlon64 vergleicht. Irgendwie will mir nicht in den Kopf, daß man die CPU nicht dahingehend optimieren kann, daß sowohl 32 Bit als auch 64 Bit Zeigeroperationen dieselben Taktzyklen konsumieren. Und wieso verbreitert man nicht den Speicherbus bzw. konzipiert diesen ähnlich der RAMBus Philosophie quasi-seriell?

Kurzum, in o.g. Aussage fehlt die essentielle Bedingung, daß man lediglich Windows-Systeme betrachtet.
 
Was mich allerdings wurmt (...) ist der Umstand, daß 64 Bit Zeiger-Arithmetik auf einem AMD64 System langsamer als eine 32 bittige Operation ist.
Angeblich brechen Core 2 bei 64-Bit sogar stärker ein als Athlon 64. Hat das jemand mal mit Benchmarks nachvollzogen?
 
@Drohne

Du hast einen sehr interessanten Post zum Besten gegeben leider ist er an der News vorbei geschossen.

Die Jungs von Intel und AMD haben vermerkt das mehr als 16 CPU´s pro DIE auf einem Desktop System aktuell keinen Sinn machen. Das hat grundsätzlich überhaupt nichts mit Linux, Windows oder sonst einem Betriebssystem zu tun.

Die Gründe warum sich die Threading Programmierung noch nicht durchgesetzt hat wurde doch schon von Onkel_Dithmeyer bestens erklärt.

Aber ich geb dir gerne noch mal ein Beispiel:

Wenn ich eine Operation durchführen möchte wie 5 + 5 = 10 erhalte ich keinen Vorteil wenn dies durch mehrere CPUs durchgeführt wird. Eine Verbesserung kann hier nur über eine schnellere CPU stattfinden.

Wenn ich jetzt aber ein Paket mit 100 unterschiedlichen Operationen habe x + z = y, usw. dann können sich mehrere CPUs dieses Paket aufteilen. Für die Finalisierung des Paket und eines eventuellen Gesamtergebnissen benötigst du allerdings Prüfungslogiken und Verfahren die Sicherstellen das Paketbestandteile abgearbeitet worden sind.

Das ganze macht bei immer wiederkehrenden Operationen durchaus Sinn und wird aktuell auch schon verwendet wie im News Post erwähnt. Eine vielzahl der Aktionen die wir benötigen lassen sich leider nur bedingt oder garnicht parallisieren.

Bsp. Spiel:
1x CPU -> Physik
1x CPU -> KI
1x CPU -> Koordination

Das andere Problem ist allerdings die hardwareseitige Limitierung durch die Festplatten! Es bringt nichts wenn 16 CPUs auf 16 verschiedene Festplattensegmente zugreifen wollen. Die meisten großen Applikationen die wir verwenden werden meist durch die Plattenlimitierung eingeschränkt wo die CPUs Däumchen drehen weil die Platte nicht mehr mit Schreib und Lesezugriffen hinterher kommt das tritt übrigens gerne bei der Verarbeitung von Massendaten auf!

Du siehst also Threading hat seine Vor- und Nachteile und es mangelt an mehreren Ecken. Die Betriebssysteme sind meiner Meinung nach allerdings hinten anzustellen was das angeht? Oder hat dies bezüglich noch jemand ein paar Infos?
 
Die Frage die mir grad in den Kopf schießt ist, was kommt eigendlcih in 2-3 Jahren? Wenn die Entwicklung für CPU's wirklich am Ende ist! Dann gibt es die 16-Kern Systeme mit allen möglichen Erweiterungen. Vielleicht werden die Festplatten dan revolutioniert -> Holografische Festplatten oder PCM (Phase Change Memory http://www.eetimes.com/news/semi/sh...SNDLPSKHSCJUNN2JVN?articleID=197800524&pgno=1)
Vielleicht wird die Grafikkarte abgelöst -> Raytracing!

Aber was passiert mit den CPU's? Nemen wir Abstand von der X86-Architektur? Gehen wir zu POWERPC oder SPARC oder IBM's CELL oder irgend was neuem? Es gab in der Vergangenheit immer neue Ideen "Destruktive Inovation". Heute gehen die Techniken in den CPU's auf zig Generationen zurück. Aber wann gab es denn wirklich mal was neues? Integrierte NB, Fusion, 64bit, HT, Multicore, etc. das ist doch nicht wirklich etwas überraschendes, etwas wirklich neues. Andere Architekturen laufen so schon seit einem Jahrzehnt! Abgesehen vom Fusion, der schon seit 3 Jahren in der Entwicklung ist und immer wieder verschoben wird. Das sind aber alles keine Sachen, die wirkliche Leistungsschübe versprechen!
Ich hab wirklich ein wenig Angst um die Zukunft! :-/ Irgendwann kann man ja auch nicht mehr wenn denn dann neue BS raus sind, die wirklich auf ach wie vielen Cores vernünftig Skalieren. Aber die Vertigungsverfahren sind bald auf der minimalen Größe angekommen. Gut als nächstes wird vielleicht kein Silizium sondern Kohlenstoff verwendet, aber kleiner als nen Atom geht nun mal nicht mehr! Und wenn das Shrinken so weiter geht ist man in 3-4 Jahren auf einer Größe angelangt, wo man nicht kleiner kann, weil die Atome "zu Groß" werden.
Wird es Dies geben, so groß wie Monitore? Was werden sie kosten? Erfahren sie all dies in der nächsten Sendung, wenn es wieder heist, Space-Invaders gab es wirklich!
Aber mal ernsthaft. Wenn jetzt schon die Chipindustrie eingesteht, dass es nur noch wenigen Technologischen Spielraum gibt. Was wird dann aus uns? Den Konsumenten? Bleibt die Entwicklung stehen und man versucht einfach noch mehr aus den Kisten zu holen. So wie man immer wieder neue Demos für den Amiga/Comodore/Atari usw. sieht?

*noahnung*
 
1.) Das Problem ist, dass die meiste Software einfach nicht ordentlich optimiert wurde. Bei einigen Programmen wie WinRAR oder DivX wurde eine sehr halbherzige Optimierung implementiert, was man gut bei 4 oder mehr Kernen sieht und der größte Teil läuft immer noch auf einem Thread. Wirklich gute Optimierungen, die auch noch mit 4 Kernen aufwärts ordentlich funktionieren, sieht man sehr selten z.B. bei x264. Zum größten Teil ist es nicht einmal schwer z.B. bei einem Batch über 100 Audio Files kann man leicht immer 4 parallel laufen lassen, wenn lame schon nicht multi threaded ist.

2.) Meiner Meinung nach ist Dual Core sinnvoll im normalen Desktop-Office Bereich, aber alles darüber ist kompletter Schwachsinn. Das sind nur 2 Kerne, die unnötig Strom schlucken. Mehr Takt wäre hier deutlich sinnvoller. Hier einmal meine Rechnung:

Für 20% mehr Takt braucht man 20% mehr Spannung, also 1,2^2 (für die Spannung) * 1,2 (wegen dem Takt) = 1,73x Energieverbrauch.

Der maximale Takt skaliert jedoch bei weitem nicht linear mit dem Takt.

Für 10% weniger Spannung muss ich schon um 20% beim Takt runter, also 0,9^2*0,8 = x Energieverbrauch = 0,648x Energieverbrauch.
Damit bekomme ich einen dritten Kern hin. Dieser bringt in 20% der Anwendungen (wenn überhaupt) eine Leistungssteigerung von ca. 20% (mehr ist es so gut wie nie). In 100% der Anwendungen habe ich jedoch einen Leistungsabfall von ca. 18%, da der Takt niedriger ist, also habe ich in 20% der Anwendungen die gleiche Leistung und in 80% der Anwendungen deutlich weniger. Dazu kommt, dass die CPU deutlich teurer ist, da immer noch 50% mehr Fläche verbraucht werden.
Ich denke jedoch, dass AMD hier 6 statt 4 Kerne gemeint hat, was aber noch viel sinnloser ist.
 
@Onkel

Ich seh das mal nicht sooo kritisch. Wir waren vor Jahren doch schon mal auf dem selben Stand bezüglich der Technik und schau dir an wo wir heute stehen! Die Leistung hat sich die letzten Jahrezehnte stetig exponentiell entwickelt!

Auf dem Festplatten Sektor hat man auch einen Stillstand nach den ersten 300-500GB Platten vorher gesagt und heute sind wir bei einem Terabyte!!!

Irgendwann muss ein Schritt erfolgen aber wer sagt das dies in einem Satz gestemmt wird? Irgendwann werden wir vielleicht eigenständige KIs entwickeln. Du sagst dann nur was gemacht werden soll wie und in welcher Reihenfolge wird diese "CPU" vielleicht selbst entscheiden. Dann muss bezüglich reiner Rechnenlogik nicht mehr die Software sondern die Hardware weiterentwickelt werden!

Der Grafikkarten Markt ist immer ein interessantes Beispiel. Technisch gesehen ist die Hardware 3 Jahre vorraus. Leistungstechnisch hat die Hardware Ecke allerdings Probleme mit den gestiegenen Anforderungen mitzuhalten.

Soll heißen wenn die aktuellen Anwendungen allen finesen der neuen Hardware ausnutzen würde wäre die wahrscheinlich garnicht in der Lage das in eine entsprechende Geschwindigkeit umzusetzen.

Die Software Leute sind da nach meinem aktuellen Kenntnisstand auf einem guten Weg und brauchen um die Qualität zu steigern nur die vorhandenen Features erhöhen. -> bessere Qualität der Bitmaps, mehr Kanten damit weniger zu sehen sind ;o), höhere Auflösungen, mehr Farben, mehr Physikberechnungen = mehr Effekte von allem mehr aber irgendwann wird auch da die Frage komme wie noch realisitischer ;D

@Andr_gin

Ich geb dir da recht aktuell machen Quads einfach keinen Sinn im Desktop Bereich. Ich habe mir nen Quad System zugelegt aber die CPUs waren mir einfach zu lahm. Warum nen Quad mit 2,4GHz der gegen eine Dual Core mit 3,2GHz nicht anstinken kann und noch dazu mehr Strom verpufft! Wenn AMD mal die 45NM Quads draußen hat werde ich mir noch einen zum Nachrüsten drauf pflanzen solange sie aber noch bei 2,x GHz rumdümpeln bei erhöhtem Strombedarf absoluter Nonsense ;o)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Also ALDI-PC 2012 mit 16-fach CPU und 3 GB - DRAM DDR4 - damit WinDOS 32 auch gut läuft ?

Wie es Problem sein kann die ca. 60-100 laufenden Windows-Prozesse gleichmäßig auf 4++ Cores zu verteilen ist mir ein Rätsel.

Wahrscheinlich ist im Source-Core irgendwo noch das A20-Gate berücksichtigt und der zuständige Programmierer ist vor Jahren zu Google gewechselt .... ;D
Natürlich Unsinn, Linux-Programmierer haben auf schwarzen Messen ihre Seele dem leibhaftigen Teufel vermacht und dafür die Kraft der 16++ Kerne erhalten. 8)

Fazit:
Kauft ALDI und 3GB 32 Bit Windows, sonst landet ihr ewig im Fegefeuer und müßt bis zum Ende aller Tage Windows 95a auf PCs installieren.
 
Angeblich brechen Core 2 bei 64-Bit sogar stärker ein als Athlon 64. Hat das jemand mal mit Benchmarks nachvollzogen?

Mir ist leider kein Test dieses Umstandes bekannt, aber dieses Gerücht geht schon lange umher. So recht glauben mag ich es aber nicht. Man müßte sich dann schon einmal die Taktzyklen für die einzelnen Adreßoperatoren ansehen.
 
Mir ist leider kein Test dieses Umstandes bekannt, aber dieses Gerücht geht schon lange umher. So recht glauben mag ich es aber nicht. Man müßte sich dann schon einmal die Taktzyklen für die einzelnen Adreßoperatoren ansehen.
Wäre aber sehr interessant so ein Test, vor allem da 64bit ja doch langsam im kommen ist.
zB Ubuntu amd64 vs Vista 64 oder so wäre interessant. Wüsste jetzt natürlich auch nicht in welcher Disziplin man gleichwertig testen kann, aber vielleicht fällt euch ja was ein :)
 
Zurück
Oben Unten