CPU-Limits und Spiele

Auch wenn es Leute gibt, die das gerne Abstreiten, so auch Complicated, meiner Meinung nach - und bei der bleibe ich - ist es so, dass jeder Kern seine eigenen Rechenwerke vollständig für sich allein benutzen kann. Dies ist beim Bulldozer nun mal nicht der Fall, hier sind die FPUs eines Modul geteilt, auch der L2 Cache.
Und das heisst der Definition nach es gab vor 1990 keine CPU-Kerne als die FPU und der Cache noch zum aufstecken optional auf das Board gab?

Die Bulldozer Kerne sind Integer Recheneinheiten, so wie jeder CPU Kern.
https://de.m.wikipedia.org/wiki/Intel_i486
?L2-Cache: abhängig vom verwendeten Mainboard bzw. Chipsatz

...
Der i486SX ist ein i486 ohne bzw. mit abgeschalteter FPU. Auf diese Weise konnte Intel auch Prozessoren mit defekter Floating-point-unit noch als preiswerte Alternative verkaufen, statt sie entsorgen zu müssen.
Also deine Definition von Kernen ist nachweislich falsch, da die 386er Generation einen CPU Kern hatten ohne FPU und L2 Cache. Die FPU ist ein mathematischer Co-Prozessor und der Cache gehört auch nicht zum CPU-Kern

Ach und übrigens haben auch Jaguar basierte Quadcores einen geteilten L2 Cache. Ebenso gibt es Intel CPUs und andere Hersteller die shared L2 Cache verwenden. Apple A8: https://en.m.wikipedia.org/wiki/Apple_A8
 
Zuletzt bearbeitet:
der Cache gehört auch nicht zum CPU-Kern
Da denk ich an meinen 286er, wo ich den Cache auf dem Board dazustecken konnte :)
Und viele aktuelle kleine Microcontroller haben immer noch keinen Cache und FPU.
 
Mein erster war auch ein Amstrad 286er :)
 
Auch wenn es Leute gibt, die das gerne Abstreiten, so auch Complicated, meiner Meinung nach - und bei der bleibe ich - ist es so, dass jeder Kern seine eigenen Rechenwerke vollständig für sich allein benutzen kann. Dies ist beim Bulldozer nun mal nicht der Fall, hier sind die FPUs eines Modul geteilt, auch der L2 Cache.

Natürlich könnte man es zugegeben auch so beschreiben, dass je Modul zwei Integer-Cores sitzen, die sich das außen herum Teilen, also L2 und FPU Einheit. Das ganze ist eher ein Problem der Definition, denn rein technisch betrachtet sind es ja sogar drei Cores je Modul, 2x INT 1xFPU. *chatt*
Die 3 Cores trifft es fast. Akademische Veröffentlichungen und Patente erwähnen für die FPU auch oft das "Coprocessor Model". So heißt es auch bei anderen Architekturen (Bobcat, Jaguar, m.W. K10, etc.). Das liegt vielleicht am eigenen Scheduler, was bei Intel nicht der Fall ist.

Der Rechtsstreit dreht sich aber um die FPU ("complex calculations") mit dem Beispiel Musik-Konvertierung in iTunes - was in der gezeigten Version aber single threaded ist. ;) Und da jede FPU auch ein Front End indirekt zur Verfügung hat, ist sie dadurch nicht limitiert. Sie wird sogar effizienter via SMT ausgelastet, als gehörte sie nur zu einem Kern. Dann hätte das Design eine kleinere FPU verwendet (Power/Area), welche generell langsamer wäre. Tja.. Hmm.. Wie man's macht, macht man's wohl falsch. ;)

Zen wird damit zum Glück aufräumen. Und noch mehr.
 
Wie angekündigt habe ich hier einiges großzügig ausgelagert, falls sich der eine oder andere Beitrag hier zu unrecht befindet oder auch einer nicht, sagt es mir bitte, dann schau ich es mir nochmal an.


In eigener Sache:

Und das heisst der Definition nach es gab vor 1990 keine CPU-Kerne als die FPU und der Cache noch zum aufstecken optional auf das Board gab?

Die Bulldozer Kerne sind Integer Recheneinheiten, so wie jeder CPU Kern.
https://de.m.wikipedia.org/wiki/Intel_i486

Also deine Definition von Kernen ist nachweislich falsch, da die 386er Generation einen CPU Kern hatten ohne FPU und L2 Cache. Die FPU ist ein mathematischer Co-Prozessor und der Cache gehört auch nicht zum CPU-Kern

Ach und übrigens haben auch Jaguar basierte Quadcores einen geteilten L2 Cache. Ebenso gibt es Intel CPUs und andere Hersteller die shared L2 Cache verwenden. Apple A8: https://en.m.wikipedia.org/wiki/Apple_A8

Ja, die FPU war (ist) ein eigener Bestandteil. Richtig. Und auch früher nicht integriert, von diesem Standpunkt aus: Ja. Geb ich dir recht.

Man könnte aber natürlich auch so argumentieren: Früher gab es die FPU nicht, also war sie einfach kein integraler Bestandteil einer CPU bzw. von dessen Kern und da es sie noch nicht gab, waren es natürlich CPU-Kerne, nur eben mit weniger Fähigkeiten. Später wurde die FPU dann eingeführt und in die CPU auf dem DIE integriert.
Da es früher eben nur einen Core pro CPU gab, wurde sie von den meisten, durchaus auch Fachleuten, als Teil des Kerns betrachtet.

Damit hat AMD eben gebrochen. Wie gesagt, ich sehe das eher als Problem der Definition. Beide sind IMHO richtig, je nach Auffassung. Aber ich will mich darüber nicht streiten.
 
Zuletzt bearbeitet:
Damit hat AMD eben gebrochen.
Was haben sie gebrochen?
Die FPU war auch vor Bulldozer KEIN Teil des Kerns, warum sollte sich das mit Bulldozer plötzlich geändert haben?
Den Quark von intel gibt es auch mitohne FPU, dort stört es komischerweise niemanden!

Wahrscheinlich finden irgednwelche Leute auch bei Zen etwas über das sie jahrelang streiten werden:\
 
Ok, ihr habt mich überzeugt.

Habe nochmal nachgelesen und mir die Sache durch den Kopf, und es scheint so, dass tatsächlich die FPU nicht zum "Kern" gerechnet wird.
Vermute mal, ich und auch viele andere, haben wohl "core" synonym für die komplette CPU bestehend aus Core+Anbauten, abgespeichert.

Dann müsste mal wohl eher sagen, ein BD-Modul enspricht nicht zwangsläufig zwei vollständigen CPUs, sofern man von Architekturen von z.B. K5 aufwärts ausgeht, bei denen die FPUs nicht geteilt waren. Ohne hier gleich den nächsten Streit vom Zaun brechen zu wollen.
 
Eine CPU braucht keine FPU oder Cache um vollständig zu sein. Oder gilt das nun auch für integrierte GPUs? Der Begriff Kern beschreibt eben den Kern der CPU ohne das drumherum. CPU und CPU-Core/Kern sind eben nicht das selbe.
Ebenso sind Kern und Ausführungseinheiten nicht das selbe.

Es ist leider so, dass das ständige falsche wiederholen bei Lesern dazu führt, dass sich die Dinge festsetzen. Und wenn man dann mal in einem Thema die Dinge gerade rücken will kommt ein Moderator und splittet das Thema. Auch hier wieder durch dich geschehen.

Ähnliches passiert mit dieser Kern-Diskussion in allen Foren. Alleine hier auf P3D dutzende Male durchgekaut und dennoch hast selbst du als Moderator es noch nicht mitgekriegt.

Ich schlage daher vor zumindest das Thema in "CPU-Limits und Spiele" umzubenennen. Dann hat man eine Referenz zum verlinken und muss das ganze nicht von vorne starten alle 3 Wochen.
 
Complicated, hast dir eigentlich die Mühe gemacht ganz zu lesen, was ich geschrieben habe? Dass ich den Begriff eingeschränkt habe auf das was wir heute als "klassische" x86 CPUs verstehen?
Dass eine CPU keine FPU braucht das weiß sogar so ein armer kleiner Moderator wie ich. :P

Und zum "graderücken" und Splitten, im anderen Thread ist das nunmal völlig fehl am Platz.

Den Titel pass ich jetzt gleich an.
 
Zuletzt bearbeitet:
Ich habe das schon gelesen, stimme aber mit dir nicht überein. Daher mein Beispiel mit der GPU. Was ein CPU-Kern ist ändert sich nicht dadurch ob Co-Prozessoren mit hinein wandern, Speichercontroller, GPU oder andere FFUs (Fixed Function Units) wie AES.

Ich will einfach klar machen dass es hierfür keine Einschränkungen gibt wie moderne Architektur oder seit K5. Es gilt universell als Kern der Integer-Core. Man muss von keiner spezifischen Einschränkung sprechen.


Danke für das umbenennen.
 
Ja so fühlt es sich oft an. Ich brenn dann mal einen Obstler daraus.. ;)
 
Was haben sie gebrochen?
Die FPU war auch vor Bulldozer KEIN Teil des Kerns, warum sollte sich das mit Bulldozer plötzlich geändert haben?
Den Quark von intel gibt es auch mitohne FPU, dort stört es komischerweise niemanden!

Wahrscheinlich finden irgednwelche Leute auch bei Zen etwas über das sie jahrelang streiten werden:\


Würde ein x86er heute überhaupt ohne FPU noch funktionieren? Wenn nicht, gehört es inzwischen dazu.
 
Wie schon im Thread ausgeführt baut Intel seine Quarks auch ohne FPU. Zumal es keine Rolle spielt ob x86 ohne FPU funktioniert. Auch ARM hat Kerne die lediglich die Integer Instruktionen ausführen. SSE und AVX sind Teil des x86 Instruktionssatzes oder eher gesagt Erweiterungen die dazu gezählt werden. Damit will ich sagen x86 steht nicht für Code der nur auf den CPU-Kernen läuft, sondern der ebenfalls zu großem Teil auf der FPU läuft.

In jedem Fall bestimmt der x86 Instruktionssatz nicht was ein CPU-Kern ist. Zumal deutlich mehr ARM-Kerne im Markt vorhanden sind.
Ebenso wenig verlieren CPU-Kerne nicht ihren Status weil HSA die GPU einbindet als Rechenwerk.

Mal andersherum gefragt. Was denkst du wie viele Router mit einer CPU ausgestattet sind die eine FPU enthält?
 
Zuletzt bearbeitet:
Ich habe das schon gelesen, stimme aber mit dir nicht überein. Daher mein Beispiel mit der GPU. Was ein CPU-Kern ist ändert sich nicht dadurch ob Co-Prozessoren mit hinein wandern, Speichercontroller, GPU oder andere FFUs (Fixed Function Units) wie AES.

Ich will einfach klar machen dass es hierfür keine Einschränkungen gibt wie moderne Architektur oder seit K5. Es gilt universell als Kern der Integer-Core. Man muss von keiner spezifischen Einschränkung sprechen.


Danke für das umbenennen.

Ich habe doch von einer CPU gesprochen, nicht vom Kern. Also, der K5 ist eine x86 mit FPU+INT, K6, K7, K8. Dann kamen die ersten X2 K8 von AMD, das ja im Endeffekt zwei komplette Single-K8, jeweils mit eigenen FPU und L2 Caches.

Der Bulldozer hat aber zwei Integer Cores die sich die FPU-Einheit Teilen, ebenso L2.

Also, sofern ich nicht völlig daneben liege, entspricht ein BD-Modul nicht zwei vollständigen "klassischen" CPUs. Sag mir wenn ich damit falsch liege. Ich wills einfach nur verstehen. :D
 
Also Ich lese immer was von ZWEI pro Modul.....

Ein Modul hat zwei 128-Bit-Gleitkommaeinheiten (FPUs), die bei Bedarf zu einer 256-Bit-breiten Gleitkommaeinheit kombiniert werden können. Der FPU stehen pro Modul zwei Integercluster mit je zwei ALUs und zwei AGUs („adress generation units“) zur Seite.

Es hat zwei Integer-Einheiten (Ganzzahl) und eine 256-Bit-Floatingpoint-(Gleitkommazahl)-Einheit, die bei Bedarf in zwei 128-Bit-FPUs aufgeteilt werden kann.

https://de.wikipedia.org/wiki/AMD_Bulldozer
 
Also irgendwie versteh ich den Thread nicht. Streiten sich hier Leute darüber das heutzutage einfach alles doof ist? Also wenn ich eine Endlosschleife kompiliere ist der limitierende Faktor jetzt die CPU oder meine Software weil sie nutzlos ist? Wahrscheinlich ist der limitierende Faktor dann beides. Am ehesten glaube ich aber das der limitierende Faktor Menschen sind. Wenn man mal darüber nachdenkt ist das die einfachste Schlussfolgerung...
 
Natürlich ist es der Mensch,weil wir immer noch keine Künstliche Intelligents haben die uns das "Denken" abnimmt.Auch ist es der Mensch der Geldgeil ist......Eine KI würde die Software nicht nur auf Eine HW "in dem Fall Intel" Optimieren......
Die KI hätte keine dummen Ausreden von wegen das geht nicht,die hat nur der Mensch weil scheinbar nur der 50 Jahre alte Code das Geld aufs Konto bring bei den meisten Entwicklern.
 
Also Ich lese immer was von ZWEI pro Modul.....

Ein Modul hat zwei 128-Bit-Gleitkommaeinheiten (FPUs), die bei Bedarf zu einer 256-Bit-breiten Gleitkommaeinheit kombiniert werden können. Der FPU stehen pro Modul zwei Integercluster mit je zwei ALUs und zwei AGUs („adress generation units“) zur Seite.

Es hat zwei Integer-Einheiten (Ganzzahl) und eine 256-Bit-Floatingpoint-(Gleitkommazahl)-Einheit, die bei Bedarf in zwei 128-Bit-FPUs aufgeteilt werden kann.

https://de.wikipedia.org/wiki/AMD_Bulldozer

Um es jetzt mal für Riddler zu klären du hast!

Casi hat zwar auch recht aber nur bedingt und zudem hat er eine Einheit die in der FPU ist mit ihr verwechselt bei seiner Erklärung

Ein BD Modul besteht aus einer FPU und 2 Interger-Cluster ( siehe Blockschaltbild auf Wikipedia) und von 2 FPUs zu sprechen nur weil die eine 256Bit FPU sich in 2 128er aufteilt entspricht ja nicht der Wahrheit es ist und bleibt nur eine FPU pro Modul.
Im Wikitext ist es nicht wirklich leicht heraus zu lesen, aber ich denke ich hab es jetzt. Die FPU selber besteht aus 4x64 Bit ADD Modulen und 4x64 Bit
MAC Modulen, (selber Job andere Funktionsweise, versteh ich zumindest so) Die ADD-Module runden das Ergebnis direkt und die MAC-Module runden das Ergebnis erst nach Erledigung der kompletten Arbeit

---Update---
so hab das geändert beim nachträglichen durchlesen ist mir mein Fehler auch aufgefallen, man sollte nicht auf der Arbeit zwischen Tür und Angel lesen und dann schreiben .... Asche auf mein Haupt -_-
 
Zuletzt bearbeitet:
Sorry aber deine Erklärung ist so voller Fehler und falscher Bezeichnungen, sowie fehlerhafter zusammenhänge, dass du es entweder besser wieder loschst oder es besser jeder ignoriert der sich korrekt informieren will.

Besondere hervorstechend: Die FPU versorgt keine Integer Kerne mit Daten.

Edit:
Ich empfehle dir als Quelle die Analysen hier auf der Seite und nicht Wikipedia:
http://www.planet3dnow.de/cms/18564...hitekturen/subpage-die-bulldozer-architektur/

Das ist ja als ob du deinem Mathe-Professor anhand eines Grundschulbuches das Addieren bei bringen willst.
 
Zuletzt bearbeitet:
nee nee, das ist schon größtenteils die Schuld der CPU. Oder des Compilers, aber das kommt auf dasselbe raus, AMD muß nun mal eine CPU bauen, die mit pro-Intel-Kompilaten gut klarkommt. Bzgl. "Straffheit" ;) des Gesamtsystems steht ja AMD immer gut da, da hakt's bei Intel eher mal. Nützt ihnen aber trotzdem nichts.

naja, was sollen wir jetzt noch nachtreten, hat sich ja bald ausgebulldozert. Good riddance, wie der Lateiner sagt.
Wie wäre es mit Kanonen auf Spatzen zu schießen?

1x FuryX + 1x Fury + 1x NANO im CfX Gespann mit Frame Pacing. 8)

(Veni Vidi Vici)
 
Casi hat zwar auch recht aber nur bedingt und zudem hat er eine Einheit die in der FPU ist mit ihr verwechselt bei seiner Erklärung

Ein BD Modul besteht aus einer FPU und 2 Interger-Cluster ( siehe Blockschaltbild auf Wikipedia) und von 2 FPUs zu sprechen nur weil die eine 256Bit FPU sich in 2 128er aufteilt entspricht ja nicht der Wahrheit es ist und bleibt nur eine FPU pro Modul.

Stimmt,das hab ich überlesen bzw die letzte rote zwei zu viel gerötet.

Andersrum wenn man es weiter Oberflächlich betrachtet:
Warum nennt Intel seine CPUs 2 Kern/4Kern.......
P4:
http://images.google.de/imgres?imgu...ved=0ahUKEwib_p_x1s_KAhVHDQ4KHdARBXoQrQMIMjAH
http://extreme.pcgameshardware.de/a...798-intel-pentium-4-koepfen-p290813_10.16.jpg

Skylake:
http://images.google.de/imgres?imgu...ved=0ahUKEwivwLnl1c_KAhVCHA8KHfvmDF0QrQMIHTAA

Warum sehen die gleich aus?
Ich sehe da keine 4 Kerne,DU etwar?
 
Zuletzt bearbeitet:
Natürlich ist es der Mensch,weil wir immer noch keine Künstliche Intelligents haben die uns das "Denken" abnimmt.Auch ist es der Mensch der Geldgeil ist......Eine KI würde die Software nicht nur auf Eine HW "in dem Fall Intel" Optimieren......
Die KI hätte keine dummen Ausreden von wegen das geht nicht,die hat nur der Mensch weil scheinbar nur der 50 Jahre alte Code das Geld aufs Konto bring bei den meisten Entwicklern.

Marketing wäre künstlich geschaffen, da es von dem eigentlichem Ereigniss abschweift und vorgibt, dass jene Zielgruppe Intelligent sei. Nur wissen jene (unwissende) nichts über Hard- &Software!
Denn die Entwickler haben doch immer Recht und der hinterfragende Nutzer ist eh ein Nerd- hinterfragen ist zudem pure Zeit verschwendung, da über Medien doch bereits alles gesagt wurde*chatt*

Menschen mit künstlicher Intelligents gibts es zu hauf, denn der glaube an seine eigen Intelligenz ist künstlich geschaffen- ohne dies würde der Mensch, sich sonst mit sich selbst und vorallem mit der Gesellschaft an sich auseinander setzen....
 
Nur mal den aktuellsten Unfug in technischer Hinsicht zu zitieren:
AMD kann dagegen von Asynchronous Compute profitieren und hat mit der DirectX-11-Treiberschwäche im CPU-Limit unter DirectX 12 nicht mehr zu kämpfen.
Zu lesen im aktuellen Beta-Test bei CB zu DX12:
http://www.computerbase.de/2016-02/.../#diagramm-ashes-of-the-singularity-1920-1080

Nach wie vor ist man nicht in der Lage zu erkennen was für ein Unsinn das ist und kommt dann auf solche verdrehten und sinnlosen Bezeichnungen. Nur nicht das Buzz-Wort aufgeben nachdem deutlich wird es herrscht kein CPU-Limit nach dem nutzen einer neuen API.
 
Zurück
Oben Unten