Wie erklären sich AMD´s Defizite gegenüber Intel auf dem Spielemarkt?

Die Klingonenwitzeleien haben ja immerhin schon bis hier auf den Planeten gefunden.
Welcher P'tach wagt es, die Ehre unseres Hauses in den Schmutz zu ziehen? *Bat'leth zück*

nee, im Ernst, wie bekommt man AMD, Opel und Klingonen in einem Witz unter den Hut? *noahnung*
 
AMD müsste einfach einen eigenen Kompiler anbieten.
Das schöne daran, er müsste ja die I*tels gar nicht schlechter behandeln, sondern nur die eigenen Produkte adequat unterstützen.
Dann würden den auch die Coder einsetzen.
Aber Sie machens nicht.
Stattdessen kommt sowas wie Mantle.
Ich verstehs nicht.
Ich frage mich das seit Ewigkeiten.
 
Mit den Konsolen wird tatsächlich das Spiel neu gemischt werden. Erfolgreicher, als mit Kompilern (denn es gibt ja jetzt schon welche mit AMD-Know-How).

Allerdings werden Entwickler darauf achten, dass auf Intel-Plattformen ihre Spiele auch performen. Und massives Multithreading mit vielen (echten) Kernen ist keine Hoffnung für AMD. Der x86-Erfinder hat auch 10- 12- und noch mehr Kerne pro CPU schon längst auf dem Markt (siehe die Xeon-Familie).

MFG Bobo(2013)
 
habe mit dem Entwickler Rücksprache gehalten, er konnte mir bestätigen das es es Aufgrund des von AMD verwendeten Designes seiner Module problematisch ist. Während bei Intel alle Kerne gleich schnell laufen drosselt AMD Kerne.
Meinst Du nun die IPC, oder irgendetwas anders?
Wenn 8 Threads volle Kanne Last erzeugen laufen die auch auf nem AMD gut. Sollten sie zumindest ^^
Bei Battlefield4 hat man starke Vorteile für Windows 8.1 gemessen .. vielleicht liegts daran?

Ansonsten kann ich mir unter "Drossel" nur irgendwelche Stromsparmodi vorstellen, die kann man aber abstellen ...
Wie sich AMD das dann im Hinblick auf die nächste (in Teilen auf dem kommenden Hasswell E basierende) Generation ab 2015 überhaupt vorstellt?
Schlimmstenfalls (was gar nicht mal unwahrscheinlich ist): Gar nicht. Man gibt den Kampf einfach verloren. Konzentration auf Custom und low-power.

Lustigerweise hechelt dort Intel jetzt AMD hinterher, die wollen jetzt auch Custom-Designs ermöglichen ...
 
sein original Kommentar war:

AMD's approach uses modules with two weaker(ish) cores.
some cores are not as fast as others
stupid design?


vermute er meint es ähnlich wie es z.B. in diesen Kommentaren beschrieben wird:

Yeah, go ahead and ignore everyone saying the AMD cores are only "half cores" as that's very misleading.

The AMD FX CPUs have a really cool design that splits data, and instruction processing into two separate cores. It has 4 cores that have NORMAL strength, and 4 cores that are relatively weak. The more powerful cores process data, while the weaker cores process instructions (as instructions are a LOT less demanding)

This is actually an ingenious design that lets programs that would usually only use one core, use two and so on.

ou need to also realize that AMD's "cores" are really only half-cores, this modular architecture is easier to produce, but they do give up performance in the process

AMD's problem with most of their FX chips is that while they ARE two cores, they starve each other of resources. Don't quote me on this, but I think they've also trimmed down a few instruction sets so that there's only one per module (two "cores"). Things that they've determined you need, just you don't need to run quickly.

I remember way back in the Pentium 4 days that Hyper-Threading was good for about a 30% boost in multi-threaded applications. I think that's about the same boost you get running two cores on each module over one. For example, if running a task on cores 1, 3, 5, 7 nets you 100% performance, running on all 8 cores only returns 30-50% more (versus 100% more if they weren't starved). In my opinion, AMD would have a very good product if they can provide more bandwidth to the modules so that the cores aren't waiting for work.
 
Zuletzt bearbeitet:
Naja .. das ist ziemlich dilettantisch geschrieben .. aber ich habs mir schon gedacht, sie meinen die IPC. Ein einzelner Kern hat weniger Resourcen (Cache/Rechenpipelines) als bei Intel oder auch zuvor beim K10, soweit so gut, aber von "halb" würde ich nicht reden.

Außerdem - wenn sie alle Features wie Intel hätten, insbesondere den guten µOp-Cache, dann wäre AMDs Ansatz ähnlich schnell und sie hätten bei multithread-Anwendungen ein dickes Plus. Denn dass Intel die eigenen Rechenkerne ebenfalls nicht voll auslastet, sieht man daran, dass Hyperthreading schließlich auch noch ~+30% bringt.

Also das ist ein ziemlich Äpfel-Birnen Vergleich.

Was stimmt ist die relativ schlechte single-thread Leistung v.a. ggüber Intels ab Sandy und aufwärts. Hat man da ne Applikation, die nur weniger Threads ausnutzt, schaut man in die Röhre. Da kann AMD nur noch der Takt helfen, siehe FX9xxx. Dafür sind die kleinen, einfachen Kerne eigentlich auch gedacht, nur blöd, dass das für den Herstellungsprozess nicht gilt. Das ist in dem Fall die gleiche Geschichte wie damals mit dem P4. Der wurde auch durch den Herstellungsprozess "erledigt".
 
...was mir bei AMD seit einiger Zeit fehlt, ist eine neue und leistungsfaehigere FPU.

Die aktuelle AMD FPU waere insgesamt wohl gar nicht uebel, muessten sich nicht zwei Kerne effektiv eine FPU teilen (dafuer schlaegt sich das Design eigentlich ueberraschend gut, aber ein "Athlon-Moment" bei einer neuen CPU-Vorstellung waere mir sehr willkommen).
Zumindest kommt es mir so vor, als haette AMD fuer ihre Module einfach andere Prioritaeten gehabt.

IMHO sind aber auch die Compiler mit am Werk, soweit ich mich erinnere ist bei der AMD Kartellklage gegen intel bez. Compiler-Optimierungen nichts rausgekommen. Falls die intel Compiler die AMD CPUs immer noch benachteiligen, duerfte das einen ganz schoenen Batzen ausmachen.

Solange ich mich in der CPU-Entwicklung erinnere, hat die FPU gerade bei Games immer den Ausschlag gegeben, SIMD hat in den letzten Jahren zwar deutlich nachgezogen - war aber AFAIK immer in irgend einer Weise logisch an die FPU angebunden/von ihr abhaengig.
Ausnahmen sind Benches mit klarer GPU-Limitierung, was mit seit jahren gaengigen Grafik-Orgien ja problemlos moeglich ist oder der gelegentliche Ausreisser unter den Spielen (weiss bis heute nicht, warum isolierte Games u.U. recht AMD-freundlich sind, evtl. andere Compiler oder hand-optimiert?).

Intel lag damals mit der FPU des Pentiums (vs. K5/K6) klar vorn, wieder mit dem Pentium II (vs. K6/K6-2), dem Pentium III (vs. K6-2+/III) und Cyrix ist damals an ihrer schwachen und nie verbesserten FPU schlicht und ergreifend kaputtgegangen - trotz ansprechend hoher Integer-Leistung...
AMD hat vom K5 -> K6 -> K6-2 die FPU immer wieder verbessert, was sie letztendlich ueber Wasser hielt.

Erst mit dem Athlon kam die ueberraschende Wende als Paukenschlag (~47% schnellere FPU als intel, wenn ich mich recht an die ersten Apfelmaennchen Fraktal-Benches der CT erinnere).
Das lief gut fuer AMD, bis intel ihre in Haifa entwickelte, nagelneue FPU in den intel Core/Core Duo verbaute. Seitdem liegt intel wieder vorn, bis heute...

(PS. alles aus alten Erinnerungen rausgekramt, alle Angaben daher ohne Gewaehr ;) )
 
Zuletzt bearbeitet:
Erfolgreicher, als mit Kompilern (denn es gibt ja jetzt schon welche mit AMD-Know-How).

Allerdings werden Entwickler darauf achten, dass auf Intel-Plattformen ihre Spiele auch performen.

MFG Bobo(2013)

GCC? Oder das Open*** Dingens
Aber wer nimmt die schon.
Sind doch schnarch lahm.

Ich zitier mich mal selber:
Atombossler schrieb:
Das schöne daran, er müsste ja die I*tels gar nicht schlechter behandeln, sondern nur die eigenen Produkte adequat unterstützen.
Dann würden den auch die Coder einsetzen.
Aber Sie machens nicht.

Der Hersteller kennt den Chip nun mal am besten.
Doch lieber versenken Sie Millionen in ein neues Stepping mit neuen Masken, anstatt sich mal des eigentlichen Problems anzunehmen.
Würdet Ihr eine AMD Radeon mit nVidia Treiber ansteuern (so es denn technisch möglich wäre) und Euch über die miserable Leistung wundern?
Doch wohl kaum.
Nein, es gibt aus gutem Grund einen dedizierten Radeon Treiber.
Oder Euch so ein wenig mit VIA/S3 arrangieren, damit deren Treiber die AMD's unterstützt (Ich weiss Äpfel + Birnen).
Definitiv nicht.

Doch genauso macht es AMD bei den CPU's!

Mantle ist ja ganz nett und sollte bei Games auch einigermassen einschlagen.
Das hilft aber der Gesamtperformance der CPU's bei Produktiv-Software rein gar nicht.
Es macht auch einfach einen unprofessionellen Eindruck.
 
Mal eben einen Kompiler aus dem Hut zaubern?
Kompilerbau ist eine der schwierigsten Techniken der Informatik.
Da gibt es nicht sehr viele, die das erfolgreich machen, daher hinkt auch der GNU Kompiler dem Microsoft Visual Studio hinterher, welches seinerseits dem Intel-Kompiler hinterherhinkt. Warum sind die Macs eigentlich Intel-only? Ich vermute, weil Intel neben den schon flotten Chips nochmal 20% Performance durch Kompileroptimierung obendrauf legt. Ok, es gibt auch andere Gründe, aber das ist ein anderes Thema.
Jedenfalls kann AMD nicht "mal eben" einen Kompiler auf den Markt bringen. Jedenfalls nicht einen, der so advanced ist wie der Intel-Kompiler.
MfG
 
Es fehlt der richtige Code. Den werden wir demnächst aber häufiger finden. BF4 macht den Anfang.
DX ist eine ineffiziente Schnittstelle, die kaum mehr zulässt.

Naja, ich meine gar nicht DirectX, ich meine die reine Rohleistung.
Sei es nun ein handoptimierte Fraktale, heisser SIMD-Code, PovRAY, Cinema4D oder sonstiges, das Bild ist ueberall das gleiche...
 
Zuletzt bearbeitet:
Anhand welcher Grundlage basieren diese Aussagen?

u.a.
http://www.hardware.fr/articles/847-15/moyennes.html
Und vor allem auch hier bei C-Ray welches auf FX CPU's immer positiv hervorgehoben wird als Architekturfortschritt.
http://www.hardware.fr/articles/847-13/performances-c-ray-tscp-7-zip.html:o
Das mehr möglich ist sieht man auch hier:
http://www.yeppp.info/

Und dann gabs noch eine Linux Seite wo die Kompiler verglichen wurden, find ich nur grad nicht.

---------- Beitrag hinzugefügt um 12:03 ---------- Vorheriger Beitrag um 11:59 ----------

Mal eben einen Kompiler aus dem Hut zaubern?
Kompilerbau ist eine der schwierigsten Techniken der Informatik.
Da gibt es nicht sehr viele, die das erfolgreich machen, daher hinkt auch der GNU Kompiler dem Microsoft Visual Studio hinterher, welches seinerseits dem Intel-Kompiler hinterherhinkt. Warum sind die Macs eigentlich Intel-only? Ich vermute, weil Intel neben den schon flotten Chips nochmal 20% Performance durch Kompileroptimierung obendrauf legt. Ok, es gibt auch andere Gründe, aber das ist ein anderes Thema.
Jedenfalls kann AMD nicht "mal eben" einen Kompiler auf den Markt bringen. Jedenfalls nicht einen, der so advanced ist wie der Intel-Kompiler.
MfG

Das hat auch keiner behauptet.
Nur wie lange existiert dieses Problem schon?
Da wär Zeit genug gewesen.
Man muss eben nur mal damit anfangen, durch weg ignorieren wird es nicht besser.
Zudem hätte man sich ja einen Kompilerbauer gönnen können (wie gerade NV), anstatt bei Null anzufangen.
Das wäre selbst mit AMD's Budget möglich gewesen.
 
Zuletzt bearbeitet:
AMD müsste einfach einen eigenen Kompiler anbieten.
AMD hat doch einen eigenen Compiler (Open64). Nur wird der bisher nicht für Windows angeboten. Wobei eh die Frage ist, ob das viel bringen würde. Der verbreitetste Compiler unter Windows ist der von Microsoft. Dort muss AMD mMn versuchen, besseren Support für die eigenen Prozessoren zu bekommen. In Zukunft könnte aufgrund von HSA bzw HSAIL die Situation für AMD aber eh besser werden.

GCC? Oder das Open*** Dingens
Aber wer nimmt die schon.
Sind doch schnarch lahm.
Nahezu aus jedem Vergleich, den ich mit GCC und MSC gemacht habe, ist der GCC als Sieger hervorgegangen. So schlecht ist der GCC bezüglich Performance also gar nicht. Dass der ICC oft noch eine Ecke besser optimiert, bestreitet ja auch keiner. Die Stärken des GCC liegen aber sowieso im Bereich der Portabilität und Unterstützung von Standards wie ISO C oder ISO C++. Das ist für Programmierer oft wichtiger als reine Performance. Zudem gibt es Unmengen an Settings. Da muss man auch wissen, was man tut. Und Open64 erzeugt für AMD eigentlich relativ guten Code. Bei den Vergleichen, die ich bisher gesehen habe, teilweise sogar besseren Code als mit Intel Compiler.


...was mir bei AMD seit einiger Zeit fehlt, ist eine neue und leistungsfaehigere FPU.
Die haben sie doch und nennt sich GCN. ;D
 
Zuletzt bearbeitet:
*g*
Tja, dann muss GCN nur noch um IEEE konformes x87 erweitert werden und in CPUs Einzug erhalten ;)
GCN bleibt halt "Graphics Core Next" und nicht "Processor Core Next", das hilft alles nichts...

Von der seit vielen Jahren beworbenen "Fusion" aus CPU und GPU ist die x86-Welt noch meilenweit entfernt, aber immerhin gibt es langsam handfeste Fortschritte, das muss man anerkennen.
 
Zuletzt bearbeitet:
x87 ist obsolet. Das braucht eh keiner mehr.
 
*g*
Tja, dann muss GCN nur noch um IEEE konformes x87 erweitert werden und in CPUs Einzug erhalten ;)
GCN bleibt halt "Graphics Core Next" und nicht "Processor Core Next", das hilft alles nichts...

Von der seit vielen Jahren beworbenen "Fusion" aus CPU und GPU ist die x86-Welt noch meilenweit entfernt, aber immerhin gibt es langsam handfeste Fortschritte, das muss man anerkennen.
lol, naja dann sollte man auch den Catalyst Treiber ernst nehmen bei 2. Lizenz der letzte Satz!

amd_cat_lizenzyvkjq.jpg


We lovely say, no don´t works on other Hardware. ;D
 
Wie geil ist das denn, das ist mal ein netter Fund *g*
Das macht aus jedem intel-System mit AMD GPU quasi einen "Rebellen" ;D
 
Wie geil ist das denn, das ist mal ein netter Fund *g*
Das macht aus jedem intel-System mit AMD GPU quasi einen "Rebellen" ;D
Danke, es ist nicht auszudenken, was mit dem kleinen Satz alles möglich wäre!
Ich hoffe nur inständig, das AMD das nicht ausnutzt, sonst kocht jeder Hersteller seine Eigene Suppe und wir (Kunden) wundern uns, warum es so seltsam schmeckt. *suspect*
 
Nichts ist damit möglich, da GPUs ja genauso "Prozessoren" sind. Es ist nur dummerweise im deutschen Sprachgebrauch so eingebürgert, dass so viele "Prozessor" mir "CPU" gleichsetzen.

LG
 
Nichts ist damit möglich, da GPUs ja genauso "Prozessoren" sind. Es ist nur dummerweise im deutschen Sprachgebrauch so eingebürgert, dass so viele "Prozessor" mir "CPU" gleichsetzen.

LG
Ja, das stimmt. Aber bezogen auf das System und die Mehrzahl von "AMD Prozessor" macht mich etwas stutzig. *noahnung*
 
Ich denke AMD weiß aber auch das es um ihren Ruf geht. Sieht man ja heute immer noch an Opel, .................................................

Mit dem Unterschied das beim X86 Prozessormarkt die Herstellerauswahl bzw Ausweichmöglichkeit sehr gering ist , bedeutet wenn Intel AMD rausgemobbt hat werden wir alle Mondpreise für die CPUs bezahlen.... Wenn Opel weg wäre gäbe es immer noch genug Ausweichmöglichkeiten....es ist schon sinnvoll sich AMD CPUs bzw APUs zu kaufen wenn man nicht einen x86 Monopol
Hersteller möchte....für normal Gamer PCs die nicht mit absoluten High End Grafikkarten bzw eigentlich mehr High End SLI bzw CrossFire Systemen rausgerüstet sind bietet AMD mit seinen Athlons zb den AMD 760(k) für günstige Zocker Kisten bis hin zum FX 8350 für gehobene Ansprüche immer eine Alternative.

Und ich glaube nicht das Opel schlechte Auto_s baut die haben mit ihren Ruf zu kämpfen (GM hat ja mal vor einiger Zeit zeigen wollen was sie so drauf haben und haben sich in die min Konstruktion von Auto_s (massiv)eingemischt....(danach gings bergab)) und da sie hauptsächlich (nur?) in Europa Ihren Autoabsatz haben auch jetzt noch mit der europaweiten Krise zu tun mfg :)
 
Zuletzt bearbeitet:
Mal ein anderer Betrachtungswinkel.
Zum Thema Hohn und Spott, dafür hat Amd meist selbst bestens für gesorgt.
Phenom1 Bug und der Patch dazu und Aktuell das 220 Watt Lol Monster.
Oder auch die Themenabend Performance nach Jan Gütter.*baeh*

Aber, was kann Intel dafür wenn Amd am Desktop Markt Ewig vorbei Entwickelt und immer nur auf die Serversparte guckt?
Der K8 konnte sich auch erst mit den DC Prozessoren absetzen weil die P4 am designende angelangt waren, und als dann die Cores kamen wurde es dann immer dunkler für Amd.
Z.B. mein E8400, AMD hatte nix was an Leistung und Stromverbrauch auch nur in die Nähe kam, und das hat sich mehr oder weniger nicht wirklich geändert.
Man hat auf immer mehr Kerne als Leistung pro Takt gesetzt, das ging bei den K10 noch gerade so auf.
Man hatte die Zeichen der Zeit wohl nicht sehen wollen, oder man war der Meinung, die Softwareanbieter werden schon nachziehen wenn wir mit noch mehr Kernen ankommen.

Und das wo man eigentlich schon längst weis, Softwareanbieter, vor allem bei Spielen ( als ein Negativhöhepunkt wäre da Blizzard zu nennen) wird meist nur das Nötigtste gemacht damit es läuft, gerade Mehrkernoptimierungen gabs häufig nur mangehalfte Unterstützung.

So, und Amd bringt dann einen 4x2 "Achtkerner" mit deutlich schlechterer Leistung pro Takt und wundert sich dann, wenn man auf die Nase fällt?
Und damits nicht ganz so übel aussieht macht man Werksübertaktung mit Vcores, die schon vor einiger Zeit gegessen waren, mein E8400 läuft auf 3 Ghz mit eingestellten 1.05V, und die aktuellen Prozessoren von Amd laufen praktisch gesehen auf der gleichen Vcore wie die alten K8!
Was dann auch wieder in einer recht Dicken TDP endet.
Die Apu´s sind auch wieder ein Fall wo man schon mal ein bissel nachgrübeln muss.
Für normale Desktopanwendungen ist die integrierte Grafik meist zu dick, und für Spiele dann nicht so wirklich passend, dafür wird Stromverbrauch und Herstellungskosten der Cpu erhöht, leider gibts die gleiche Cpu nicht mit verschiedener Grafik, wie es teilweise Intel macht.

Amd schmeist sich als selbst Knüppel zwichen die Beine.
 
Da muss ich aber nun auch mal intervenieren.
Früher oder später wird die Software auf multikern optimieren müssen weil anderweitig kaum noch nennenswerte Leistungssteigerungen möglich sind.
Dass AMD sich da verschätzt hat in Bezug auf den Zeitrahmen mag allerdings sein. Dennoch, sogar die vielbeschworene Spielebranche wird sich angesichts der neuen Konsolenhardware nun langsam Gedanken machen müssen um mehrkernoptimierungen.
HSA ist die nächste Baustelle in der Hinsicht. - Ich frage mich nebenbei auch, warum jeder bei Vorstellung einer neuen Technologie sofort davon auseht dass man morgen schon Produkte damit kaufen kann und sie spätestens übermorgen in vollem Rahmen ausnutzen. In anderen Branchen ist das alles andere als üblich, aber im IT-Sektor wirds einfach vorrausgesetzt... ja ne is klaa.
 
Zurück
Oben Unten