AMD Zen - 14nm, 8 Kerne, 95W TDP & DDR4?

Nicht nur APU -Käufer. Den Link bitte schön merken für die Diskussionen über die bald wieder so wichtige Dual-GPU Konfiguration und warum AM4 mit 2 8XPCI3 unterlegen ist gegenüber der 2011 Quadchannel-Plattform von Intel. Man darf sich schon wappnen ;)
Wenn man bedenkt, dass PCIe3 alleine durch den Wechsel von 8bit10 bei PCIe2 zu 128bit130bit 20% Overhead einspart im Protokoll sollte eigentlich klar sein dass selbst auf AM4 Boards keine Beeinträchtigungen für Crossfire/SLI besteht. Also auch für die Extrem Gamer und VR-Fans tauglich sollte Dual-GPU solanfähig werden mit DX12/Vulkan spielen.

Ehrlich gesagt sehe ich 2x PCIe x8 3.0 für AM4 als kritisch an.

Seit der R9 290X geht jedwede CrossFire-Kommunikation über die PCIe-Slots. Und auch bei NVIDIA geht, sobald GSync ins Spiel kommt, auch vieles über die Slots. Und da kann man sehr wohl Szenarien konstruieren, wo 20 oder 30 Prozent Leistung verloren gehen - manchmal sogar noch mehr.

Ich empfehle hierfür mal ein wenig Stöbern im 3DCenter-Forum, wo man solche Posts von Blaire findet.

Wenn ich mir dort mal die Vergleichsdiagramme für WatchDogs anschaue, dann finde ich:

- knapp 20 Prozent Vorteil bei den Min-FPS im Single-Karten-Betrieb zwischen PCIe x16 2.0 und x16 3.0
- knapp 100 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

Bei FallOut 4 finde ich

- knapp 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

StarWars Battlefront:

- knapp 10 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

The Witcher 3:

- etwas über 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

Klar sind das Extrembeispiele, aber sie existieren und lassen sich auch nicht wegdiskutieren. Je schneller die Grafikkarten, desto eher verschenkt man mit 2x PCIe x8 3.0 Leistung - nicht gegenüber 2x PCIe x16 2.0, sondern gegenüber 2x PCIe x16 3.0. Und das bei einer neuen Plattform ist imho äußerst ärgerlich.
 
Sehe ich für die Massen alles andere als kritisch an, und wenn du schon auf 3D Center verweist:

Hardware- und Nachrichten-Links des 26./27. November 2016
Umfrage-Auswertung: Welche Chance wird MultiChip-Lösungen noch gegeben?

Wer dann wieder der Vernunft auf Multi-GPU setzen will greift zu LGA2011-3 oder wenn verfügar einem entsprechenden Workstationchipsatz für ZEN (1 Sockelserver). Du selber bist doch ein bestes Beispiel dafür wenn Geld keine Rolle spielt ;)

Da sind auch alle LGA 115x Intelchipsätze kritisch.
 
Zuletzt bearbeitet:
Sehe ich für die Massen alles andere als kritisch an, und wenn du schon auf 3D Center verweist:

Hardware- und Nachrichten-Links des 26./27. November 2016
Umfrage-Auswertung: Welche Chance wird MultiChip-Lösungen noch gegeben?

Wer dann wieder der Vernunft auf Multi-GPU setzen will greift zu LGA2011-3 oder wenn verfügar einem entsprechenden Workstationchipsatz für ZEN (1 Sockelserver). Du selber bist doch ein bestes Beispiel dafür wenn Geld keine Rolle spielt ;)

Da sind auch alle LGA 115x Intelchipsätze kritisch.

Mir ist bewusst, dass

1. Multi-GPU eine Nische ist und
2. immer weniger neue Spiele mGPU unterstützen.

Und dennoch sehe ich das kritisch.

Ich gebe dir recht: Alle LGA-115x-Chipsätze sind diesbezüglich kritisch. Aber bei Intel gibt es eben noch ein Marktsegment darüber, welches ich auch aktuell nutze. AMD wird aber in wenigen Wochen seine neue High-End-Plattform vorstellen (EDIT: die es in Sachen CPU-Leistung mit S2011-3 aufnehmen soll) - und da ist ein Chipsatz mit 2x PCIe x8 3.0 das höchste der Gefühle. Selbst wenn ich 3k Euro für ein Mainboard ausgeben könnte - die fehlenden Lanes kann ich mir dadurch nicht anlöten. Ob es jemals andere CPUs bzw. Chipsätze geben wird, die 2x x16 3.0 unterstützen und ob wir diese dann sogar in ausgewachsenen Desktop-Boards sehen, steht derzeit völlig in den Sternen. Was nutzt mir eine CPU-/Chipsatz-Kombi mit 2x x16 3.0, wenn die vielleicht auf einem Mainboard ohne OC-Funktionen läuft?

Sowas ist genau einer der Punkte, die ich vor Wochen schonmal angesprochen habe. AMD kann sich bei Zen eigentlich nur selbst ein Bein stellen. Und "nur" 2x x8 3.0 sind meiner Meinung nach schon ein ziemlich heftiger Ansatz dafür - Nische hin oder her. Wollen wir doch mal sehen, wieviele Redaktionen beim Launch darauf "herumreiten" werden. ;)

Und um das nochmal klarzustellen: Geld spielt bei mir sehr wohl eine Rolle. ;)
 
Mir ist bewusst, dass

1. Multi-GPU eine Nische ist und
2. immer weniger neue Spiele mGPU unterstützen.

Und dennoch sehe ich das kritisch.

Ich gebe dir recht: Alle LGA-115x-Chipsätze sind diesbezüglich kritisch. Aber bei Intel gibt es eben noch ein Marktsegment darüber, welches ich auch aktuell nutze. AMD wird aber in wenigen Wochen seine neue High-End-Plattform vorstellen - und da ist ein Chipsatz mit 2x PCIe x8 3.0 das höchste der Gefühle. Selbst wenn ich 3k Euro für ein Mainboard ausgeben könnte - die fehlenden Lanes kann ich mir dadurch nicht anlöten. Ob es jemals andere CPUs bzw. Chipsätze geben wird, die 2x x16 3.0 unterstützen und ob wir diese dann sogar in ausgewachsenen Desktop-Boards sehen, steht derzeit völlig in den Sternen. Was nutzt mir eine CPU-/Chipsatz-Kombi mit 2x x16 3.0, wenn die vielleicht auf einem Mainboard ohne OC-Funktionen läuft?

Sowas ist genau einer der Punkte, die ich vor Wochen schonmal angesprochen habe. AMD kann sich bei Zen eigentlich nur selbst ein Bein stellen. Und "nur" 2x x8 3.0 sind meiner Meinung nach schon ein ziemlich heftiger Ansatz dafür - Nische hin oder her. Wollen wir doch mal sehen, wieviele Redaktionen beim Launch darauf "herumreiten" werden. ;)

Und um das nochmal klarzustellen: Geld spielt bei mir sehr wohl eine Rolle. ;)
*suspect* Hab zur Zeit kein HBB, nur eine CfX Bridge auf den Ladies hängen


@eratte
Music hat es evt. über, aber das spielt bei der Qualität seiner Texte keine Rolle.
M-GPU wird nicht vernachlässigt, die Enthusiasten sind die Leader zur Zeit.
Minimum FpS sind nach wie vor wichtig, auch wenn es nur Nachlade-Ruckler sind. :)
 
*suspect* Hab zur Zeit kein HBB, nur eine CfX Bridge auf den Ladies hängen

Du hast ja auch "nur" 7970er. Da läuft ja noch alles wie gehabt. Mit den 290ern kam dann der Wechsel zur Kommunikation über die Slots. Möglicherweise läuft das ja auch ohne Probleme - ich weiß es nicht. Ich will nur darauf hinaus, dass man sehr wohl Szenarien hat, die ein Limit darstellen - man kann leider nicht (mehr?) pauschal sagen, dass 2x x8 3.0 in allen Lebenslagen ausreichen.



@eratte
Music hat es evt. über, aber das spielt bei der Qualität seiner Texte keine Rolle.
M-GPU wird nicht vernachlässigt, die Enthusiasten sind die Leader zur Zeit.
Minimum FpS sind nach wie vor wichtig, auch wenn es nur Nachlade-Ruckler sind. :)

eratte hat ja prinzipiell recht. mGPU ist eine Nische und wird irgendwie immer bedeutungsloser - übrigens bereits zum 2. Mal. Das kommt sicherlich nicht von Ungefähr.

Dennoch halte ich gerade einmal 16 PCIe-3.0-Lanes für ein theoretisches Multi-GPU-Setup im Jahre 2017 für deutlich zu wenig. Ich könnte aktuell x8 / x8 / x8 / x8 auf meinem S2011-3 fahren und schimpfe darüber - wohlweislich, dass ich 2x echte x16 habe und auch nutze. Und das seit mehr als einem Jahr. Da will es mir nicht in den Kopf, wieso AMD das in 2017 nicht hinbekommt (oder vielmehr hinbekommen will). AMD schneidet sich hier meiner Meinung nach mal wieder ins eigene Fleisch, indem man einem potenziellen Kundenkreis von vornherein signalisiert, dass die Plattform für sie nicht das Optimum darstellt. Und leider ist dieser Kundenkreis einer der zahlungskräftigeren und trotz seines Nischendaseins genau der Kundenkreis, der am lautesten schreit (sieht man ja irgendwie an mir)... :D

Mal abgesehen davon, dass ich seit dem versauten Patch von BF1, wo es extremes Flackern im mGPU-Betrieb gab, auch fast wieder zum sGPU-User geworden wäre. Mich hat nur der Preis der Titan X Pascal davon abgehalten - denn wie gesagt: Geld spielt auch bei mir eine Rolle. Ich hätte ~500 Euro draufgezahlt und wäre da, wo SLI ordentlich skaliert (z.B. in BF1) nur etwa gleich schnell gewesen wie jetzt - nur halt mit den Annehmlichkeiten von sGPU. Und das waren mir die über 50 Prozent Aufpreis dann nicht wert - bei weitem nicht...
 
Wäre schön, wenn AMD und nVdia die mGPUs ganz streichen würden. Die freiwerdenden Ressourcen könnte man in den Treiber / neue Produkte stecken.
 
Wäre schön, wenn AMD und nVdia die mGPUs ganz streichen würden. Die freiwerdenden Ressourcen könnte man in den Treiber / neue Produkte stecken.

Ganz ehrlich: Ich hätte aktuell kein Problem damit. Denn wie gesagt: mGPU stirbt gefühlt gerade zum 2. Mal nach dem SLI von 3dfx.

Nur ist das eben bisher nicht der Fall - und solange etwas auf der Feature-Liste steht, sollte es meiner Meinung nach nicht an solchen "Kleinigkeiten" scheitern. Tut es aber irgendwie doch - und das ist traurig.
 
@Music
Spätesten bei zwei 7990 (X²) wird es lächerlich mit: 1x x 16 + 1x x8 PCIe 2.0.
Was ruckelt denn da so? Kein Software "Heini" am Start?
 
ich hätte die mehr pcie ehr für zusatzkarten was bei meinem z97 nie eine option war ...

das Asus Crosshair VI sieht ja auch sehr schick aus ;)
 
Ehrlich gesagt sehe ich 2x PCIe x8 3.0 für AM4 als kritisch an.

Seit der R9 290X geht jedwede CrossFire-Kommunikation über die PCIe-Slots. Und auch bei NVIDIA geht, sobald GSync ins Spiel kommt, auch vieles über die Slots. Und da kann man sehr wohl Szenarien konstruieren, wo 20 oder 30 Prozent Leistung verloren gehen - manchmal sogar noch mehr.

Ich sehe das ebenfalls als geringes Problem an da der Wert der min. FPS Wert genau wie die max. FPS ein einmaliger Wert und bei diversen Spielen nicht gerade reproduzierbar ist.
Da reicht schon ein einmaliger Absacker bei einem Nachladeszenario um diesen Wert festzulegen.
Des weiteren wird das Kommunikationsproblem entschärft sobald eine PCIe Bridge (wie bei den Doppelwopper Karten) im Spiel ist. Die beiden GPUs können dann ohne weiteres mit einander kommunizieren ohne den Weg über den Chipsatz zu nehmen. Der ist erst dann wieder im Spiel wenn es um Daten von der CPU oder dem Speicher geht.
Hat der externe Part des Chipsatzes eine solche Bridge integriert ist das Problem nur noch halb so wild.
 
Ich meinte das mit dem Beispiel auch eher das wenn einer Multi GPU haben will entsprechende Hardware kauft. Ich habe ja selber in LGA1366, 2011 und 2011-3 ordentlich € verbrannt nur nicht wegen Multi GPU. Ich sehe aber den AM4 als Gegenentwurf zum LGA115x und da ist er sogar besser aufgestellt nach dem jetzigen Stand. Nur weil es dafür einen 8 Kerner gibt und Intel das für seine Mainstreamplattform künstlich klein gehalten hat heisst es nicht das AM4 das Gegenstück zu LGA2011 ist.

Generell sind Mainboards für LGA2011 deutlich teurer als für LGA115x auch wenn selbst da Boards zu abstrusen Preisen gibt. Auf die kleine Nische mit Mutli GPU hat es AMD erst mal nicht abgesehen denke ich. Ich hoffe es gelingt im restlichen Markt ordentlich Hardware abzusetzen.

Music hat es evt. über, aber das spielt bei der Qualität seiner Texte keine Rolle.

So war das nicht gemeint sondern was Leute die Multi GPU wirklich haben wollen an passender Hardware kaufen - eben meist keine LGA115x oder bald AM4 Plattformen.
 
Zuletzt bearbeitet:
Ich sehe das ebenfalls als geringes Problem an da der Wert der min. FPS Wert genau wie die max. FPS ein einmaliger Wert und bei diversen Spielen nicht gerade reproduzierbar ist.
Da reicht schon ein einmaliger Absacker bei einem Nachladeszenario um diesen Wert festzulegen.

Hast du dir die verlinkten Diagramme angesehen?

Meine Aussagen beziehen sich zwar auf die Min-FPS, bei den Avg-FPS sieht es aber quasi genauso aus:

Bei FallOut 4 finde ich

- knapp 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
- knapp 30 Prozent Vorteil bei den Avg-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

StarWars Battlefront:

- knapp 10 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
- knapp 10 Prozent Vorteil bei den Avg-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

The Witcher 3:

- etwas über 30 Prozent Vorteil bei den Min-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0
- etwas über 25 Prozent Vorteil bei den Avg-FPS im SLI-Betrieb mit High-Bandwith-SLI-Bridge zwischen 2x PCIe x16 2.0 und 2x PCIe x16 3.0

Bei den Watchdogs-Werten von oben muss ich mich in den Diagrammen vertan haben. Denn bei nochmaliger Betrachtung sind die Single-GPU-Werte gleich und die angesprochenen mGPU-Werte sind um etwas über 25 Prozent höher. Die Avg-FPS sind im gleichen Szenario knapp 25 Prozent höher.

Ich habe die Min-FPS nur deshalb angeführt, weil man diese in der Regel am heftigsten spürt. Was aber nicht heißt, dass die Situation beim Durchschnitt deshalb drastisch anders aussieht. ;)

--- Update ---

So war das nicht gemeint sondern was Leute die Multi GPU wirklich haben wollen an passender Hardware kaufen - eben meist keine LGA115x oder bald AM4 Plattformen.

Aber die Argumentation ist doch irgendwie absurd, oder? AMD stellt eine High-End-Plattform vor, will wieder im High-End (Hochpreissegment) mitmischen, seine Marktanteile vergrößern und eine Plattform von klein bis groß anbieten. Intel benötigt zwei Plattformen, um alles abzudecken (sicherlich aus preispolitischer Sicht heraus gewollt), AMD will hingegen eine Plattform für alles. Und schon von Beginn an suggeriert man: Wenn ihr Multi-GPU wollte, kauft Intel?! Das ist das, was mir nicht in den Schädel will....



Nur weil es dafür einen 8 Kerner gibt und Intel das für seine Mainstreamplattform künstlich klein gehalten hat heist es nicht das AM4 das Gegenstück zu LGA2011 ist.

CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3. Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
 
Schlimmer als das, ich habe eigene Erfahrungen gemacht und da schwankt der min. FPS Wert zum Teil erheblich und genau darauf bezog ich mich auch. Auf die Festlegung an diesen Wert.
Ich habe aber eine Vermutung wo der Unterschied herkommen könnte denn diverse GPGPU Projekte reagierten zum Teil recht empfindlich auf eine geringere PCIe Bandbreite.
Bei wievielen dieser Extrembeispielen spielt das z.B. durch Gameworks eine definitive Rolle?

PS: Wo hatte AMD gesagt das sie ein Desktop Gegenstück für den 2011-3 Sockel planen würden?
 
Zuletzt bearbeitet:
Schlimmer als das, ich habe eigene Erfahrungen gemacht und da schwankt der min. FPS Wert zum Teil erheblich und genau darauf bezog ich mich auch. Auf die Festlegung an diesen Wert.

Ich bin mir bewusst, dass der Min-FPS-Wert stark schwankt. Aber ich habe ja bereits geschrieben, dass es bei den Avg-FPS fast 1:1 so aussieht. Und damit gilt deine Argumentation bezüglich einmaliger Ausreißer nicht mehr.



Ich habe aber eine Vermutung wo der Unterschied herkommen könnte denn diverse GPGPU Projekte reagierten zum Teil recht empfindlich auf eine geringere PCIe Bandbreite.
Bei wievielen dieser Extrembeispielen spielt das z.B. durch Gameworks eine definitive Rolle?

Mir ist es relativ egal, woran es liegt - ob jetzt Gameworks daran Schuld ist oder Windows oder die Treiber oder die Mondphasen. Fakt ist (ich wiederhole mich), dass es definitiv Szenarien gibt, wo 2x PCIe x8 3.0 in der heutigen Spielewelt limitieren. Und es gibt sehr wohl technische Möglichkeiten, 2x PCIe x16 3.0 zu bieten. AMD wird dies bei einer brandneuen Plattform nicht tun - warum auch immer. Das ist mindestens kritikwürdig, meiner Meinung nach aber sogar kritisch - weil man (ich wiederhole mich erneut) sich von vornherein einer kleinen, aber finanzkräftigen Kundengruppe verschließt.



PS: Wo hatte AMD gesagt das sie ein Desktop Gegenstück für den 2011-3 Sockel planen würden?

Ich habe nicht gesagt, dass AMD gesagt hätte, man plane ein Sockel-2011-3-Gegenstück. Ich habe nur gesagt, dass AM4 CPU-seitig soetwas wie das Gegenstück zu 2011-3 darstellt - schließlich wird AMDs dickster Desktop-CPU darin laufen. Wie es später mit Naples und seinen Derivaten aussieht wird man sehen. Bis dahin ist AM4 aber alles, was AMD in die Waagschale wirft - und da fehlt meiner Meinung nach ein nicht unbedeutendes Feature.
 
Ehrlich gesagt sehe ich 2x PCIe x8 3.0 für AM4 als kritisch an.

Wo sollen denn die Daten herkommen um mehr als 16+4+4PCIe 3.0 Leitungen zu bedienen?
16 PCIe schaffen 32GB/s https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/
Nach Aida64 sind dualChannel DDR4 2400 zwar 34GB/s drin, DDR4 3000 bis 42,7GB/s https://www.computerbase.de/2015-10/speicher-fuer-skylake-ddr3-1333-ddr4-3000-vergleich/3/#diagramm-aida64-speichertest-read
aber praktisch hat die CPU ja noch was anderes zu tun als nur die Daten sequentiell aus dem RAM zu lesen und auf den PCI zu schieben.
Für mehr PCIe 3.0 Lanes sind also auch mehr Speicherkanäle notwendig.
Ich meine also, bei 2 Speicherkanälen sind die 16PCIe 3.0 für GPU passend. Zudem erledigt sich das Nachladen, wenn Vega mit SSD unterstützung kommt.
 
Wo sollen denn die Daten herkommen um mehr als 16+4+4PCIe 3.0 Leitungen zu bedienen?
16 PCIe schaffen 32GB/s https://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/
Nach Aida64 sind dualChannel DDR4 2400 zwar 34GB/s drin, DDR4 3000 bis 42,7GB/s https://www.computerbase.de/2015-10/speicher-fuer-skylake-ddr3-1333-ddr4-3000-vergleich/3/#diagramm-aida64-speichertest-read
aber praktisch hat die CPU ja noch was anderes zu tun als nur die Daten sequentiell aus dem RAM zu lesen und auf den PCI zu schieben.
Für mehr PCIe 3.0 Lanes sind also auch mehr Speicherkanäle notwendig.
Ich meine also, bei 2 Speicherkanälen sind die 16PCIe 3.0 für GPU passend. Zudem erledigt sich das Nachladen, wenn Vega mit SSD unterstützung kommt.

Punkt 1:
Multi-GPU hat einen Verwaltungsaufwand, wodurch die beteiligten GPUs auch untereinander kommunizieren (müssen) - nicht immer nur ausschließlich RAM -> CPU -> GPU und umgekehrt.

Punkt 2:
Multi-GPU krankt an einigen Problemen, die nahezu alle mit der AFR-Technik zu tun haben. SFR würde Vieles vereinfachen. Doch SFR verlangt - hört hört - eine höhere Bandbreite, da der Kommunikationsaufwand zwischen den CPUs deutlich höher liegt als bei AFR.

Da entsteht ein Teufelskreis, der das Sterben von mGPU zur Folge haben wird. SFR wäre besser, benötigt aber mehr Bandbreite. Weder AMD noch Intel scheinen gewillt, dieses Mehr an Bandbreite flächendeckend bereitzustellen. Also bleibt allen nichts anderes übrig, als bei AFR zu bleiben. Da AFR aber Nachteile hat, wird in mGPU nichts mehr investiert. Und weil niemand mehr in mGPU investiert, sind Intel und AMD scheinbar nicht mehr gewillt, flächendeckend mehr Bandbreite bereitzustellen.
 
Na, wenn die Kommunikation der GPUs untereinander mehr Bandbreite benötigt, warum muß dann die CPU mit mehr Leitungen angebunden sein?
Da liegt dann das Nadelöhr im System, wenn alles über die CPU läuft.
 
Ich denke die Vergleichsbasis hinkt hier. Die Performancegewinne waren alle SLI Systeme, was eine Schwäche der Nvidia Technik offenbart. AMD hat XDMA eingeführt und die Bridges obsolet gemacht, die eben die zusätzliche Bandbreite (eigentlich eher Latenz Reduzierung) ermöglichen. Siehe:
https://community.amd.com/community/gaming/blog/2015/05/11/modernizing-multi-gpu-gaming-with-xdma
At a principle level, XDMA dispenses with the external bridge by opening a direct channel of communication between the multiple GPUs in a system. This channel operates over the very same PCI Express® bus in which your AMD Radeon graphics cards are currently installed. The exclusive function of that bus is to shuttle graphics data between GPUs and your processor, so it’s already well suited to the new task of collecting and showing the data each GPU is working on when playing games.
It just so happens that the PCI Express bus also provides a tremendous amount of bandwidth—far more than can be allocated to today’s external bridges! As noted by Anandtech in their comprehensive analysis of XDMA, the bandwidth of an external bridge is just 900MB/s, whereas PCI Express® can provide up to 32GB/s with a PCIe 3.0 x16 slot (about 35x more bandwidth).
http://www.anandtech.com/show/7457/the-radeon-r9-290x-review/4
Ultimately AMD’s goal with the XDMA engine is to make PCIe based Crossfire just as efficient, performant, and compatible as CFBI based Crossfire, and despite the initial concerns we had over the use of the PCIe bus, based on our test results AMD appears to have delivered on their promises.

Somit könnte AMD hier XDMA dafür nutzen auf AM4 Systemen auch AMD GPUs in größeren Stückzahlen zu verkaufen - könnte auch anders herum ein Argument werden. Mit einer AMD GPU brauche ich kein 2011 Quadchannel System als Unterbau wie mit einer Nvidia SLI Konfiguration, da spart der Enthusiast gleich mehrfach weil sich dann auch mit einem Freesync-Monitor günstiger und mit mehr Auswahl eindecken kann zu seinem AM4/Vega/Freesync Bundle rechnet man da ein 2011(doppelt RAM)/GTX/Gysnc dagegen sind da schnell ein paar hundert Euro Vorteil beim AMD System zu finden.
 
Zuletzt bearbeitet:
Wer sagt denn, dass es nicht eine Enthusiasten-Plattform wie den FX auf Sockel 940 geben wird. Bei den MCM-Zens mit >8 Kernen gibt es ja kein Problem, dass zu wenig PCIe-Lanes vorhanden sind.
 
CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3. Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?

Nein ist es im Grunde nicht, nur weil es bei Intel max. 4K/8T auf der Mainstreamplattform gibt muss man das ja nicht bei AMD auch so sehen. Der LGA2011 ist ein "Serverabfallprodukt" und die Plattform ist mit den 40 PCIe 3.0 Lanes und Quadchannel RAM teuer - Features die viele Anwender nicht brauchen aber "bezahlen" müssten. Auch ein i7 7700k auf Z270 gilt als "Highend".

Bisher gibt es nur den Blendertest, der zeigt nur das er unter den gestellten Bedingungen gleiche Performance wie ein 6900k liefert. Der 6900k wurde aber auch auf Dualchannel RAM gesetzt so wie Ryzen sie auch maximal bietet.

Ich hoffe das Ryzen und AM4 ein Erfolg wird auch weil es dann die Latte im Mainstream über 4K/8T nach oben verlegt. Dazu braucht es einen Unterbau zu möglichst vernünftigen Preisen.

Ob aus dem Bereich 1 Sockelserver für ZEN auch entsprechenden Consumer Desktop/Workstation Produkte entstehen bleibt abzuwarten.

Für dieses Jahr gilt es AM4 und Vega erfolgreich in den Markt zu platzieren. Man sollte da auch Ressourcen und Budget die zur Verfügung stehen bedenken.
 
Zuletzt bearbeitet:
Aber die Argumentation ist doch irgendwie absurd, oder? AMD stellt eine High-End-Plattform vor, will wieder im High-End (Hochpreissegment) mitmischen, seine Marktanteile vergrößern und eine Plattform von klein bis groß anbieten.
AM4 ist eindeutig nicht als So2011 Konkurrenz entwickelt worden, sondern als Konkurrenz für die So 115x Plattform. Man erweitert einfach Mainstream nach oben statt in direkte Konkurrenz zu Intels 6C/8C zu treten. Das macht unter Berücksichtigung von AMDs finanzieller Situation durchaus Sinn.

Intel benötigt zwei Plattformen, um alles abzudecken (sicherlich aus preispolitischer Sicht heraus gewollt), AMD will hingegen eine Plattform für alles. Und schon von Beginn an suggeriert man: Wenn ihr Multi-GPU wollte, kauft Intel?! Das ist das, was mir nicht in den Schädel will....
Es lohnt sich nicht, so einfach ist das. Sie können nicht die Plattform für 99% der Kunden teuer machen nur damit 1% in einigen wenigen Fällen etwas mehr Leistung bekommen. Dieses Segment wird man, wenn überhaupt, erst mit einem Ableger der Server-Plattform adressieren.

CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3. Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
Wer sagt, das es überhaupt einen direkten So2011 Konkurrenten im Desktop-Segment geben muss? Selbst bei Intel ist dieses Segment nur Resteverwertung. Ähnlich könnte es AMD machen.
 
... AMD stellt eine High-End-Plattform vor, ...
???
Offizieller Link von AMD bitte.

... will wieder im High-End (Hochpreissegment) mitmischen, ...
Ja, aber nicht mit AM4.
Das kommt eben darauf an, wie man High-End definiert. Zwei Speicherkanäle und die PCIe-Lanes sind für mich nicht High-End.
AM4 soll ja auch die Katzen ersetzen und die Katzen sind ja nicht gerade High-End.

... Wenn ihr Multi-GPU wollte, kauft Intel?! Das ist das, was mir nicht in den Schädel will....
Auf die paar CPUs, die AMD für Multi-GPU-Systeme verkaufen würde, kann AMD am Anfang locker verzichten.
Da kommt höchstwahrscheinlich noch ein anderer Sockel, der dann auch für Multi-GPU geeignet ist.

CPU-seitig ist AM4 aber auch das Gegenstück zu 2011-3.
Nein.
Hat AM4 4 Speicherkanäle?
Hat AM4 40 PCIe-Lanes?
Aber das hatten wir ja alles schon einmal.

Und selbst wenn es nicht so wäre: Wo ist dann AMDs geplantes Gegenstück zu 2011-3?
In der Mache.
 
Chefin Lisa Su sagte, dass Anfang März 2017 die Verfügbarkeit der neuen Ryzen-CPUs gegeben sein soll. Der Hersteller möchte sowohl Endkunden für DIY-Systeme als auch Komplett-PC-Fertiger beliefern. Su betonte, dass die Ryzen-Chips zwar anfangs gegen Intels Core i7 mit acht Kernen antreten werden, es aber mittelfristig noch weitere Modelle geben soll, die dann das komplette Desktop-

Lisa bei Bekanntgabe der Quartalszahlen

Quelle
http://www.golem.de/news/amd-ryzen-...-maerz-vega-karten-in-q2-1702-125920-rss.html

Edit
Sorry übersehen das was ähnliche verlinkt wurde :)
 
Zurück
Oben Unten