Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Warum sollte mich ein auf ein Board aufgelöteter Chip besonders interessieren??

Weil der 64 PCIe und 4x Speichercontroller hat und im AM4 Formfaktor daherkommt.
Und wenn du kapiert hast, worum es geht, können wir weiterdiskutieren. Ansonsten behalt deinen Käse.
 
Die Fertigung ist aus Kostengründen allerdings 14 nm. War mir auch neu, dass die Kosten sich (bei einer Laufzeit von 10 Jahren) so unterscheiden, aber es ist die einzig logische Erklärung. Vielleicht wird auch der Großteil jetzt gefertigt und eingelagert.
 
Zuletzt bearbeitet:
Die Features der PS5 lassen vermuten, dass das SoC dafür von AMD wohl erst mal weit mehr kosten wird, als die von PS4. Wahrscheinlich legt hier Sony anfangs bewusst erst mal drauf, um die Plattform zu etablieren. Die Hardware dürfte aber schnell billiger werden und zudem wird ja dann an der Software verdient. Ebenso sehe ich auf Basis der SSD verschiedene Varianten: vermutlich <499$ mit min-SSD und dann teurere Varianten mit größerer SSD.

Für AMD schätze ich, dass das neue SoC erstmal eher zwei- bis dreimal (wenn ich sogar mehr?) so hohe Erlöse in H2-2020 gegenüber H2-2019 bringen sollte, oder?
 
Weil der 64 PCIe und 4x Speichercontroller hat und im AM4 Formfaktor daherkommt.
Ja, UND? Das ist genau wie der Threadripper auch, nur halt in einem kleineren Package.
Und das Package ist eben NICHT AM4, weil AM4 ein (µ)PGA Sockel ist. Das hier ist ein BGA Sockel.
Sprich der Nachfolger von diesem ganzen wird das Threadripper i/O Die bekommen und 2 Zen2 Dies.

Und wenn du kapiert hast, worum es geht, können wir weiterdiskutieren. Ansonsten behalt deinen Käse.
Das ist ganz und gar nicht nett von dir!

Zumal es einfach bescheuert ist, 4 Speichercontroller, 64 PCIe Lanes und das ganze andere Threadripper Zeugs in das kleine I/O Die zu integrieren. Eben weil das einfach die Größe von dem I/O Die verdoppelt. Und man bei jedem Desktop Prozessor im AM4 Package ein unnötig großes Die hat, dass auch unnötig viel Strom braucht.

Warum sollte man das machen und Geld Verschwenden, für eine Funktion, die für 90% Der Nutzer einfach nicht von interesse ist?

Und ja, ich schätze, dass von 10 verkauften AMD CPUs 9 normale AM4 CPUs sind und 1 ein Fadenschlitzer...
 
+ 64 PCIe Lanes.
Das Problem an TR4 sind die sau teuren Boards...
Aber du hast halt auch 4 Speicherkanäle, theoretisch 'ne Tonne S-ATA.

Die Behauptung dass der kleine I/O Die für Threadripper vorbereitet ist, halte ich für Unsinn.
Da wird man entweder das große I/O Die verwenden -> Defektverwertung.

Das kleine für Threadripper zu designen, wäre einfach viel zu teuer. Das macht überhaupt keinen Sinn...

Ja, UND? Das ist genau wie der Threadripper auch, nur halt in einem kleineren Package.
Und das Package ist eben NICHT AM4, weil AM4 ein (µ)PGA Sockel ist. Das hier ist ein BGA Sockel.
Sprich der Nachfolger von diesem ganzen wird das Threadripper i/O Die bekommen und 2 Zen2 Dies.
Jup, und in dem kleinerem Package passt kein großer 400mm² I/O mit 2 Chiplets. Zudem schrieb ich nicht von AM4 Package sonden
im AM4 Formfaktor
. Wenn du nicht verstehst was ich meine, versuchs mal mit nachfragen.
Wie kommst du darauf, dass der kleine 120mm² AM4 I/O für für Threadripper vorbereitet sein soll mit 4 SC und 64PCIe? War doch keine Rede davon.
Bleibt als Lösung nur ein drittes ca 200mm² I/O für EPYC embedded mit 4SC und 64PCIe und die kleinen Threadripper.
 
Die Diskussion darüber, ob das 120mm²-I/O-Die nun für Threadripper vorbereitet ist oder nicht, ist nicht uninteressant!

Ryzen-3000 ist mit seinen drei Dice und dem dadurch nötigen Multichip-Aufbau alles andere als ein billiges Teil. Das 120mm²-14nm-I/O-Die dürfte davon wohl <25% der Kosten ausmachen. Ryzen-3000 ist meines Erachtens daher nur für CPUs >200$ (ab 8 Core) angedacht, der Rest dürfte vorerst weiterhin mit Pinnacle-Ridge bedient werden, von dem dann womöglich auch höher getaktete 6-Kerner angeboten werden könnten sowie dessen 8-Kerner als Einstieg in die 8-Kern-Klasse. Insofern würde ich nicht ausschließen, dass das I/O-Die bereits auch für Threadripper vorbereitet sein dürfte, weil es dann für den Mainstream keines bräuchte.

Den Mainstream dürfte AMD in Zukunft mit einer leistungsfähigeren 7nm-APU bedienen, die vermutlich dann wieder aus einem Die in 7nm besteht, mit vermutlich dann eher 6 Cores und einer Navi-GPU, sodass die Pinnacle-Ridge dann mit dieser APU mit ersetzt werden dürften. 6-Core-Desktop-CPUs werden dann nicht mehr viel Geld erlösen, sodass hierfür der aufwändige Ryzen-3000 viel zu aufwändig und teuer wäre (anfangs vielleicht etwas Rests-Verwertung).
 
Zuletzt bearbeitet:
Ryzen-3000 ist mit seinen drei Dice und dem dadurch nötigen Multichip-Aufbau alles andere als ein billiges Teil.

Sagt wer? Zu dem wie man ja bei der Vorstellung gesehen hat gibt es ja die Version mit 1 CPU Chiplet und IO Chiplet.

Es gibt keine Aussagen über irgendwelche Kosten da haut ihr nur Spekulationen raus, ich glaube nicht das mit den 7nm Produkten nach einiger Zeit nicht alle Vorgänger abgelöst werden.
 
Die Features der PS5 lassen vermuten, dass das SoC dafür von AMD wohl erst mal weit mehr kosten wird, als die von PS4. Wahrscheinlich legt hier Sony anfangs bewusst erst mal drauf, um die Plattform zu etablieren. Die Hardware dürfte aber schnell billiger werden und zudem wird ja dann an der Software verdient. Ebenso sehe ich auf Basis der SSD verschiedene Varianten: vermutlich <499$ mit min-SSD und dann teurere Varianten mit größerer SSD.

Hier darf man nicht die veränderte Einnahmen-Situation für Sony vergessen. Die ABOs des PSN bringen mehr Geld ein als Microsoft mit der kompletten XBox inkl. Soft- und Hardware umsetzt.
http://www.pcgames.de/PlayStation-N...Microsoft-mit-kompletter-Xbox-Sparte-1274577/
Alleine der Umsatz aus dem PlayStation Network (jetzt für 50,00 € kaufen) übertrifft die kompletten Unternehmens-Einnahmen von Nintendo aus dem Hard- und Software-Geschäft oder aber alle Umsätze, die Microsoft mit seinem Xbox-Business gemacht hat. In harten Zahlen ausgedrückt, hat Sony im vergangenen Jahr 12,5 Milliarden Dollar allein aus dem PSN gequetscht. Microsoft hat mit der Xbox 11,5 Milliarden Dollar im gleichen Zeitraum eingenommen - wohlgemerkt auf das komplette Software- und Hardwaregeschäft gemünzt, sowohl physisch als auch digital.Mit über 91 Millionen PS4-Geräten im Umlauf und steigenden Abozahlen des PS-Plus-Services wird Sony auch weiterhin gut fahren. Das komplette PlayStation-Geschäft brachte Sony 2018 übrigens 20,7 Milliarden Dollar Umsatz.
Das bedeutet durch Abwärtskompatibilität zur PS4 gesicherte Einnahmen ohne spezifische PS5-Spieletitel und ohne weiter PS4 produzieren zu müssen. Sony verstärkt daher auch den VR-Ansatz und investiert stärker in Hardware, welche wiederum mehr höherwertige Abos attraktiv macht. Das Risiko mit schlechten Spieltiteln sinkt.
 
Die PS4 ist auch die Ausnahme und kommt als einzige Konsole ohne irgendwelche Abwärtskompatibilität.
Davor hat Sony das ja immer gemacht.
Und bei der völlig bescheuerten Hardware von der PS3 ists auch verständlich, warum sie drauf verzichtet haben...

Leider hat man auch PS2 und PS1 abwärtskompatibilität gestrichen.
 
Holy shit, das ist echt übel für Intel gerade...
Da müssen die sich echt ranhalten, um mit 7nm oder 5nm gleichzuziehen und EUV zu bringen...
 
Wenn man sich das mal überlegt: Sechs Jahre Verzögerung in einem Fertigungsprozess.
 
Ich vermute, dass Intel im selben Atemzug die Prozessorfehler mit einem neuen Design ausmerzt, um dann in 10nm gute Argumente für Neukäufe zu haben.
Habe jetzt aber nicht die aktuelle Roadmap studiert, um Anzeichen dafür aufzuspüren.
MfG
 
Naja, es schaut so aus als ob 10nm erst in 2021 oder 2022 erscheinen.
Das ist noch sehr sehr lange hin bis dann...
 
@Chiplets:

Adoredtv spekuliert, dass auch Navi ein GPU-Chiplet werden soll: https://www.youtube.com/watch?v=7mJCOSXe_zc

Zudem heißt es ja, dass Navi die letzte GCN-GPU werden soll, womit weiterhin bei 64CU Schluss ist => der größte Navi kann nur 64 CU sein.

So kann man wohl davon ausgehen, dass die nächsten Konsolen (PS5 und Xbox) beide vermutlich ebenfalls diese GCN-Technologie nutzen dürften, was von Treiber-Seite wohl auch viel vereinfachen dürfte. Beide Konsolen dürften dann wohl den Vollausbau (56 bis 64 CU) nutzen, alles andere macht dann kaum Sinn.

Nachdem Vega64 lediglich ein Shrink von Vega in 14 nm ist, dürfte Navi nun eine von Grund auf auf 7nm aufgebaute, wohl auch optimierte Variante von Vega-GCN werden: da sollte die IPC etwas steigen und vor allem sollten dann auch ordenlicher Takt bei weit verbesserter Effizienz möglich sein => wenigstens +25% Leistung gegenüber Radeon-VII?

Wo dürfte das Chiplet in 7nm bei 64CU landen? Bei etwa 200sqmm? Dann macht vielleicht noch ein 32-CU-Chiplet mit 100sqmm Sinn, aber kleiner kaum mehr.

Jedenfalls braucht es dann ein weiteres I/O-Die für GDD6 und womöglich HBM2.

Eine APU mit Zen2, einem GPU-Chiplet und mit einem neuen I/O-Die (braucht ja noch die Video-Einheit!) bestünde bereits aus 3 Chiplets. Da wäre es wohl kein großer Sprung mehr, auch gleich ein HBM2-Chiplet mit drauf zu nehmen, und damit dann gleich eine super Grafik mit drauf zu haben. Das könnte dann ein Produkt für Apple sein? Für alle Mainstream-APUs wäre ein solches Konstrukt meines Erachtens schlichtweg zu teuer, also nur Highend-Notebook und Performance-APUs für Desktop mit wohl eher 200$/Unit.

--- Update ---

Aus pcgameshardware:


Die wichtigste Info daraus ist für mich Folgende:
wenn Intel nicht auf einen kleineren Prozess migrieren kann, werden mit der zunehmenden Core-Zahl deren Dice und damit deren Wafer-Verbrauch weiter wachsen => Intel dürfte damit weiterhin an seiner Kapazitätsgrenze hängen bleiben, vor allem die 64-Core-Epyc erfordern Monster-Dice von Intel => Intel kann den Markt nur mühsam bedienen, und keinesfalls über den Preis verkaufen => es gibt keinen Druck für AMD :)
 
Zuletzt bearbeitet:
Siehe: AMD’s Navi will be a traditional monolithic GPU, not a multi-chip module[/QUOTE]

Genau darauf geht adoredtv auch ein: so wäre Navi wohl auch eine Monolitic-GPU, wenn es trotzdem ein getrenntes I/O-Die gäbe. Auf der Monolitic-Vega-GPU befinden sich auch zwei weitere Dice, die zwei HBM-Dice. Warum also nicht auch die I/O heraustrennen, zumal die I/O in 7nm nur Platz verschwenden, da sie kaum mit schrumpfen, vergleiche die Vega-Dice in 14nm und 7nm.
 
Der Typ verzapft 99% Bullshit um mit möglichst wenig Einsatz möglichst viele Klicks zu bekommen, für die Kohle die er damit verdient. Der gibt jedes dumme Gerücht aus dem Internet wieder, und wegen der paar Prozent die halbwegs richtig waren halten ihn alle für einen Helden mit unglaublichen Quellen.
 
Das hat AMD doch bereits explizit verneint. Der Typ ist echt nicht zu ertragen mit seinen schlechten Gerüchten.

Hat AMD nicht. AMD hat bestätigt, dass es keine mehrfachen GPUs auf einem Träger geben wird. Dagegen sollte das Auslagern des Speichercontrollers etc nicht komplizierter sein als bei EPYC und da hat AMD es auch hinbekommen.

Was für schlechte Gerüchte meinst du denn? Die Modelliste von Ryzen und Navi? Die war falsch. Er hat erklärt, wie er an seine Leaks kam, er sagt explizit, wenn etwas nur Spekulation ist, er begründet seine Spekulation, er gibt zu, wenn er falsch lag und begründet das auch nach Möglichkeit. Klar liegt er nicht 100% richtig, das kann man bei unsicheren Informationen aber auch gar nicht. Chiplets hatte er ein sattes Jahr vor ersten offiziellen Infos auf dem Schirm. Und meinst du nicht, wenn es ihm nur um Klicks ginge, würde er sich dann ein wenig weniger Mühe geben? Mal davon ab, dass er auch komplett offengelegt hatte, wie viel er da verdient.
Vielleicht einfach mal ein Video schauen und selbst drüber urteilen?

Zum Thema, ich bin noch nicht 100% von der Chiplet-Idee bei Navi überzeugt. Der Vorteil wäre sicher die Flexibilität sowie vermutlich ein wenig auch die Kosten für die einzelnen Chips, die Nachteile wären allerdings wohl ein höherer Verbrauch, da GPUs doch schon wesentlich mehr Bandbreite benötigen als CPUs. Die Frage ist, ob sich diese Flexibilität denn dafür lohnt. Sollte Navi 12(?) wirklich mit 40CUs kommen und für APUs verwendet werden, wäre das immer noch sehr, sehr groß dafür. Auf der anderen Seite käme eine Premium-APU mit einem einzelnen HBM2-Stack wohl auf ein erstaunlich ausbalanciertes System.
 
so wäre Navi wohl auch eine Monolitic-GPU, wenn es trotzdem ein getrenntes I/O-Die gäbe
Das ist völliger Lötzinn und macht überhaupt keinen sinn.
Überlege einfach mal wie hoch der Bandbreitenbedarf und die Latenz ist.

CPUs sind eh gebaut, um Latenzen zu verstecken, daher hast auch irrsinnig fette Caches in der CPU.
GPU sind stumpfe rein-> raus Rechenmaschinen. Die Ausführungseinheiten sind auch strunz dumm, verglichen mit der CPU, darum hast auch 4k oder so auf dem CHip und nicht nur 8.

Also das ist einfach totaler Käse.

--- Update ---

Hat AMD nicht. AMD hat bestätigt, dass es keine mehrfachen GPUs auf einem Träger geben wird. Dagegen sollte das Auslagern des Speichercontrollers etc nicht komplizierter sein als bei EPYC und da hat AMD es auch hinbekommen.
GPUs und CPUs sind zwei komplett verschiedene Dinge.
Und dass man 2 getrennte Dies für GPU baut halte ich für 10% Wahrscheinlich

Der Grund ist ganz einfach: Was für I/O hast du denn in der GPU?
PCIe muss über Slot, das ist ev. nicht unwichtig.
Und dann hast noch Den Speichercontroller. Den kannst aber auf keinen Fall ausgliedern, anders als bei CPUs war das auch nie der Fall bzw hat nie sinn gemacht.

Und Display Controller. Der war allerdings lange Zeit extern bzw teile davon und G80 + G200 hatten externe Display Controller. Das könnte vielleicht, eventuell sinnvoll sein. Aber nicht wirklich.

Darüber hinaus hat man schon ein NAVI PCB gesehen.

Zum Thema, ich bin noch nicht 100% von der Chiplet-Idee bei Navi überzeugt.
Ja, weils einfach völliger Unsinn ist, der technisch weniger als gar keinen Sinn macht.
 
Warum also nicht auch die I/O heraustrennen, zumal die I/O in 7nm nur Platz verschwenden, da sie kaum mit schrumpfen, vergleiche die Vega-Dice in 14nm und 7nm.

Was für I/O hast du denn in der GPU?
PCIe muss über Slot, das ist ev. nicht unwichtig.
Und dann hast noch Den Speichercontroller. Den kannst aber auf keinen Fall ausgliedern, anders als bei CPUs war das auch nie der Fall bzw hat nie sinn gemacht.
Das selbe habe ich mich auch gefragt. Welches I/O?

Aber es gibt tatsächlich ein AMD-Konzept für ausgelagerte Speichercontroller, welche dann direkt im Speicherstapel verbaut sind (HBM z.B.).
https://www.amd.com/Documents/AMD-Research-Report-2014-1776.pdf
Future memory systems are expected tohave a number of smart memory devices or nodes capable of accessing a local memory or forwarding requests to other memories. An example is a system with multiple 3D-stacked memories, each with their own logic dieand each containingfinite resources such as command and data buffers, memory controllers, and spare memory blocks for repair. The demands on each individual memory in the system may be vastly different, which could affect resources, latency, and bandwidth availability. Significant load imbalances may arise from multiple host processors sharing a network of memories in which pages of data with differing access frequencies are mapped into nearby memories.

We believe the memory architectureproposed in this reportcould ease bottlenecks by sharing resources across multiple controllers. At the same time, it could improve scheduling decisions by using global metadata flow to keep all stacks informed of each other’s utilization. Because there couldbe different demands on different memories (each with their own controller for their local address space), bottlenecks may occur due to demands on the memory-controller resources. Such bottlenecks include limited buffer space, bank contention, power budget, limited repair resources, and spare ECC and repair capacity. The system proposed in this report could beparticularly useful for heterogeneous memory systems in which slow memory stacks (e.g., for non-volatile memories, or NVM) might run out of resources and become bottlenecks sooner than others.The proposed systemalso contemplates the issue of memory controller load-balancing and enable resource-sharing in a multi-memory environment (e.g., a network of processors in memory, or PIMs).

Vielleicht kann das die Diegröße ausreichend verkleinern um Yield und Kosten zu optimieren und man nutzt die frei werdende Fläche der Speicherinterfaces für Infinity Fabric zur schnellen Anbindung an den Speicher und an CPUs oder andere GPUs im Datacenter. Man würde sozusagen Zen2-I/O-kompatibel und könnte GPUs auf das Package bringen mit schnellen IF-Verbindungen. So wäre Navi tatsächlich "Chiplet-fähig" ohne ein eigenes Design für Server und Desktop. AMD könnte beschloßen haben einen solchen Chip in der Navi-Generation zu bauen mit HBM2 (Server, Konsole und Highend GPU) und alle anderen Navi-GPUs mit GDDR6 auszustatten im Portolio. Dies würde lediglich das Polaris/Vega Konzept weiter führen. Genau betrachtet muss AMD sogar GPUs sowohl mit GDDR6 als auch HBM2 anbieten aus Kostengründen, wenn Sie das ganze Portfolio in 7nm bringen wollen. Ist aber lediglich Spekulation, wenn auch eine interessante wie ich finde. Könnte aber auch erst nach Navi kommen als "NextGen memory".
 
Hat AMD nicht. AMD hat bestätigt, dass es keine mehrfachen GPUs auf einem Träger geben wird. Dagegen sollte das Auslagern des Speichercontrollers etc nicht komplizierter sein als bei EPYC und da hat AMD es auch hinbekommen.

Streng genommen hat AMD in der Aussage sogar nur gesagt das dies in nächster Zeit so nicht kommen wird (multi-chip-module im GPU Bereich)....
 
Zurück
Oben Unten