AMD Zen 2 - 7nm, 16 Kerne

TSMC hat ja ohne großes Aufsehen den "2nd-gen 7nm"-Prozess, N7P entwickelt, der 7% mehr Performance bringen und bereits verfügbar sein soll. Zudem soll das Yield auf 7nm auch bei DUV inzwischen ordentlich sein. Bedenkt man, dass das Zen2-Die nur 74sqmm ist, bringt hier eine weiter Yield-Steigerung nicht mehr viel.

Die Anpassung von Zen2 auf N7P kann zudem völlig unabhängig der Weiterentwicklungen ablaufen, d.h. es braucht "nur" neue Masken und evtl. ein paar Strukturanpassungen, wo man Schwächen entdeckt hat, also einen kleinen Respinn des Dies. Dafür erhielte man dann +7% Takt (also gut +300Mhz) und mit dem Respinn vielleicht nochmals +100Mhz, sodass dann 5Ghz endlich gut drin sein sollten.

Interessant wäre dieser Respinn auf N7P zwar nur für Desktop, allerdings hätte man dann endlich auch für Gamer die stärkste CPU und auch 5Ghz, was das ASP deutlich steigert und das Ganze damit rechtfertigen dürfte. Zudem hätte man insgesamt besser Zen2-Chiplets auch für Epyc2. Schon alleine deshalb denke ich, dass AMD hier dran sein dürfte...womöglich nutzt man schon für Ryzen9-3950X die neuen N7P-Chiplets und kann dann sogar noch schnellere Eypc2 nachschieben.

--- Update ---

@Renoir:

In 7nm dürfte AMD aktuell nur noch Entwicklungen in N7P (Respinn von Zen2) und N7+ machen, also zukünftige Zen3 und Navi-GPUs. Neue Dice in 7nm sind richtig teuer.

Renoir dürfte meiner Meinung nach das aktuelle Zen2-Chiplet nutzen (oder das kommende in N7P) und ein eigenes, neues 12nm-I/O-GPU-Chiplet mit dem neuen Ram-Controller und einer vergrößterten (16CU?) GPU. Der 2400Mhz-Ram-Controller war der Flaschenhals, der besser werden muss. Dann kann man mit 1280 GPU-Cores Intels neue IGP wieder überlügeln. Und mit dem Zen2-Chiplet hat man dann auch bis zu 8 Cores im Notebook. Was braucht AMD hier mehr?
 
Zuletzt bearbeitet:
@Renoir:

In 7nm dürfte AMD aktuell nur noch Entwicklungen in N7P (Respinn von Zen2) und N7+ machen, also zukünftige Zen3 und Navi-GPUs. Neue Dice in 7nm sind richtig teuer.

Renoir dürfte meiner Meinung nach das aktuelle Zen2-Chiplet nutzen (oder das kommende in N7P) und ein eigenes, neues 12nm-I/O-GPU-Chiplet mit dem neuen Ram-Controller und einer vergrößterten (16CU?) GPU. Der 2400Mhz-Ram-Controller war der Flaschenhals, der besser werden muss. Dann kann man mit 1280 GPU-Cores Intels neue IGP wieder überlügeln. Und mit dem Zen2-Chiplet hat man dann auch bis zu 8 Cores im Notebook. Was braucht AMD hier mehr?


Ich wäre da vorsichtig. Soweit ich weiß wird der N7P nicht unbedingt auch für die HighPerformance-Chips benutzt, selbst wenn er kompatibel zum N7 ist.
 
AMD hat bisher mit den APUs Bereiche von ca 50 USD bis keine Ahnung 200+ USD abgedeckt (Athlon 200 bis 2700U). Und dafür aben sie angeblich 2 Dies (2C und 4C).

Welchen Markt soll AMD bitte mit einem Produkt, welcher I/O-Die + CPU Ciplet und GPU Chiplet beinhaltet, beackern? Glaube das ist zu teuer, zudem macht es im Mobile Markt absolut keinen Sinn... dort muss das Package möglichst klein sein.

Wenn wir Glück haben, wird ein Abkömmling der Konsolen mit 8C+Vega, es auch in den normalen Markt finden. Ansonsten befürchte ich nur einen weiteren Shrink der aktuellem Produkte auf 7nm... Mehr Takt und mehr GPU Power um Icelake im Zaum zu halten. Wenn sie Intel an allen Fronten angreifen wollen, dann sollte es schon 8C+deutlich bessere GPU-Ausprägung sein. Natürlich bei 15W für Mobile
 
Naja, klingt ja nett, ist aber vermutlich reine Phantasie... bzw AMD hat MCMs mit CPU und GPU Chiplet für die direkten Nachfolger der Ryzen1/2xxx APU´s ausgeschlossen

Am einfachsten wird wohl ein reiner Shrink auf 7nm sein, oder man klebt noch etwas Cache dran :-)

Andererseits sollte eine Zen2 Lösung schon drin sein, möchte man im Mobilebereich Intel unter Druck setzen.
 
Naja, klingt ja nett, ist aber vermutlich reine Phantasie... bzw AMD hat MCMs mit CPU und GPU Chiplet für die direkten Nachfolger der Ryzen1/2xxx APU´s ausgeschlossen
Nicht unbedingt. Die entsprechende Aussage von Lisa Su bezog sich explizit auf Matisse.
Das schließt aber nicht aus, dass es ein Chiplet mit einem anderen IO Die o.ä. sein könnte, da ja Matisse letztendlich die Kombination aus diesem spezifischen IO Die + CCX bedeutet.
Ist nicht unbedingt wahrscheinlich, aber auch nicht ausgeschlossen.
 
Möglich wäre auch die Kombination von einem ccx mit halben L3 und GPU auf einen Chiplet. (Dürfte auch kaum über 80mm² kommen)

Außerdem könnte man dann sogar den IO die von Matisse weiterverwenden. Optimalerweise mit der CPU an einem und der GPU am anderen Infinity fabric Port.
 
Außerdem könnte man dann sogar den IO die von Matisse weiterverwenden. Optimalerweise mit der CPU an einem und der GPU am anderen Infinity fabric Port.
Das ist sehr unwahrscheinlich.
Wenn wir mal davon ausgehen, dass Renoir im Chiplet Design kommt und das typische 7nm CCX nutzt, dann kann die Aussage von Lisa Su eigentlich nur bedeuten, dass der andere Teil nicht wie bei Matisse sein kann, also ein anderes IO Die (sei es nun mit oder ohne GPU Teil), denn sonst hätte man ja Matisse + GPU.
 
@Hot-Chips:
Viel Neues gabs anscheinend nicht, außer der Aussage, dass alle I/O-Dice und X570 in 12nm sind => alle I/O- und SoC-Freatures sind in 12nm vorhanden.

Damit dürfte es wahrscheinlicher werden, dass Renoir in 12nm (alles außer der CPU) ist und ein Zen2-Chiplet in 7nm angebunden bekommt.
 
@Hot-Chips:
Viel Neues gabs anscheinend nicht, außer der Aussage, dass alle I/O-Dice und X570 in 12nm sind => alle I/O- und SoC-Freatures sind in 12nm vorhanden.

Damit dürfte es wahrscheinlicher werden, dass Renoir in 12nm (alles außer der CPU) ist und ein Zen2-Chiplet in 7nm angebunden bekommt.

Der X570 ist in 14-nm, das war auf den Folien etwas unglücklich dargestellt.
 
Die Logik verstehe ich nicht.

Wenn ich mir so die Notebooks ansehe, zählen hier heute vor allem "runde" Lösungen: kleine, flache Geräte mit gutem Display und vor allem langer Laufzeit. Die Performance der Notebook-Chips ist weniger das Kriterium. AMD braucht eine weitere Steigerung der Laufzeit. Womöglich brächte eine Integration des Rams in das Multi-Chip-Modul hier am meisten: ein 8GB HBM2-Ram, nicht nur für die Grafik. Durch das Ram im MCP würde die IGP-Leistung einen riesigen Sprung machen und mit der Einbindung des Zen2-Chiplets hätte man auch die beste CPU-Leistung.


Die Entwicklung eines neuen 12nm-Dice kostet einen Bruchteil von einem 7nm-Die. Hat man - bis auf die CPU, also Zen2 - alles in einem 12nm-Die für Renoir realisiert, kann man mit dem Zen2-Chiplet starten und dieses gegen das kommende Zen3-Chiplet tauschen, sobald es dieses gibt, ohne dass es für Notebook dann irgendeine Neu-Entwicklung bräuchte.
 
HBM2 ist zu teuer für die Notebook-Klassen in denen AMDs APUs normalerweise verbaut sind. Gibt zwar inzwischen High-End Geräte auch mit AMD, aber ich glaube nicht, dass es sich für AMD derzeit lohnt einen extra Chip mit HBM2 zu bringen. Ich träume übrigens auch von so einem Gerät.
Ich vermute stark, dass wir für Renoir ein extra APU Chiplet sehen werden. also cpu+gpu auf einem Silizium + IO Chip. Das komplette aufbrechen des APU Designs könnte mehr Manpower erfordern. Für die Zukunft jedoch mehr als wahrscheinlich.
Heißt leider auch weiterhin nur 4 Cores + SMT mobile.
 
Wäre es da nicht sinnvoller, I/O direkt in die GPU zu verfrachten?
Dann wäre der RAM "näher" an der GPU und das MCM wäre mit nur 2 Dice sicher auch günstiger.
 
Wäre es da nicht sinnvoller, I/O direkt in die GPU zu verfrachten?
Dann wäre der RAM "näher" an der GPU und das MCM wäre mit nur 2 Dice sicher auch günstiger.
Klar bringt das Vorteile, sieht man ja auch bei den CPUs. Über kurz oder lang wird der Weg aber vermutlich dahin führen, dass man I/O raus trennt wie bei der CPU.
Schlicht wegen Flexibilität und da es wohl auch bei GPU mehr in Richtung Chiplets (GXX?) gehen wird.
Auch Multi-GPU wird vermutlich wieder ein Thema werden.
 
Heißt leider auch weiterhin nur 4 Cores + SMT mobile.

Was ist daran verkehrt? Die Leistung ist für die meisten Anwender, im Business Bereich die Excel Schubser und Privat für Internet und Video, schon zuviel.
Was von der Industrie gefragt ist, ist weniger Verbrauch für kleinere Akkus oder längerer Laufzeit oder mehr Leistung bei gleichem Verbrauch.
Da passt ein 7nm Picasso Shrink doch wunderbar. Eventuell mit ZEN2 Kernen um etwas mehr IPC zu liefern.

Geringer Entwicklungsaufwand, Pinkompatibel für gesockelte Lösungen, ausgereifte GPU Treiber -> wenig Aufwand für die OEMs.

Wenn der Bedarf da ist, wird AMD auch weitere APUs liefern.
Mich hatte schon Banded Kestrel, 2C4T Vega 3, überascht. Hätte nicht an einen so hohen Bedarf in der Industrie gedacht, dass sich dazu ein eigener Chip lohnt.

So wird es auch in der nächsten Generation aussehen. Wenn der Bedarf nach leistungsfähigeren Lösungen da ist, wird AMD auch was liefern.
Ob das dann eine monolithische 8C/16T APU oder ein MCM wird, ist eine Kosten- und Anwendungsfrage.

GPU ist durch Bandbreite Begrenzt. Da reicht auch Navi im Mobile zum ordentlichem Zocken noch nicht aus.
Da können wir erst mehr erwarten, wenn neue Produktionsmethoden sich etablieren.
Intel Foveros zeigt ja schon in welche Richtung es geht. TSMC arbeitet auch an 3D Packaging und AMD wird sich die Möglichkeiten genau anschauen.
Es geht in Richtung single Chip Lösung mit integriertem RAM, der dann auch mehr GPU Leistung erlauben würde. Ein schneller, sparsamer 4 Kerner mit ordentlicher GPU Leistung, I/O und 8/16GB RAM in einem Chip wären für die Industrie sicher interessant, kein Aufwand mehr für RAM Verdrahtung und Bestückung, dadurch auch kleineres Design.

Renoir APU single Chip, 7nm 4C/8T Vega 11, scheint mir die günstigste Lösung zu sein.
Der Nachfolger gibt es dann 2021 in 6nm für Mainstream Low End und embedded.

Vielleicht kommt auch eine Chiplet APU, die wäre aber leistungsmäßig über Renoir angesiedelt. Gefallen würde mir auch, wenn Renoir ein IF hätte, um ein Chiplet anzubinden. Ich denke aber, AMD kann es sich mitlerweile Leisten mehrere optimierte Designs aufzulegen.

Parallel wird an neuen Technologien, 3D, gearbeitet und irgendwann leistungsfähigere APUs vorgestellt. Mehr Cores, bessere GPU oder weniger Verbrauch etc.
 
Im mobilen Bereich machen mehr als 4C wenig Sinn.
Man sieht ja bei der 8C Notebooks mit Intel CPU wie schlecht die ausgelastet werden können, da der Spielraum bei der TDP einfach zu gering ist.
 
Im mobilen Bereich machen mehr als 4C wenig Sinn.
Kommt darauf an. Ich habe die letzten 8 Jahre als Softwareentwickler nur noch Notebooks bekommen. Ist natürlich ätzend auf den 4 Kernen mehrere virtuelle Maschinen laufen zu lassen. Allerdings gabs bis vor 2 Jahren im normalem Desktop ja auch nur 4 Kerne. Von daher war es für die Entwickler kein großer Unterschied. Dauert das Compilieren halt etwas länger auf dem Notebook wegen geringerem Takt.
Also, Entwickler, die mit virtuellen Maschinen arbeiten müssen oder stark Multithreaded Applikationen entwickeln, würden sich schon über mehr als 4 Kerne freuen.
Allerdings dürfte sich der Anteil der Entwickler mit solchen Anforderungen im Geschäftsbereich im Promillebereich bewegen.
 
Das ist aber auch eine eher spezielle Anforderung und da darf man auch die Frage stellen, ob du in so einem Fall mit einem Notebook wirklich gut bedient bist und nicht eher ein vernünftiges Desktopsystem mit entsprechend mehr Power hingestellt bekommen solltest.

Zumal manche Virtualisierungslösungen (VirtualBox z.B.) dazu tendieren die der VM zugewiesenen Cores zu 100% auszulasten, auch wenn in der VM nichts passiert, was ja gerade bei einem Notebook etwas albern ist, da dann ja dem System noch mehr Leistung sinnloserweise flöten geht.

Ich persönlich würde auf einem System für Softwareentwicklung nichts mehr unter 12 Kerne und 32GB RAM einsetzen.
 
Das ist aber auch eine eher spezielle Anforderung
Ja. Daher werden 4 Kerne für Mobile noch lange ausreichend sein für die meisten Geschäftsanwendungen: Documente erstellen/bearbeiten, Powerpoint, Excel, Internet.
 
AMDs gestrige Ankündigung der Verschiebung vom 3950X habe ich erwartet, weil es ja nicht mal den 3900X gibt. Warum es den 3900X kaum gibt, aber den 3800X, bei dem alle 8 Cores des einen Zen2-Chiplet funktionieren müssen, beim 3950X aber nur 6 (wenn auch ein Core 100Mhz mehr schaffen muss), hat mich immer schon grübeln lassen.

Wenn jetzt AMD aber gleichzeitig den Threadripper bringen will, und zwar mit noch mehr Gaming-Performance, dann poppen bei mir 2 Fragen auf:
- wie hoch könnte der maximales Turbotakt ausfallen, wenn man berücksichtigt, dass ein 16-Core-Treadripper 4 Chiplets nutzen kann, von denen jeweils nur die Hälfte (4 von 8 Cores) aktiv ist, sodass dann einerseits die Wärmestromdichte im Chiplet deutlich fällt und zudem Treadripper eine deutlich höhere TDP haben dürfte, sodass man die Cores ganz ander füttern könnte...könnten dann 5Ghz drin sein, als Super-Gaming-Chip?
- könnte AMD den 3950X dann gezielt zurück gehalten haben, damit sich nachher keine Käufer vom 3950X ärgern, weil sie doch lieber den 5Ghz-Gaming-Threadripper haben wollen und dafür gerne auch noch deutlich mehr hinlegen ($999?) zumal AMD auch an den Threadripper-Chipsets gut verdienen dürfte? Könnte die Vorankündigung des X3950 damit eher eine Art Hinhalte-Taktik gewesen sein?

Ein 5Ghz-16-Core-Treadripper würde AMD wohl endgültig auch die Gaming-Krone bringen und zudem Intels kommenden 9900KS lächerlich machen: er würde im Singlecore den 9900KS überflügeln und die 5Ghz-Allcore des 9900KS erst recht überflüssig machen, weil der Threadripper mit seinen doppelt sovielen Cores und der hohen Bandbereite den 9900KS im Multitread hoffnungslos macht.

Könnte AMD von Anfang an alle Chiplets, die auf einem Core mit entsprechender TDP und bei nur 4 von 8 Cores/Chiplet maximalen Takt schaffen, gezielt für den Gaming-Treadripper aufgehoben haben sodass man nun genügend hat und problemlos ausloten kann, was maximal möglich ist? Könnte 5Ghz drin sein?

Zudem: wie wird sich der große I/O-Chip auf Gaming auswirken? Ist dort entsprechender L4-Chache drin, der die Gaming-Performance zudem verbessern könnte?
 
Zuletzt bearbeitet:
Wenn jetzt AMD aber gleichzeitig den Threadripper bringen will, und zwar mit noch mehr Gaming-Performance, dann poppen bei mir 2 Fragen auf:
- wie hoch könnte der maximales Turbotakt ausfallen, wenn man berücksichtigt, dass ein 16-Core-Treadripper 4 Chiplets nutzen kann, von denen jeweils nur die Hälfte (4 von 8 Cores) aktiv ist, ...
Da fällt mir spontan eher die Frage ein: Warum nicht für den Ryzen 8Kerner 2 von den halbkaputten dies mit 4 Kernen (sofern deren Zahl hoch sein sollte) nehmen und die kompletten 8-Kern dies für die 16Kernigen reservieren bzw. 6 Kern-dies für 12Kerner?
Aber dazu müsste man wissen, wie viele dies mit wie vielen defekten Kernen AMD erhält.
 
AMDs gestrige Ankündigung der Verschiebung vom 3950X habe ich erwartet, weil es ja nicht mal den 3900X gibt. Warum es den 3900X kaum gibt, aber den 3800X, bei dem alle 8 Cores des einen Zen2-Chiplet funktionieren müssen, beim 3950X aber nur 6 (wenn auch ein Core 100Mhz mehr schaffen muss), hat mich immer schon grübeln lassen.

Wenn jetzt AMD aber gleichzeitig den Threadripper bringen will, und zwar mit noch mehr Gaming-Performance, dann poppen bei mir 2 Fragen auf:
- wie hoch könnte der maximales Turbotakt ausfallen, wenn man berücksichtigt, dass ein 16-Core-Treadripper 4 Chiplets nutzen kann, von denen jeweils nur die Hälfte (4 von 8 Cores) aktiv ist, sodass dann einerseits die Wärmestromdichte im Chiplet deutlich fällt und zudem Treadripper eine deutlich höhere TDP haben dürfte, sodass man die Cores ganz ander füttern könnte...könnten dann 5Ghz drin sein, als Super-Gaming-Chip?
- könnte AMD den 3950X dann gezielt zurück gehalten haben, damit sich nachher keine Käufer vom 3950X ärgern, weil sie doch lieber den 5Ghz-Gaming-Threadripper haben wollen und dafür gerne auch noch deutlich mehr hinlegen ($999?) zumal AMD auch an den Threadripper-Chipsets gut verdienen dürfte? Könnte die Vorankündigung des X3950 damit eher eine Art Hinhalte-Taktik gewesen sein?

Die Entscheidung war schon recht kurzfristig imo. Reviewexemplare gab es aber noch nicht.

5 GHz wird nicht machbar sein, da nicht die Wärmeverteilung das Hauptproblem ist, sondern dass man wohl jetzt schon bis zu 1,5V für die Turbotakte braucht.

Gaming wird besser sein, da die Anbindung an den Cache mit den unterschiedliechen CCX ja jetzt anders ist.

Fraglich aber ob AMD das dahingehend vermarktet, wird man auch sehen, wenn man dann naechstes Jahr auch noch die Workstation-Threadripper bring.
 
Es ist schon eigenartig, dass AMD gar keine 3900X liefert und den 3950X um 2 Monate verschiebt. An der 7nm-Kapazität liegt es wohl kaum, weil dann würde AMD erst mal Navi aufschieben und alle Wafer für 7nm nutzen. Navi wird aber weiter geliefert. Und es fehlt ja auch nicht an Zen2-Chiplets, von denen alle 8 Cores laufen: 3700X und 3800X gibt es ja reichlich.

Das würde dann am Ende heißen, dass es womöglich doch Probleme gibt, die Zen2 auf Takte >4,5Ghz zu bekommen. Das sollte AMD dann aber schon länger wissen. Als Abhilfe gibt es hier den neuen N7p-Prozess von TSMC, der nur einen Teil neuer Masken benötigt und rund 7% mehr Performance liefern soll. Nachdem TSMC nicht allzuviele Kunden hat, für die so ein HPC-Prozess entwickelt wird, dürfte AMD wohl einer davon sein, für den TSMC noch den 2nd-gen N7p entwickelt hat.

Kann es sein, dass AMD nun eben auf November warten muss, bis die ersten Zen2 in N7p vom Band laufen? Diese neuen Chiplets sollten dann etwa 300Mhz mehr schaffen, also dann 4,8Ghz so erreichen, wie die Aktuellen 4,5Ghz...
 
Also ich halte das mit einer neuen Stepping für möglich, das wäre eine logische Erklärung für die Verschiebung.
 
Zurück
Oben Unten