AMD EPYC Rome Server CPUs - Zen 2 in 7nm TSMC

Wenn Masken und Ausbeute damit billiger wären, müßte man nun eine Erklärung dafür finden warum Intel seine 10nm und GF ihren 1gen 7nm noch ohne EUV versucht haben.
(Wobei das Intel 1Q/2019 wohl doch gelingen wird, mit der Dichte des 7nm TSMC Prozesses)

Ich bin zum Glück noch jenseits vor 60 und weiß daher nicht wann andere planen den Löffel abzugeben, aber solange kann das nicht hin sein (mit den Prozessen :D)
Wobei, von 14nm nach 7nm hat jetzt ~4.5 Jahre gedauert. 32nm auf 22nm und 22nm auf 14nm jeweils 2 Jahre. Das kann vielleicht sogar sein, daß wenn sich das konstant verlängert, wir das hiessen der weißen Fahne nicht mehr mitbekommen :)

@pipin
Richtig. 32nm hat man auch nicht erstmal 2x verbesser bevor 22nm kam. Bzw. man hing das früher nicht an die große Glocke, wenn man die Prozesse optimiert für nicht-Highend ICs anbot. Das war etwas gewöhnliches womit man nicht unbedingt rumprahlen mußte ;)
 
Zuletzt bearbeitet:
Das wird erstmal nicht Ziel sein. Wenn dann wird über kurz oder lang eh Navi in die APUs wandern.

Wünschenswert wäre, wenn AMD es schafft Vega20 und Rome im Bereich der Supercomputer mehr zu verzahnen, gerade auch mal um an NVIDIAs Margen zu knabbern.
Irgendwie versteh ich deine Antwort nicht. Ich hab nur gemeint, dass Mit Vega20 und Rome Komponenten hat mit denen Sie weiter an der ExascaleAPU arbeiten und Konzepte testen können. Sie können nun Schwachstellen erkennen und die Entwicklung der CPU und GPU sowie des Chiplet Konzeptes entsprechend vorantreiben.

Mit der ExascaleAPU hat AMD ein Konzept und ein Ziel. Im Gegensatz zu Bulldozer scheinen sie es diesmal nur richtig anzugehen.

Ich denke auch nicht, dass Navi da rein wandert. Eher schon der Nachfolger oder noch spätere Generationen.
Navi könnte zudem ein reiner Gaming Chip werden. Für Datacenter und HPC eventuell gar nicht geeignet.

Als AMD Aktionär wünsch ich mir auch, dass AMD mit Vega20 im Datacenter Erfolg hat und Nvidia Marktanteile abnimmt. Da liegt das große Geld.
Das große Problem ist dort jedoch CUDA. Da hat AMD noch viel Überzeugungsarbeit zu leisten, dass sie etwas gleichwertiges liefern können.
 
(Wobei das Intel 1Q/2019 wohl doch gelingen wird, mit der Dichte des 7nm TSMC Prozesses)

Q1/2020 ist im Moment wahrscheinlicher - wie oft hat Intel diesbezüglich jetzt bereits leere Versprechen abgegeben? In dem letzten offiziellen Statement wird nur noch die Erwartung auf 2019 angegeben - mit anderen Worten selbst Intel glaubt nicht mehr an vor Q4/2019.

Edit: Außerdem:

In the second-quarter results, Intel said that its 10-nanometer yields are "on track" with systems on the market in the second half of 2019. Krzanich's previous perspective wasn't specific on whether they would arrive in the first half of next year or in the second half. On the conference call with analysts on Thursday, Swan was more specific and said products would be on shelves in time for the holiday season.

https://www.cnbc.com/2018/07/26/intel-earnings-q2-2018.html
 
Zuletzt bearbeitet:
Wenn Masken und Ausbeute damit billiger wären, müßte man nun eine Erklärung dafür finden warum Intel seine 10nm und GF ihren 1gen 7nm noch ohne EUV versucht haben.
...
Wobei, 14nm nach 7nm hat jetzt ~4.5 Jahre gedauert. 32nm auf 22nm und 22nm auf 14nm jeweils 2 Jahre. Das kann vielleicht sogar sein, daß wenn sich das konstant verlängert, wir das hiessen der weißen Fahne nicht mehr mitbekommen :)

zu 1) weil TSMC es auch macht. Es gab die Möglichkeit durch viele Masken und Mehrfachbelichtung wieder einen Schritt kleiner zu werden. Deshalb haben sie es Versucht. Intel scheitert, GF bricht ab, TSMC hat es geschafft sonst gäbs kein neues iPhone, Samsung wartet auf EUV. Warten wir mal ROME ab, das beantwortet dann auch die Frage gründlich warum Intel und GF nicht auf EUV gewartet haben.

ZU 2) Also wenn du 14 auf 7nm nimmst, dann vergleich damit bitte die Zeiten von 32 auf 16 und 22 auf 11nm. Klar das kleiner Sprünge schneller gehen.
 
Das große Problem ist dort jedoch CUDA. Da hat AMD noch viel Überzeugungsarbeit zu leisten, dass sie etwas gleichwertiges liefern können.
Ja denn. Dann müßen sie es auch mal tun :)
https://www.heise.de/developer/artikel/House-of-ROC-AMDs-Alternative-zu-CUDA-3755863.html?seite=all

Cuda war aber auch kein Selbstläufer. Man hätte nur mitbekommen sollen wie sie bei allen relevanten Unis der Welt damit erstmal angerannt sind :P

Edit:
AH?! Ich dachte bis jetzt 7nm TSMC ist EUV ??? *buck* Ja ok. Die Frage bleibt damit aber bestehen. Es stösst nur TSMC dazu ;)

@BoMbY
Intels 10nm 2020 macht dann keinen Sinn mehr. Sie müßen 2019 was bringen. Sonst können sie das komplett abschreiben.

Ups
https://www.hardwareluxx.de/index.p...pazitaet-des-14-nm-prozesses-zu-erhoehen.html
 
Zuletzt bearbeitet:
Irgendwie versteh ich deine Antwort nicht. Ich hab nur gemeint, dass Mit Vega20 und Rome Komponenten hat mit denen Sie weiter an der ExascaleAPU arbeiten und Konzepte testen können. Sie können nun Schwachstellen erkennen und die Entwicklung der CPU und GPU sowie des Chiplet Konzeptes entsprechend vorantreiben.

Mit der ExascaleAPU hat AMD ein Konzept und ein Ziel. Im Gegensatz zu Bulldozer scheinen sie es diesmal nur richtig anzugehen.

Ich denke auch nicht, dass Navi da rein wandert. Eher schon der Nachfolger oder noch spätere Generationen.
Navi könnte zudem ein reiner Gaming Chip werden. Für Datacenter und HPC eventuell gar nicht geeignet.

Als AMD Aktionär wünsch ich mir auch, dass AMD mit Vega20 im Datacenter Erfolg hat und Nvidia Marktanteile abnimmt. Da liegt das große Geld.
Das große Problem ist dort jedoch CUDA. Da hat AMD noch viel Überzeugungsarbeit zu leisten, dass sie etwas gleichwertiges liefern können.

Dann habe ich dich falsch verstanden. Wollte eigentlich auf einen Gegenpart zu Intels "Greenlow" Plattform mit integrierter Grafik heraus, ich habe aber keine Ahnung, ob der Markt überhaupt vom Volumen für AMD interessant ist.

CUDA ist natürlich ein Riesenargument. Da muss AMD schon massig dran arbeiten, das Ecosystem was NVIDIA da aufgebaut hat, das schuettelt man nicht mal eben was aus der Hand.

Man sollte sich dabei auch noch immer mal wieder vor Augen führen, wie die Verhältnisse bei der Manpower aussehen.

Mitarbeiter
AMD : 8.900
NVIDIA : 11.000
Intel: 104.200
 
Es hängt ja auch nicht immer nur an AMD ==> SuperMicro schafft es nicht ein fehlerfreies BIOS für den EPYC zu gießen und MatLab z.B. ist auch katastrophal auf AMD. Meine i7 4770k laufen z.T. deutlich fixer als ein AMD 2700x.
AMDs Prozessoren können noch so gut sein...es bringt halt wenig, wenn das Umfeld nicht mitspielt.
 
Man sollte sich dabei auch noch immer mal wieder vor Augen führen, wie die Verhältnisse bei der Manpower aussehen.

Mitarbeiter
AMD : 8.900
NVIDIA : 11.000
Intel: 104.200

Bei Intel darf man nicht vergessen, dass da noch eine Fab und verschiedene andere Dinge mit drin hängen. TSMC hat z.B. 47000 Mitarbeiter.
Wäre mal interessant zu erfahren, wieviele wirklich nur an CPU Entwicklung arbeiten. Denke mal, das sind nicht wesentich mehr als die Mannschaft bei AMD. Naja, wahrscheinlich hat Intel 2 Entwicklermannschaften. Zudem nützt die beste Mannschaft nützt nichts, wenn sie in die falsche Richtung läuft.

Im Vergleich zu Nvidia, die sich nur auf GPU konzentrieren, sieht man aber, dass AMD mit CPU und GPU noch ziemlich klein ist.
 
Im Vergleich zu Nvidia, die sich nur auf GPU konzentrieren, sieht man aber, dass AMD mit CPU und GPU noch ziemlich klein ist.

Nach dem Aufkauf von ATI 2006 war man bei 10.200 Angestellten und imo haben die das vor den schlimmen Jahren bis knapp an die 12.000 ausgebaut.

Ok, ich musste nachschauen. Man war sogar mal bei über 16.000.

Ende 1993 12.060

Ende 2003 12.146

Ende 2004 8.300 und 7.600 bei Spansion

Ende 2005 9.800 ohne Spansion! Davon 2.700 in Research und Development

Ende 2006 16.500 soweit ich weiß hat man damals das Marketing rasant ausgebaut und die ATI Leute kamen dazu
Ende 2007 16.420
Ende 2008 14.700
Ende 2009 10.400

Ende 2013 10.671
Ende 2014 9.700
Ende 2015 9.100
Ende 2016 8.200
Ende 2017 8.900



Und Hände hoch, wer hätte bei Spansion gewusst, worum es geht? *chatt*
 
Wollte eigentlich auf einen Gegenpart zu Intels "Greenlow" Plattform mit integrierter Grafik heraus, ich habe aber keine Ahnung, ob der Markt überhaupt vom Volumen für AMD interessant ist.

Ich kenne mich mit Intels Platformen nicht aus. Ich weiß nur, dass AMD mittlerweile auch einen interessanten Embedded Bereich hat.
Was integrierte Grafik angeht, bin ich auch mal gespannt, wie es weitergeht.
Bei RavenRidge sieht man ja, dass es mit DDR4 mit 11CUs schon an der Speicherbandbreite hapert.
Für viele Anwendungen reicht aber ein RavenRidge schon. Ich denke mal, dass es da noch einen Shrink geben wird und diese Chips demnächst das Low End darstellen, 4C8T "kleine" GPU.
Leistungsfähigere APUs benötigen mehr Speicherbandbreite. Sieht man an den Custom Chips in PS4, XBox etc. die GDDR5 anbinden.
Ist für AM4 nicht machbar. Da stell ich mir eher etwas mit HBM vor. Ob AMD Ende 2019 mit Matisse einen monolitischen Chip mit angebundenem HBM bringt oder ein Chiplet Design mit 8C16T CPU Chiplet, GPU + HBM Chiplets + einem I/O Chip oder aktive Interposer, das wird noch spannend.

Für embedded und günstige Notebooks dürfte jedenfalls eine APU interessant sein, die auch schon RAM integriert hat.

--- Update ---

Spansion -> Flash. Leider der falsche Flash Typ, der der nicht für Massenspeicher geeignet war. Müßte jetzt nachsehen, obs NOR oder NAND war.
 
Die Einführung von DDR5 steht in 2019/2020 eigentlich auch an? Aber vermutlich wäre es für die kommende Generation von AMD zu früh einen DDR4/DDR5 Multi-PHY mitzubringen, so dass man z.B. dann auch direkt einen Sockel-AM5 (oder TR5/SP4) mit DDR5 bringen könnte (inkl. höherer Bandbreite für APUs)?

Edit: Bei AMD und Synopsys arbeitet man jedenfalls bereits an DDR5. Und übrigens ist es für mich auch gerade nochmal wahrscheinlicher geworden, dass AMD auch Samsung 10LPP Produkte in der Pipeline hat.
 
Zuletzt bearbeitet:
Der neuere 16c/32t Die ohne Codenamen bisher ist vermutlich schon Zen3 mit AVX512 und wird später (eventuell Anfang 2020) kommen.
Ich denke nicht, dass AMD auf den AVX512 Zug aufspringt. Müssen sie auch nicht, da GPGPU bei dieser Breite der bessere Weg ist und auch schon deutlich mehr Software durch CUDA (AMD ist hier mit HIP gut dran) genutzt wird. Die Exascale-APU wurde 2017 ausführlich vorgestellt: http://www.computermachines.org/joe/publications/pdfs/hpca2017_exascale_apu.pdf

Sollten die Masken nicht mit EUV erheblich billiger werden, weil man weniger braucht?
Die ausbeite sollte auch steigen, weil weniger Belichtungsschritte nötig sind?
Hier mein Beitrag aus dem 3DCenter zu diesem Thema:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=546540&page=37
Nach dieser Quelle gibt es eine Portierung 7nm -> 7nm EUV bei TSMC:
https://www.semiwiki.com/forum/content/7439-tsmc-technologies-mobile-hpc.html
N7+ will also have double digit good die increase over N7 node as it gains traction from capitalizing the use of the same equipment and tooling. She claimed that it has lower defect density than other foundries as well as comparable 256Mb SRAM yield and device performance vs N7 baseline. TSMC provides easy IP porting (layout and re-K) from N7 to N7+ for those design entities that do not need to be redesigned.
https://www.eetimes.com/document.asp?doc_id=1332860&page_number=2
Both companies plan to ramp early next year a second-generation 7-nm process using EUV to make contacts and vias, reducing 15 optical layers to five EUV layers. The process does not provide a shrink, but it shortens cycle times and does not need a pellicle.

GF announced last June its 2019 plan for 7 nm with EUV. “TSMC has privately told customers that they will do this, too,” said Jones.

Chipmakers will probably have to use 30-mJ/cm2 doses of resists, higher than the 20 mJ/cm2 that they target. They also will likely have to use e-beam systems to inspect masks for defects rather than actinic systems still in the works that look for defects using the same 13.5-mm wavelength as the EUV systems.

In addition to the work with contacts and vias, GF, Samsung, and TSMC plan 7-nm variants that use EUV with a pellicle to make 1x metal layers. These processes will provide a shrink and reduce 23 optical layers to nine EUV layers.

EUV.png
 
Zuletzt bearbeitet:
Ich glaube schon dass AMD auf den AVX512-Zug aufspringen wird, nachdem im AIDA64-Code bereits Zen3 mit AVX512 in Verbindung genannt wurde, bis es dann wieder rausgeschmissen wurde später.

Edit: Die Version mit "improved support for AMD K18 ES CPUs" brachte mit:

  • AMD "K18.1 Zen 2 EE" CPU
  • AMD "K18.2 Zen 3 EE AVX512F" CPU

Vielleicht war die "3" auch nur ein Schreibfehler, und K18.1 ist Matisse und K18.2 ist Starship?
 
Zuletzt bearbeitet:
Ich denke eher, dass da jemand bei AIDA64 zu vorschnell war oder ein Copy&Paste Fehler vorlag der behoben wurde.
AVX512 ist schlechter als GPGPU in vielen Szenarien und AMD muss sich die Taktbremse nicht aufhalsen. Auch der Platz auf dem Die wäre verschwendet und in GPU-CUs besser genutzt. Es gibt viele Gründe warum Intel dringend GPUs braucht, einer davon ist die Sackgasse bei AVX.
 
Und Hände hoch, wer hätte bei Spansion gewusst, worum es geht? *chatt*
Habe NOR Flash ICs auch in vielen verschiedenen Geräten gesehen.

AVX512 könnten die doch auch nur zur Evaluierung im Labor haben? Aber ob es da im Cross-Licence Abkommen mit Intel auch enthalten ist?

Die Feldversuche zum Ziel der ExascaleAPU erscheinen plausibel, zumal AMD solche Tests auf Serienchips schon oft gemacht hat. Aber ob die noch so weit nach Navi erst zum Zug kommen würde? Dann müsste man schon fast mit Intel rechnen, die etwas vergleichbares planen müssen.
 
Aber ob es da im Cross-Licence Abkommen mit Intel auch enthalten ist?

Da ist alles enthalten, beiderseitig. AMD kann alle Instruktionen und Patente von Intel nutzen, und Intel kann alle Instruktionen und Patente von AMD nutzen.
 
AVX512 ist schlechter als GPGPU in vielen Szenarien und AMD muss sich die Taktbremse nicht aufhalsen. Auch der Platz auf dem Die wäre verschwendet und in GPU-CUs besser genutzt. Es gibt viele Gründe warum Intel dringend GPUs braucht, einer davon ist die Sackgasse bei AVX.
Wenn man sich anschaut wie extrem konservativ das genutzt wird - und ebenso konservativ auch nur optional angeboten - könnte man dem zustimmen.
Das sieht man schon an der Nutzung der SSE-Befehlssätze. Bis man meint ausreichend viele Leute mit AVX-512 erreichen zu können könnte das in der Tat bereits obsolet sein :P

Verzahnt sich das aber nicht doch bisschen, mit den "streaming" Befehlssätzen der CPUs und GPGPU? Als AMD uns alle vor Itanium for consumers bewahrt hat, hat das bei AMD wie dann auch bei Intel automatisch bedeutet: x86-64 = SSE2 on board. Und da hab ich mal mitbekommen, daß die Roten wie die Grünen recht schnell und gerne SSE2 in ihren 64bit Treiberkode aufgenommen haben sollen (?) Stimmt das?
Und wenn ja, nutzen sie 2018 mehr als SSE2?
Haben die irgendwo im Netz "requirements" für die Treiber, was CPUs angeht?

AVX-512 ist imho so ein Abwasch vom Larrabee, weil sonst eben nichts anderes im Regal liegt. Irgendwo letztes Jahr Grafiken gesehen, daß wenn man das über OpenMP auf gleich vielen 85W TDP Chips fährt wie über OpenCL auf gleich vielen 150W TDP GPUs, die GPU-Lösung zigfach schneller ist. Ich meine knappe 30x oder so. Ich mein Linpack war das.
Ich kann mich nur leider nicht mehr erinnern welche der 85W Skylakes das waren :(

p.s.:
Money for nothing bei AVX-2 wäre meine ich der Modus, daß man damit auch die allermeisten SSE-Befehle in 256bit statt 128bit Breite fahren kann. Ist das richtig?

Aber schon SSE4.x vs. AVX bringt realistisch in etwa 1.40x/1.65x und schneidet halt nicht so tief ins Powertarget der CPU wie AVX-2 ;) Geschweige AVX-512 halt.
Das könnte man also noch gut mitnehmen. Irgendwann, wenn alle die SIMD in ihren Programmen überhaupt gebrauchen können, flächendeckend SSE4 nutzen :D ;)

Persönlich halte ich AVX-512, im Gegensatz zu AVX(-1), jedenfalls für tot.
 
Zuletzt bearbeitet:
Habe NOR Flash ICs auch in vielen verschiedenen Geräten gesehen.

AVX512 könnten die doch auch nur zur Evaluierung im Labor haben? Aber ob es da im Cross-Licence Abkommen mit Intel auch enthalten ist?

Die Feldversuche zum Ziel der ExascaleAPU erscheinen plausibel, zumal AMD solche Tests auf Serienchips schon oft gemacht hat. Aber ob die noch so weit nach Navi erst zum Zug kommen würde? Dann müsste man schon fast mit Intel rechnen, die etwas vergleichbares planen müssen.
Verwendet man NOR Flash nicht für das BIOS? SSDs verwenden NAND wegen Speicherdichte.

Solange Intel im Prozessormarkt führend ist mit +80% Marktanteil, muß AMD auch den kompletten Intel Befehlssatz im Programm haben um kompatibel zu bleiben. Bisher spielt AVX512 noch keine große Rolle in der Softwarewelt, weshalb AMD das noch was schleifen lassen kann. Wenn sich der Markt aber jetzt zu gunsten von AMD dreht, kann es sein, dass AMD keine weitere Unterstützung für AVX512 einbaut bzw. nicht freischaltet um die weitere Nutzung von AVX512 für die Softwarefirmen uninteressant zu machen.

2022/23 kann man damit rechnen, dass Intel auch in Richtung Chiplets und APU geht und wieder eine starke Konkurrenz sein wird. Dazu sind ja Keller und Koduri jetzt bei Intel. AMD hat diesmal gegenüber 2006 aber einige Vorteile: Mit TSMC führenden Halbleiterhersteller, kaum Schulden, eine größere IPC Steigerung seitens Intel ist nicht zu erwarten, frustrierte OEMs die sich Konkurrenten zu Intel wünschen und vor allem haben sie die Gerüchteküche ziemlich eingedämmt wodurch die Konkurrenz nicht mehr frühzeitig reagieren kann und Verzögerungen von der Außenwelt gar nicht mehr wahrgenommen werden, AMD damit glaubwürdiger mit seinen Produktankündigungen erscheint.
 
Verwendet man NOR Flash nicht für das BIOS? SSDs verwenden NAND wegen Speicherdichte.
Serielle, mittlerweile.
Parallele NOR Flash EEPROMs brachte jeder Mikrocontroller, welcher noch keinen integierten hatte, weil darin direkt der Code ausgeführt wird und die direkte Adressierbarkeit unumgänglich ist.
 
Und Hände hoch, wer hätte bei Spansion gewusst, worum es geht? *chatt*
War das nicht die Flash bzw generell Speicher Sparte.
Die Netzwerk Sparte habens ja schon vorher irgendwann dicht gemacht, genau wie deren SCSI Chips...

Hatten die nicht auch mal vor langer langer Zeit RAMDACs oder so auch??

Was AMD so alles in den 80ern zusammengeschraubt hat, ist echt interessant...
 
Wieso erinnert mich das wieder an die ExascaleAPU?
Ich glaub du bist davon besessen. Oder vom SkyNet :D

Alles was ich bisher über 1000 Petaflops gelesen habe... War genauso aufregend wie ich vor der ersten 1 Petaflop Maschine gelesen habe. Ich sehe nichts großartigeres als davor, womit man das füttern könnte.

Außer dem HumanBrainProject PR-Bullshitbingo *buck*
 
Zuletzt bearbeitet:
Zurück
Oben Unten