App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Supercomputing Leader Cray Introduces First Exascale-class Supercomputer
Cray Sets New Standard for Industry; National Energy Research Scientific Computing (NERSC) Center Taps Cray System for 2020
[...]
Shasta eliminates the distinction between clusters and supercomputers with a single new breakthrough supercomputing system architecture, enabling customers to choose the computational infrastructure that best fits their mission, without tradeoffs. With Shasta you can mix and match processor architectures (X86, Arm®, GPUs) in the same system as well as system interconnects from Cray (Slingshot™), Intel (Omni-Path) or Mellanox (InfiniBand®).
[...]
The Cray Shasta architecture supports both AMD EPYC CPUs and accelerators, including AMD Radeon™ Instinct™ GPUs.
Und dazu:
Lawrence Berkeley to install Perlmutter supercomputer featuring Cray's Shasta system
One day after unveiling the world's third fastest supercomputer at the Lawrence Livermore National Laboratory, the US Department of Energy (DOE) has announced yet another super-fast machine is on its way.
[...]
Perlmutter (also known as NERSC-9) will be delivered by American supercomputing company Cray, featuring AMD Epyc CPUs and Nvidia Tesla GPUs, and will be based on Cray's forthcoming supercomputing platform 'Shasta.'
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
News zur überfälligen Vega-mobile-GPU: https://www.anandtech.com/show/13532/amds-vega-mobile-lives-vega-pro-20-16-in-november
Es wird spekuliert, dass die Vega-20 nur 20CU (1280SPs) hätte. Vermesse ich die Diesize der Vega-20 auf dem Bild, hätte diese etwa 45% der Diesize von Vega-64, also etwa rund 220mm², was der Größe von Polaris-20 mit 36 CUs entspräche. Damit stellt sich für mich die Frage, wieso ist das Die so groß? Sind dort womöglich doch mehr SPs drauf? Oder findet sich auf dem Die noch etwas Anderes, von dem AMD bisher nicht spricht? Könnte dieses "Andere" der Grund dafür sein, dass Vega-mobile erst so spät kommt?
Mit Vega bringt AMD das Grafik-Ram auf den Chip, mit Hilfe von HBM. Für mich ist das der entscheidende Grund, weshalb AMD bei Vega am teuren HBM festhält: weil damit GPU und das zugehörige Ram auf einem Chip möglich sind.
Bringt man die CPU noch mit auf den Chip, hat man eine deutlich leistungsfähigere APU, weil der Grafik-Ram auch auf dem Chip ist. Packt man nun noch eines der neuen 7nm-Zen2-Chiplets dazu, hätte AMD eine super Highend-Mobile-APU, aber...
...die 7nm-Chiplets haben aber keine North-und Southbridge. Diese Bausteine hat AMD aber in 14nm längst komplett fertig entwickelt auf seinen bisherigen 14nm-RavenRidges. Könnte AMD nun womöglich auf die Mobile-Vega auch schon eine North- und Southbridge mit integriert haben, sodass AMD damit zusammmen mit einem kommenden 7nm-Ryzen2-Chiplet die zukünftige Highend-APU aufbaut? Einfacher, günstiger und schneller könnte AMD nicht eine neue APU mit 7nm-Ryzen2 realisieren. Zudem hätte man auch gleich eine viel leistungsfähigere Grafik mit drauf. Für das Mainstream bliebe RavenRidge(2018!) und als Highend-Lösung gibt es die neue Ryzen2-8Core-1280CU-APU im gleichen Sockel => flache Notebook für alle Hersteller mit super Grafik. Wenn dann nicht AMD endlich Designs bekäme?
Reine Spekulation! Aber es wäre wohl eine super Strategie, die vor allem extrem viel Engneering sparen würde, weil auf Verfügbares zurückgegriffen werden kann. Zudem braucht erst mal keine 7nm-APU entwickelt zu werden, deren Herstellung sowieso erst mal zu teuer wäre und viel zu lange bräuchte.
Es wird spekuliert, dass die Vega-20 nur 20CU (1280SPs) hätte. Vermesse ich die Diesize der Vega-20 auf dem Bild, hätte diese etwa 45% der Diesize von Vega-64, also etwa rund 220mm², was der Größe von Polaris-20 mit 36 CUs entspräche. Damit stellt sich für mich die Frage, wieso ist das Die so groß? Sind dort womöglich doch mehr SPs drauf? Oder findet sich auf dem Die noch etwas Anderes, von dem AMD bisher nicht spricht? Könnte dieses "Andere" der Grund dafür sein, dass Vega-mobile erst so spät kommt?
Mit Vega bringt AMD das Grafik-Ram auf den Chip, mit Hilfe von HBM. Für mich ist das der entscheidende Grund, weshalb AMD bei Vega am teuren HBM festhält: weil damit GPU und das zugehörige Ram auf einem Chip möglich sind.
Bringt man die CPU noch mit auf den Chip, hat man eine deutlich leistungsfähigere APU, weil der Grafik-Ram auch auf dem Chip ist. Packt man nun noch eines der neuen 7nm-Zen2-Chiplets dazu, hätte AMD eine super Highend-Mobile-APU, aber...
...die 7nm-Chiplets haben aber keine North-und Southbridge. Diese Bausteine hat AMD aber in 14nm längst komplett fertig entwickelt auf seinen bisherigen 14nm-RavenRidges. Könnte AMD nun womöglich auf die Mobile-Vega auch schon eine North- und Southbridge mit integriert haben, sodass AMD damit zusammmen mit einem kommenden 7nm-Ryzen2-Chiplet die zukünftige Highend-APU aufbaut? Einfacher, günstiger und schneller könnte AMD nicht eine neue APU mit 7nm-Ryzen2 realisieren. Zudem hätte man auch gleich eine viel leistungsfähigere Grafik mit drauf. Für das Mainstream bliebe RavenRidge(2018!) und als Highend-Lösung gibt es die neue Ryzen2-8Core-1280CU-APU im gleichen Sockel => flache Notebook für alle Hersteller mit super Grafik. Wenn dann nicht AMD endlich Designs bekäme?
Reine Spekulation! Aber es wäre wohl eine super Strategie, die vor allem extrem viel Engneering sparen würde, weil auf Verfügbares zurückgegriffen werden kann. Zudem braucht erst mal keine 7nm-APU entwickelt zu werden, deren Herstellung sowieso erst mal zu teuer wäre und viel zu lange bräuchte.
Zuletzt bearbeitet:
Shearer
Grand Admiral Special
- Mitglied seit
- 21.11.2001
- Beiträge
- 3.054
- Renomée
- 71
- Standort
- Munich, Germany
- Mein Laptop
- HP Elitebook 745 G5 AMD Ryzen R7 2700U
- Prozessor
- Intel Core i5-4590T 4x 2.00 GHz
- Mainboard
- HP Elitedesk 800 DM G1
- Kühlung
- HP
- Speicher
- 2x 8 GB DDR3, Corsair
- Grafikprozessor
- Intel HD4600
- Display
- 2x HP E273q
- SSD
- 256 GB Samsung XP941
- HDD
- 1000 GB Crucial MX500
- Soundkarte
- Intel Onboard
- Gehäuse
- HP Elitedesk 800 DM G1
- Netzteil
- HP 65W
- Betriebssystem
- Win11 Pro 64
- Webbrowser
- Firefox
Im Moment scheint es einen Trend zu geben, der multiple heterogene Chips (CPU-Chiplet, GPU, HBM, I/O) auf einen Fabric sieht. Der Mobile-Markt benötigt dies vermutlich am ehesten, das ist dann aber wie Kabylake-G eher Mobile-Highend..
Spannend wird es, wie oder ob, AMD diese Strategie in den Mainstream-Markt bringt. Anscheinend ist alles was in 7nm gebraut wird, abartig teuer, so dass nicht glaube, dass es in 2019 besonders viele 7nm Consumer Produkte geben wird.
Die Ravenbridge APU´s könnten einfach nur auf 12nm bei Glofo rutschen. Bleibt also die Frage wie AMD einen Ryzen 3000 realisieren will. Gibt es einen eigenen CPU-Die, oder arbeitet man auch mit einem oder zwei Chiplets + I/O Die.
Aus Kostengründen macht so eine Konstruktion für eine Sub 100$ APU vermutlich weniger Sinn. Zumindest im Moment nicht. Vielleicht in 3-5 Jahren.
Spannend wird es, wie oder ob, AMD diese Strategie in den Mainstream-Markt bringt. Anscheinend ist alles was in 7nm gebraut wird, abartig teuer, so dass nicht glaube, dass es in 2019 besonders viele 7nm Consumer Produkte geben wird.
Die Ravenbridge APU´s könnten einfach nur auf 12nm bei Glofo rutschen. Bleibt also die Frage wie AMD einen Ryzen 3000 realisieren will. Gibt es einen eigenen CPU-Die, oder arbeitet man auch mit einem oder zwei Chiplets + I/O Die.
Aus Kostengründen macht so eine Konstruktion für eine Sub 100$ APU vermutlich weniger Sinn. Zumindest im Moment nicht. Vielleicht in 3-5 Jahren.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.317
- Renomée
- 1.900
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
CPU/APU und HBM auf einem Chip? Das kann doch gar nicht funktionieren, die Technologie ist dermaßen unterschiedlich.
Und wenn ich auf den ROME schaue, dann scheint die Strategie von AMD ja eher zu sein, möglichst mehrere Chips für die jeweiligen Aufgaben zu haben, die dann kombiniert werden.
Und wenn ich auf den ROME schaue, dann scheint die Strategie von AMD ja eher zu sein, möglichst mehrere Chips für die jeweiligen Aufgaben zu haben, die dann kombiniert werden.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Die Ravenbridge APU´s könnten einfach nur auf 12nm bei Glofo rutschen. Bleibt also die Frage wie AMD einen Ryzen 3000 realisieren will. Gibt es einen eigenen CPU-Die, oder arbeitet man auch mit einem oder zwei Chiplets + I/O Die.
Wenn die RavenRidge2018 APU intern einen Switch hat, mit der wahlweise die IF auf den inneren CCX oder nach außen geleitet wird, dann könnte man an RR18 einen 7nm 8 Core Chiplet anschließen. Die 8 7nm Cores sollten nicht mehr Leistung benötigen als der interne 12nm 4 Core Block der dann abgeschaltet ist. Bliebe die TDP also nahezu gleich.
AMD könnte also einen teildefekten RR18 als I/O Chip für die 7nm CPU Chiplets verwenden, sogar als 8 Core APU für Notebooks. Wäre sicherlich günstiger als einen eigenen I/O Chip aufzulegen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Was alle dabei vergessen ist PCIe 4.0. Da IF die PCIe Lanes nutzt, werden nur neue Chips in 7nm in diesen modularen Baukasten kommen. Nicht vergessen, dass als einziges Feature für Navi "Scalability" genannt wurde auf den Roadmaps. Die Navi GPU wird IMHO ein Chiplet werden, und dann braucht es dafür einen I/O Chip der auch für APUs und AM4-Socket SKUs ausreichend taugt.
1x I/O für Server in 14nm
1x I/O für AM4/GPUs in 14nm
1x CPU-Chiplet in 7nm (Zen2)
1x GPU Chiplet in 7nm. (Navi 10)
Ab Polaris 30 in 12nm ist unterhalb von Navi alles abgedeckt.
Navi wird als 1x Version knapp über Vega64 sein Performanceseitig(20%?) zzgl. ein kleineres Salvage.
Als 2x Navi wird es die RTX GPUs angreifen können (je nach Skalierung der Leistung)
Und als 4x Navi wird es in HPCs angreifen.
Sicherlich wird es noch ein kleineres Navi (11?) Chiplet geben, später um es für APUs zu nutzen und die Polaris Low-end Modelle abzulösen.
Diese Strategie wäre ein wirtschaftlicher Volltreffer. Dies nicht zu tun und weitere monolithische Designs in 7nm zu designen wäre völlig unsinnig und würde sämtliche Vorteile der Chiplet-Strategie wieder zunichte machen.
1x I/O für Server in 14nm
1x I/O für AM4/GPUs in 14nm
1x CPU-Chiplet in 7nm (Zen2)
1x GPU Chiplet in 7nm. (Navi 10)
Ab Polaris 30 in 12nm ist unterhalb von Navi alles abgedeckt.
Navi wird als 1x Version knapp über Vega64 sein Performanceseitig(20%?) zzgl. ein kleineres Salvage.
Als 2x Navi wird es die RTX GPUs angreifen können (je nach Skalierung der Leistung)
Und als 4x Navi wird es in HPCs angreifen.
Sicherlich wird es noch ein kleineres Navi (11?) Chiplet geben, später um es für APUs zu nutzen und die Polaris Low-end Modelle abzulösen.
Diese Strategie wäre ein wirtschaftlicher Volltreffer. Dies nicht zu tun und weitere monolithische Designs in 7nm zu designen wäre völlig unsinnig und würde sämtliche Vorteile der Chiplet-Strategie wieder zunichte machen.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Was alle dabei vergessen ist PCIe 4.0. Da IF die PCIe Lanes nutzt, werden nur neue Chips in 7nm in diesen modularen Baukasten kommen.
Du vergisst, dass der I/O Chip bei ROME mit den vielen, vielen PCIe 4.0 Lanes in 14nm hergestellt wird.
Ich denke , dass für AM4 bei PCIe 3.0 bleibt.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das denke ich nicht. Der I/O Chip wird ja neu designed. Warum sollte der PCIe 3.0 haben?
Nur warum.sollte AMD die Chiplets mit alten PCIe 3.0 APUs in 14nm verbinden? Und der AM4 Sockel ist agnostisch mit den PCIe Versionen. Es ist ein Sockel für SoCs.
Nur warum.sollte AMD die Chiplets mit alten PCIe 3.0 APUs in 14nm verbinden? Und der AM4 Sockel ist agnostisch mit den PCIe Versionen. Es ist ein Sockel für SoCs.
Zuletzt bearbeitet:
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Warum sollte der PCIe 4.0 haben? Gibt doch gar keine Peripherie dafür. Selbst aktuelle GPUs sind mit PCIe 3.0 8 Lanes nicht langsamer als mit 16 Lanes. Sehe einfach keine Notwendigkeit das jetzt schon für AM4 einzuführen.
Und warum keine defekten APUs verwenden. Haben alles drauf, was der I/O Chip braucht und noch etwas mehr. Warum also einen extra I/O designen, womöglich mit GPU? Dann spielen die 4 Cores auch keine Rolle mehr und der Chip kann vielfältiger eingesetzt und durch die Massenproduktion recht günstig werden. Zudem könnte AMD damit auch schon 8 Core APUs für Notebooks anbieten.
Ist eh nur eine Lösung für ein Jahr. 2020 Kommt die monolithische 7nm APU mit 8Core.
Dann ist AM4 eh am Ende. Mehr als 5GHz sollten auch mit EUV nicht drin sein, viel mehr an IPC ist auch nicht mehr rauszuholen, 2 Speicherkanäle limitieren jetzt schon. Threadripper wird nächstes Jahr schon die bessere Gaming Lösung werden ( 16Core 7nm 5GHz, 4 Speicherkanäle).
Ich bin mal gespannt, was AMD bringen wird. Wundern würde mich eine APU als I/O aber nicht.
Und warum keine defekten APUs verwenden. Haben alles drauf, was der I/O Chip braucht und noch etwas mehr. Warum also einen extra I/O designen, womöglich mit GPU? Dann spielen die 4 Cores auch keine Rolle mehr und der Chip kann vielfältiger eingesetzt und durch die Massenproduktion recht günstig werden. Zudem könnte AMD damit auch schon 8 Core APUs für Notebooks anbieten.
Ist eh nur eine Lösung für ein Jahr. 2020 Kommt die monolithische 7nm APU mit 8Core.
Dann ist AM4 eh am Ende. Mehr als 5GHz sollten auch mit EUV nicht drin sein, viel mehr an IPC ist auch nicht mehr rauszuholen, 2 Speicherkanäle limitieren jetzt schon. Threadripper wird nächstes Jahr schon die bessere Gaming Lösung werden ( 16Core 7nm 5GHz, 4 Speicherkanäle).
Ich bin mal gespannt, was AMD bringen wird. Wundern würde mich eine APU als I/O aber nicht.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Keine Not? Durch die 24 Lanes ist AM4 extrem beschränkt, mit einem neuen Chipsatz könnte man dann wenigstens mehr als eine NVMe-SSD mit voller Geschwindigkeit anbinden ohne die GPU zu beschneiden, abgesehen davon wird Navi garantiert auch mit PCIe 4.0 kommen, und Intel hat es nicht.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Vor allem weil die gesteigerte Banbreite des IF durch PCIe 4.0 bedingt ist. Doppelt so viele Transfers bei selber Frequenz. Da IF Muxed lanes mit PCIe benötigt auf dem I/O ist hier eine Abhängigkeit vorhaden.
Diese Strategie wäre ein wirtschaftlicher Volltreffer. Dies nicht zu tun und weitere monolithische Designs in 7nm zu designen wäre völlig unsinnig und würde sämtliche Vorteile der Chiplet-Strategie wieder zunichte machen.
Nur für GPU wird das so noch nicht kommen. Das hat AMD selbst meine ich sogar so gesagt. [könnte Strategie sein]
Aber es scheint noch Probleme zu geben auch GPU`s so zu fahren. [ich kapiers auch nicht - ok jeden Chiplet sein eigenes Bild rendern lassen geht nicht da von Bild zu Bild der Rechenaufwand stark schwanken könnte und man dann so ein Bild nicht rechtzeitig ausgeben könnte] Aber ein 4er Chipletdesign z.B. - da könnte man das Bild doch vierteln und jeder Rechnet sein viertel...] da sollten die zeitlichen Unterschiede nicht mehr so enorm sein...
Ich glaube aber Ihnen im Moment. Ich denke es gibt da noch Probleme die erst gemeistert werden müssen. MultiGPU hat sich ja nicht wirklich durchgesetzt... Im Chipletdesign hat man aber genau das wieder...
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.737
- Renomée
- 438
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
könnte man dann wenigstens mehr als eine NVMe-SSD mit voller Geschwindigkeit anbinden ohne die GPU zu beschneiden
Das ist wohl eher ein psychologisches Problem als ein technisches. Von NVMe merkt man jetzt schon wenig im Alltag, da wirst du NVMe x2 und x4 in der Praxis nicht mehr unterscheiden können. Und auch PCIe 3.0 x8 ist im Alltag kein Problem.
Ich finde, die Hersteller, die ihre Technik ja besser verstehen als die Verbraucher (ok ok, ich meine die Ingenieure, nicht Marketing oder BWLer) sollten NVMe x2 viel stärker in Richtung "sweet spot" promoten. Das spart ja auch Geld bei der Herstellung und bringt mehr Energieeffizienz. Und warum mit Kanonen auf Spatzen schießen, wenn man dabei nicht trifft (ergo: der Kunde nichts davon merkt)?
Bei Intels Optane-Desaster konnte man sehen, dass die Verbraucher trotz unendlich langer Benchmark-Balken nicht auf den Schwindel hereingefallen sind. Das macht Hoffnung.
Zuletzt bearbeitet:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Ist auf jeden Fall wirklich lustig wie alle immer gegen PCIe 4.0 argumentieren? Ja, vielleicht bringt es Euch jetzt persönlich nichts, aber wenn alle immer so argumentieren würden, wären wir immer noch bei PCIe 1.0. Oder auf den Bäumen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Mit PCIe 4.0 ist der Durchsatz für Infinity Fabric doppelt so hoch bei selber Frequenz.
Jede Zen2 SKU profitiert davon.
Jede Zen2 SKU profitiert davon.
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.947
- Renomée
- 4.022
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Ich denke eigentlich nicht, dass der Durchsatz das Problem ist, sondern eher die Latenz, was man ja vor allem bei Zeitkritischen Workloads sieht. Deswegen ist die Sprungvorhersage ja eine so viel Zitierte Verbesserung bei AMD.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Wenn du doppelt so viel Daten pro Takt über das IF versenden kannst ist die Latenz deutlich besser.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.737
- Renomée
- 438
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
@Bomby: Wir sind einfach nur realistisch. Und "Argumentation durch maßlose Übertreibung" hat noch nie funktioniert.
Wenn ein Haus komfortabler ist als ein Baum, gehen wir da gerne rein. Wenn's aber nur ein anderer Baum ist, dann halt nicht.
Wenn ein Haus komfortabler ist als ein Baum, gehen wir da gerne rein. Wenn's aber nur ein anderer Baum ist, dann halt nicht.
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.947
- Renomée
- 4.022
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Wenn du doppelt so viel Daten pro Takt über das IF versenden kannst ist die Latenz deutlich besser.
Die Latenz wird nur bei höherer Frequenz besser.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Noch ein Supercomputer-Gewinn bei AMD:
--- Update ---
Und die hat sich laut einiger Angaben wohl von 8 GHz bei PCIe 3.0 auf 16 GHz bei PCIe 4.0 erhöht?
New Penguin/AMD high-performance computing cluster coming to Lawrence Livermore National Laboratory
The system will be provided by Penguin Computing and will be comprised of AMD EPYC™ processors and AMD Radeon™ Instinct™ GPU (graphics processing unit) accelerators connected via a Mellanox HDR 200 Gigabit InfiniBand network.
[...]
The cluster consists of 170 two-socket nodes incorporating 24-core AMD EPYC™ 7401 processors and a PCIe 1.6 Terabyte (TB) nonvolatile (solid-state) memory device. Each Corona compute node is GPU-ready with half of those nodes utilizing four AMD Radeon Instinct™ MI25 GPUs per node, delivering 4.2 petaFLOPS of FP32 peak performance. The remaining compute nodes may be upgraded with future GPUs.
--- Update ---
Die Latenz wird nur bei höherer Frequenz besser.
Und die hat sich laut einiger Angaben wohl von 8 GHz bei PCIe 3.0 auf 16 GHz bei PCIe 4.0 erhöht?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Wenn ich für 64B 1 Takt anstatt 2 Takte brauch wird die Latenz nicht besser?Die Latenz wird nur bei höherer Frequenz besser.
--- Update ---
Die G/T(ransfers)/s haben sich von 8 auf 16 verdoppelt. Nicht die GHz.Und die hat sich laut einiger Angaben wohl von 8 GHz bei PCIe 3.0 auf 16 GHz bei PCIe 4.0 erhöht?
Pro Link 20 Gbit/s anstatt 10 Gbit/s zuvor. Das entspricht bei 16x PCIe 31,5 GByte/s gegenüber vorher 15,75 GB/s
Doppelte Bandbreite durch doppelt so viele Instruktionen pro Takt.
Um diese Transferrate zu ermöglichen schrumpft die maximale Leitungslänge von 20 auf 8 bis 12 Zoll (20 bis 30 cm). Erforderlich sind auch neue Materialien für Leiterbahnen und Kontakte, um die Signalqualität für diese Geschwindigkeit zu erhalten.
PCIe 4.0 erreicht seine maximale Datenrate auch nur dann, wenn maximal eine Steckverbindung im Leitungspfad hängt (Punkt-zu-Punkt-Verbindung).
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Laut anderer Angaben ist GT == GHz bei PCIe, und keine Veränderung von wegen Double Data Rate auf Quad Data Rate?
--- Update ---
Ahh, vermutlich ist das:
Jedenfalls schreiben die zum Beispiel hier:
--- Update ---
Auch noch gefunden:
Aus dem PDF hier.
--- Update ---
Ahh, vermutlich ist das:
- PCIe 3.0: 4 GHz DDR == 8 GT
- PCIe 4.0: 8 GHz DDR == 16 GT
- PCIe 5.0: 16 GHz DDR == 32 GT
Jedenfalls schreiben die zum Beispiel hier:
The PCIe 5.0 specification uses a channel with -36 dB attenuation at 16 GHz. The frequency 16 GHz represents the Nyquist frequency of a 32 GT/s digital signal.
--- Update ---
Auch noch gefunden:
Aus dem PDF hier.
Zuletzt bearbeitet:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Ahh, noch eines, scheinbar direkt von der PCI SIG:
Von hier: https://www.tomshardware.com/news/pcie-4.0-5.0-pci-sig-specfication,35325.html
Von hier: https://www.tomshardware.com/news/pcie-4.0-5.0-pci-sig-specfication,35325.html
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ok dann sind es doch die vollen GHz die zur verdoppelung führen. Kürzere Leiterbahnen machen es möglich. Allerdings sieht man ja auch bei dem Sprung von Version 2 auf 3, dass nicht nur die GHz mit eine Rolle spielen. Da wurde von 8b10b Codierung auf 128B130B mit nur noch 1,5 % Overhead umgestellt und ebenso eine Verdoppelung mit lediglich 60% mehr Takt erreicht.
Bisher hatte ich immer nur von doppelten GT/s gelesen und bin daher von ähnlichen Umständen ausgegangen. Danke füe die Quellen und Berichtigung.
Bisher hatte ich immer nur von doppelten GT/s gelesen und bin daher von ähnlichen Umständen ausgegangen. Danke füe die Quellen und Berichtigung.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Und auch Stuttgart bekommt einen 5000-node EPYC (Rome) Cluster mit 24 petaFLOPs: https://www.hlrs.de/whats-new/press/press-releases/
Siehe auch AMD-Pressemeldung: http://ir.amd.com/news-releases/new...percomputers-unleash-discovery-and-accelerate
Siehe auch AMD-Pressemeldung: http://ir.amd.com/news-releases/new...percomputers-unleash-discovery-and-accelerate
Ähnliche Themen
- Antworten
- 743
- Aufrufe
- 52K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 764
- Aufrufe
- 101K