App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Das wäre ein lösbares Problem, aber AMD kann und/oder will es nicht lösen. Wang hat es vor ca. einem halben Jahr in einem Interview gesagt, dass es das bei Navi nicht geben wird. Jedenfalls für Gaming.
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.472
- Renomée
- 82
- Standort
- Switzerland
- Mein Laptop
- LENOVO Y520-15, Intel i7-7700HQ, W10-Home
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Ist das schon in "Stein gemeisselt"?Eine Gaming-Vega in 7nm wird nicht kommen.
Gibt ja immer noch andere Aussagen, Sinn würde eine 7nm Version auf jeden Fall machen, jedenfalls für mich, da mir die jetzigen zu stromhungrig sind.
Vor allem muss AMD weiterhin Druck auf nv machen, von der Rohleistung her ist die Vega ja nicht weit von der neuen nv Generation entfernt.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Wenn überhaupt glaube ich wird es noch sowas wie eine "Frontier Edition" mit einem recht hohen Preis geben. Es gab ja zumindest Hinweise auf eine 16 GB Version neben der 32 GB Version, aber das kann auch genauso gut für eine WX/Pro-Version sein.
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Dazu müßte AMD Vega10 aber auch erst mal shrinken, was bis jetzt nicht passiert ist.Sinn würde eine 7nm Version auf jeden Fall machen, jedenfalls für mich, da mir die jetzigen zu stromhungrig sind.
Das ist kein reiner Shrink von Vega10.Weil der Shriken an sich schon existier
Vega20 ist ein "Rechenmonster" für den HPC-Einsatz!
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.215
- Renomée
- 71
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Der Chip ist an sich der selber nur Lechte Verbesserungen und ein eben ein größeres Speicherinterface und eben in 7nm
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Genau das trifft auf Vega20 aber nicht zu, Vega20 ist viel viel größer als ein reiner Shrink von Vega20.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Genau das trifft auf Vega20 aber nicht zu, Vega20 ist viel viel größer als ein reiner Shrink von Vega20.
Soviel größer ist Vega20 auch nicht. Für DP ein paar mehr Transistoren und 2 HBM Interfaces zusätzlich. Macht nicht das meiste aus.
Vergiss nicht, dass der I/O Bereich nicht gut skaliert.
Zudem ist Vega10 schon mehr auf HPC ausgerichtet und vieles an Board, das bei Gaming nicht benötigt wird.
Macht keinen Sinn das Vega10 Design auf 7nm zu shrinken. Dann schon lieber einen neuen reinen Gaming Chip der mit Navi ja auch bald ( Sommer 2019?) kommt.
Das wäre ein lösbares Problem, aber AMD kann und/oder will es nicht lösen. Wang hat es vor ca. einem halben Jahr in einem Interview gesagt, dass es das bei Navi nicht geben wird. Jedenfalls für Gaming.
Er hat meine ich genau gesagt, für NAVI wird es noch nicht kommen.
Und weil hier einige schreiben MultiGPU für`s Gaming sei tot. Ja so wie es bisher war. Extra Treiberanpassungen/Profile etc + Microruckler.
Wir sprechen hier aber von einer technisch anderen Umsetzung. Für das OS wird das eine GPU sein im innern dann aber mehrere GPU chiplets. Das verlagert die Treiberbproblematiken der Vergangenheit in die Hardware.
Microruckler wären in meinen Augen dann zu vermeiden wenn man eine hohe Anzahl Chiplets hätte und diese alle an einem Bild rendern. Dann wären die Bildausschnitte die jeder Chiplet für sich berechnet klein genug so das zwischen nicht so komplexen Bildbereichen und sehr komplexen Bildbereichen keine großen Zeitdifferenzen mehr auflaufen würden und so einfach "gewartet" werden kann aber aufs ganze gesehen keine Ruckler entstehen....
Andere Lösung eine "KI" analysiert die zu berechnenden Bilder und passt automatisch die Bildbereiche dynamisch an die ein Chiplet berechnen soll/muss. Auch so könnte das Delta klein gehalten werden... Die Idee könnte man noch weiter spinnen - nicht ein Bild sondern ein Set aus Bildern analysiert die KI. So kann die Auslastung der Chiplets zur Laufzeit optimiert werden. Im Frame 1 hat Chiplet A einen komplexeren Bildbereich berechnet (hat mehr Zeit in Anspruch genommen) in Frame 2 bekommt es eine einfachere Szene zugewiesen und so wären z.B. nach Frame 2 wieder alle Chiplets im "Takt".
Die Ausgabe erfolgt dann optimiert im Bilderset...
Kurz bezüglich der Technik - ich hatte die Aussage so interpretiert. AMD arbeitet an so etwas definitiv - nur für NAVI wird eine solche Lösung noch nicht kommen. Ich meine auch diese Aussage wurde im Zuge getätigt als vermehrt solche Spekulationen am aufkochen waren.
Ich frage mich ob mit Sony ein neues Feature in NAVI Einzug hält...
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.317
- Renomée
- 1.900
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Macht so ein Chiplet-Design, noch dazu mit sehr vielen Chiplets, denn überhaupt Sinn bei Grafikkarten? Die GPU besteht im Gegensatz zur CPU doch aus sehr vielen gleichartigen Recheneinheiten. Der trifftigste Grund wäre die Skalierbarkeit. IO gibts ja nur zum PCIe-Bus und VRAM. Und jedes Chiplet kostet auf dem Interposer Geld, weil es ja miteinander verdrahtet werden will. Das kann man doch schlecht ins Unendliche ausdehen. Bei den Epycs ist ordentlich Geld im Spiel, da kann man das machen.
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.250
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Und jedes Chiplet kostet auf dem Interposer Geld, weil es ja miteinander verdrahtet werden will.
Einen Interposer kann man auch in älteren Nodes (14nm, 22nm usw.) fertigen, ohne dass der Preis oder die Yield-Rate leiden muss.
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Wird der Interposer aktuell nicht sogar noch in 65nm gefertigt?
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Bei den Epycs ist ordentlich Geld im Spiel, da kann man das machen.
Bei EPYC wird doch kein Interposer verwendet.
Ich habe den Eindruck, du bringst da was durcheinander.
Interposer benötigt man zum Kontaktieren von HBM mit seinen 5000 µBump Kontakten auf 90 mm² und wenn es darum geht viele Verbindungen mit geringem Energieaufwand zwischen den Chips zu realisieren.
Zudem kostet ein passiv Interposer auch nicht das meiste. Hab was von ~ $1,- für Vega gelesen.
Chiplets haben nichts mit Interposer zu tun. Ciplets sind auch nur normale Chips, die halt nur in Verbindung mit anderen Chips ein funktionierendes Ganzes ergeben. Die ca. 100 - 150 Anschlüsse eines ZEN 2 CPU Chiplets lassen sich gut auf normalem Trägermaterial kontaktieren.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.317
- Renomée
- 1.900
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
In welchem Node auch immer - bei 64 Chips braucht man sicherlich mehr Verdrahtungsebenen.Einen Interposer kann man auch in älteren Nodes (14nm, 22nm usw.) fertigen, ohne dass der Preis oder die Yield-Rate leiden muss.
Ob das Ding nun Interposer, Chipträger oder sonstwie heißt - das Ding halt, wo die Chiplets drauf sind. Mir kam spontan der eine Name in den Sinn, ein anderer Name tut es aber auch.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Also der normale Chipträger. Kommt halt darauf an, wieviele Ebenen der haben muß. Bei Threadripper und EPYC hat man ja schon mehrere Ebenen. Bei ROME dürften es weniger sein.
Aber wie kommst du auf 64 Chiplets und dass die untereinander verbunden sein müssen? Irgendwann ist Ende wegen TDP, Komplexität, Größe des Verbindungschips oder des Bus Systems. Muß ja alles noch effizient und rentabel bleiben.
Aber wie kommst du auf 64 Chiplets und dass die untereinander verbunden sein müssen? Irgendwann ist Ende wegen TDP, Komplexität, Größe des Verbindungschips oder des Bus Systems. Muß ja alles noch effizient und rentabel bleiben.
ONH
Grand Admiral Special
Also der normale Chipträger. Kommt halt darauf an, wieviele Ebenen der haben muß. Bei Threadripper und EPYC hat man ja schon mehrere Ebenen. Bei ROME dürften es weniger sein.
Aber wie kommst du auf 64 Chiplets und dass die untereinander verbunden sein müssen? Irgendwann ist Ende wegen TDP, Komplexität, Größe des Verbindungschips oder des Bus Systems. Muß ja alles noch effizient und rentabel bleiben.
Mehr als 4-5 Chip lohnen sich nicht zumal der leistungsunterschied zu gross wird und auch Massen GPU mit mehrere Dies benötigen würden.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Es gibt auch noch die Radeons mit SSD onBoard.Macht so ein Chiplet-Design, noch dazu mit sehr vielen Chiplets, denn überhaupt Sinn bei Grafikkarten? Die GPU besteht im Gegensatz zur CPU doch aus sehr vielen gleichartigen Recheneinheiten. Der trifftigste Grund wäre die Skalierbarkeit. IO gibts ja nur zum PCIe-Bus und VRAM.
Macht so ein Chiplet-Design, noch dazu mit sehr vielen Chiplets, denn überhaupt Sinn bei Grafikkarten?
Ich würde sagen ja (es ist die selbe Funktionsweise wie MultiGPU Systeme schon praktizieren - nur mit dem Vorteil das gewisse Probleme im system eine Ebene nach unten wandert und so keine Effekte mehr auf Treiber-Ebene etc. zu beachten sind).
Die Aufgabe der GPU sind meist hoch parallelisierbar. Der Vorteil aus AMD Sicht wäre ja wie bei CPU Chiplets gegeben. Man hat eine Maske aber dank 1/2/4 Chiplets Produkte für die verschiedenen Leistungsklassen. [weiterer denkbarer Anwendungsfall man hat ein Lowpower GPU Chiplet und Power GPU Chiplet - so könnte man für Mobile in einer GPU den Desktop betrieb super "günstig" (bezogen auf Energieverbrauch) fahren - bei benötigter Leistung arbeiten die beiden dann zusammen]
Und auch bei GPU`s wird man nicht beliebig die GHZ weiter nach oben treiben können.
Und ob es so viele sein müssen ist die Frage. Denn wenn man pro Bild arbeitet müssen die Bereiche ja "nur" hinreichend klein werden damit das zeitliche Delta der Berechnung dieser Bereiche klein genug wird um nicht in die Mikroruckler-Problematik zu kommen.
Und bei Contentherstellung wird der Vorteil riesig in meinen Augen. Das wird ja heute schon praktiziert. Jede GPU/CPU rendert ein Frame...
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.317
- Renomée
- 1.900
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Ich habe nur "sehr viele" in eine Zahl verwandelt. Die Idee mit "sehr vielen" Chiplets stammt nicht von mir.Aber wie kommst du auf 64 Chiplets und dass die untereinander verbunden sein müssen? Irgendwann ist Ende wegen TDP, Komplexität, Größe des Verbindungschips oder des Bus Systems. Muß ja alles noch effizient und rentabel bleiben.
OK, sie müssen natürlich nicht alle jeweils mit allen kommunizieren, aber irgendwohin müssen die Daten ja schon wandern innerhalb der GPU, und das möglichst schnell.
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.250
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Eine GPU zerteilen stelle ich mir dann doch etwas einfacher vor. Man braucht ja nur den "Arbeitsaufteiler" im großen IO-DIE unterbringen und der allein muss wissen, wie er die Aufgaben verteilt. In dem Fall kann es egal sein, ob ein Chiplet einen oder 256 Shader hat; sie bekommen einfach die Arbeit zugeteilt, rechnen dran herum und geben sie wieder zurück.
Und der "Arbeitsaufteiler" müsste dann nur noch die gerechneten Ergebnisse wieder zusammensetzen.
Wenn ich die Funktion der Grafikshader nicht völlig mißverstanden habe, ist wohl kaum Kommunikation zwischen den (Shader-)Chiplets notwendig.
Und der "Arbeitsaufteiler" müsste dann nur noch die gerechneten Ergebnisse wieder zusammensetzen.
Wenn ich die Funktion der Grafikshader nicht völlig mißverstanden habe, ist wohl kaum Kommunikation zwischen den (Shader-)Chiplets notwendig.
Stefan Payne
Grand Admiral Special
Ich denke, dass 2) eher wahrscheinlich ist und die 590 einfach "nach unten" durchgereicht wird bzw relabeled mit (hoffentlich!!!) niedrigeren Taktraten und so...An diese drei "Argumente" (besser gesagt: Varianten) glaube ich nicht.
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.215
- Renomée
- 71
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Niedriger Spannung wer gut bei 1500mhz läßt sich mal eben 30% Energie Einsparn wenn man selbst Hand Anleget
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Einerseits gibt es die Gerüchte über Ryzen-3000 von Adoredtv. Aber andererseits ist es sehr ruhig um AMD.
Mal vorneweg: wenn AMDs neue Ryzen-3000 wirklich so gut werden sollten, warum sollte AMD das alles schon am 9.1.19 auf der CES verkünden? Damit würden sie ihre guten Verkäufe der aktuellen Ryzen-2000 kaputt machen, weil AMDs Ryzen immer noch extrem vom DIY-Markt lebt. Entweder die Ryzen-3000 stehen vor der Türe (was ich bezweifle) oder es wird nicht viel Infos dazu am 9.1.19 geben.
Zur Roadmap für den Ryzen-3000:
1) Eigentlich sollte das Desktop-7nm-Die für Ryzen-3000 von Globalfoundries kommen. Die Aufgabe des 7nm-Prozesses von GF dürfte die ursprüngliche Zeitplanung eher nach hinten verschoben haben, also in Richtung H2-2019, wenn nicht noch später. Wollte man beim urspünglichen Ansatz bleiben, wäre wohl eher eine zusätzliche Verzögerung zu erwarten.
2) Andererseits hat TSMC nun unerwartet 7nm-Kapazitäten für H1-2019 frei, weil die Orders der neuen 7nm-Mobilephone-SoCs gekürzt wurden, sodass AMD nun mehr ordern könnte und die zusätzlichen Wafer womöglich sogar günstiger wären. Aber welche Designs hat AMD bereits fertig, die man sofort ordern könnte? Bisher sind nur das etwa 75mm² kleine Epyc2-Die sowie das 331mm² große Navi-20 Die bekannt.
3) Da Epyc-2 noch in der Validierungs-Phase ist, dürfte er für frühzeitige, große Orders ausfallen. Das 331mm² große Navi-20 Die dürfte auch nicht sehr interessant für große Orders sein: es ist viel zu groß für die anfängliche 7nm-Produktion mit hoher Defect-density und ist nicht für Gaming optimiert; zuletzt würden wohl die nötigen Treiber zu lange fehlen.
Nehme ich aber den Gedankengang von Adoredtv mit dem Chiplet-Ansatz auf, sehe ich ein mögliche Option: sollte sich das Zen2-Chiplet für Epyc doch einigermaßen gut takten lassen (es ist ja angeblich auf Effizienz getrimmt, und nicht auf Takt), könnte AMD dann nicht womöglich seine Strategie um eine Option ergänzen, und evtl. doch entsprechend dem Gedankengang von Adoredtv nun frühzeitige Highend-Ryzen-3000-CPUs (mit bis zu 16Cores aber weniger guter Latency) auf Basis dieser Chiplets planen? Die Chiplets sind fertig entwickelt und könnten womöglich nun weit billiger von TSMC zu haben sein, als ursprünglich geplant. Das große I/O-Die für Epyc-2 sollte sich relativ schnell für Ryzen-3000 anpassen lassen: ein Design zu stutzen geht ungleich schneller, als eine neue Umsetzung; zumal könnte für erste Exemplare womöglich gar das 435mm²-große I/O-Die verwendet werden, bis die kleine Variante fertig ist. Man bedenke: die aktuellen Ryzen benutzen für Desktop und Server das selbse Die. Warum nun anfänglich für Ryzen-3000 nicht den gleichen Ansatz?
Bezüglich der widersprüchlichen Gerüchte hierzu, die von einem monolithischen Die sprechen: ein monolithisches Die war vermutlich ursprünglich für Ryzen-3000 bei GF geplant, um maximale Takte uns niedrige Latenzen zu erzielen. Ich bezweifle, dass der Entwicklungsstand bei TSMC für ein solches Die weit genug ist. Die große Frage wäre deshalb, ob der Ansatz mit den bereits verfügbaren Zen2-Chiplets für Epyc Sinn ergeben könnte? Dieser Ansatz mag womöglich erst für den Nachfolger von Raven-Rigde und womöglich auch für die kommenden Konsolen geplant gewesen sein. Aber warum nicht doch jetzt schon was für Desktop auf diesem Ansatz bringen, wenn man damit doch gute Multicore-Ryzen-3000 hin bekäme. Speed-optimierte Ryzen-3000 auf der Basis eines monolithischen Dies für Gaming kann man ja dann immer noch parallel auf den Markt bringen, da ich davon aus gehe, dass Ryzen-3000 vermutlich dann sowieso auf verschiedenen Dice aufbauen dürfte: die kleinen Versionen von Ryzen-3000 werden vermutlich auch noch länger auf dem aktuellen Zen+-12nm-Die basieren, ganz einfach aus Kostengründen und um auch GF weiter auszulasten.
Mal vorneweg: wenn AMDs neue Ryzen-3000 wirklich so gut werden sollten, warum sollte AMD das alles schon am 9.1.19 auf der CES verkünden? Damit würden sie ihre guten Verkäufe der aktuellen Ryzen-2000 kaputt machen, weil AMDs Ryzen immer noch extrem vom DIY-Markt lebt. Entweder die Ryzen-3000 stehen vor der Türe (was ich bezweifle) oder es wird nicht viel Infos dazu am 9.1.19 geben.
Zur Roadmap für den Ryzen-3000:
1) Eigentlich sollte das Desktop-7nm-Die für Ryzen-3000 von Globalfoundries kommen. Die Aufgabe des 7nm-Prozesses von GF dürfte die ursprüngliche Zeitplanung eher nach hinten verschoben haben, also in Richtung H2-2019, wenn nicht noch später. Wollte man beim urspünglichen Ansatz bleiben, wäre wohl eher eine zusätzliche Verzögerung zu erwarten.
2) Andererseits hat TSMC nun unerwartet 7nm-Kapazitäten für H1-2019 frei, weil die Orders der neuen 7nm-Mobilephone-SoCs gekürzt wurden, sodass AMD nun mehr ordern könnte und die zusätzlichen Wafer womöglich sogar günstiger wären. Aber welche Designs hat AMD bereits fertig, die man sofort ordern könnte? Bisher sind nur das etwa 75mm² kleine Epyc2-Die sowie das 331mm² große Navi-20 Die bekannt.
3) Da Epyc-2 noch in der Validierungs-Phase ist, dürfte er für frühzeitige, große Orders ausfallen. Das 331mm² große Navi-20 Die dürfte auch nicht sehr interessant für große Orders sein: es ist viel zu groß für die anfängliche 7nm-Produktion mit hoher Defect-density und ist nicht für Gaming optimiert; zuletzt würden wohl die nötigen Treiber zu lange fehlen.
Nehme ich aber den Gedankengang von Adoredtv mit dem Chiplet-Ansatz auf, sehe ich ein mögliche Option: sollte sich das Zen2-Chiplet für Epyc doch einigermaßen gut takten lassen (es ist ja angeblich auf Effizienz getrimmt, und nicht auf Takt), könnte AMD dann nicht womöglich seine Strategie um eine Option ergänzen, und evtl. doch entsprechend dem Gedankengang von Adoredtv nun frühzeitige Highend-Ryzen-3000-CPUs (mit bis zu 16Cores aber weniger guter Latency) auf Basis dieser Chiplets planen? Die Chiplets sind fertig entwickelt und könnten womöglich nun weit billiger von TSMC zu haben sein, als ursprünglich geplant. Das große I/O-Die für Epyc-2 sollte sich relativ schnell für Ryzen-3000 anpassen lassen: ein Design zu stutzen geht ungleich schneller, als eine neue Umsetzung; zumal könnte für erste Exemplare womöglich gar das 435mm²-große I/O-Die verwendet werden, bis die kleine Variante fertig ist. Man bedenke: die aktuellen Ryzen benutzen für Desktop und Server das selbse Die. Warum nun anfänglich für Ryzen-3000 nicht den gleichen Ansatz?
Bezüglich der widersprüchlichen Gerüchte hierzu, die von einem monolithischen Die sprechen: ein monolithisches Die war vermutlich ursprünglich für Ryzen-3000 bei GF geplant, um maximale Takte uns niedrige Latenzen zu erzielen. Ich bezweifle, dass der Entwicklungsstand bei TSMC für ein solches Die weit genug ist. Die große Frage wäre deshalb, ob der Ansatz mit den bereits verfügbaren Zen2-Chiplets für Epyc Sinn ergeben könnte? Dieser Ansatz mag womöglich erst für den Nachfolger von Raven-Rigde und womöglich auch für die kommenden Konsolen geplant gewesen sein. Aber warum nicht doch jetzt schon was für Desktop auf diesem Ansatz bringen, wenn man damit doch gute Multicore-Ryzen-3000 hin bekäme. Speed-optimierte Ryzen-3000 auf der Basis eines monolithischen Dies für Gaming kann man ja dann immer noch parallel auf den Markt bringen, da ich davon aus gehe, dass Ryzen-3000 vermutlich dann sowieso auf verschiedenen Dice aufbauen dürfte: die kleinen Versionen von Ryzen-3000 werden vermutlich auch noch länger auf dem aktuellen Zen+-12nm-Die basieren, ganz einfach aus Kostengründen und um auch GF weiter auszulasten.
Zuletzt bearbeitet:
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
@BR
1) Wann sollten denn die 7nm von GF ursprünglich kommen? Waren doch erst für Ende 2019 in Planung.
2)
3) Mach dir keine Gedanken wegen Yield bei GPU. Da kann man mit "Reserve" Shader einiges retten.
Aber schau dir mal einen Summit Ridge bzw. Pinnacle Ridge an. Der hat schon alles drauf und sogar noch 2 IF Links und 2 CCX zuviel. Im Prinzip könnte man SR oder PR mit deaktivierten Kernen direkt als I/O verwenden.
Der Große EPYC I/O kann für AM4 nicht verwendet werden. Der ist ja schon fast größer als der AM4 Sockel. Da ist auf AM4 schlicht kein Platz für den großen I/O und Chiplets vorhanden.
Als aktuell einfachste Lösung fällt mir RavenRidge2018 ein.
RavenRidge auf 24 PCIe Lanes und um 2 zusätzliche IF Links erweitert.
Durch die Massenproduktion wird dieser recht günstig. Voll Funktionsfähige Chips gehen in Notebooks, AIO, embedded und billige Einsteiger APUs.
Teildefekte Chips mit zu großen Fehlern in GPU Bereich können als 4 Core CPUs abgesetzt werden.
Teildefekte Chips mit zu großen Fehlern im CPU Bereich können als I/O für Ryzen3000 APUs verwendet werden.
Selbst Chips mit bei denen nur der I/O Bereich noch funktioniert können für reine Ryzen3000 CPUs verwendet werden.
Demnach ergäbe sich folgendes Linup:
RavenRidge (Picasso) als 2/4 Core APU
RR + Chiplet als 6/8 Core APU
RR + 2 Chiplets als 12/16 Core APU (CPU?)
Inwiefern AMD den GPU Teil beschneidet muß sich zeigen, hängt von TDP und Bandbreite ab. Bei Verwendung einer dedizierten GPU sollte die IGP aber nicht stören, da diese dann abgeschaltet wird.
Vorteile:
Kein weiterer Chip für I/O notwendig, geringer zusätzlicher verifikations Aufwand.
Hoher Yield da fast alles verwendet werden kann.
8 Core 7nm APU sollte fast doppelte Performance wie single Chip 4 Core 12nm APU haben bei gleichem Verbrauch.
Effiziente 6/8 Core Mobile APUs.
APU 2 - 16 Kerne im AM4 Format.
Günstig in Massen herstellbar.
Schnell verfügbar.
Nachteile:
Höhere Latenz durch Chipletdesign.
1) Wann sollten denn die 7nm von GF ursprünglich kommen? Waren doch erst für Ende 2019 in Planung.
2)
Du meinst das 7nm CPU-Chiplet und VEGA-20.Bisher sind nur das etwa 75mm² kleine Epyc2-Die sowie das 331mm² große Navi-20 Die bekannt.
3) Mach dir keine Gedanken wegen Yield bei GPU. Da kann man mit "Reserve" Shader einiges retten.
Der große EPYC I/O hat sicherlich einige Funktionen zur Speicher und Cacheverwaltung drauf, die für 2 Chiplets mit 16 Kernen nicht notwendig sind.Das große I/O-Die für Epyc-2 sollte sich relativ schnell für Ryzen-3000 anpassen lassen: ein Design zu stutzen geht ungleich schneller, als eine neue Umsetzung; zumal könnte für erste Exemplare womöglich gar das 435mm²-große I/O-Die verwendet werden, bis die kleine Variante fertig ist.
Aber schau dir mal einen Summit Ridge bzw. Pinnacle Ridge an. Der hat schon alles drauf und sogar noch 2 IF Links und 2 CCX zuviel. Im Prinzip könnte man SR oder PR mit deaktivierten Kernen direkt als I/O verwenden.
Der Große EPYC I/O kann für AM4 nicht verwendet werden. Der ist ja schon fast größer als der AM4 Sockel. Da ist auf AM4 schlicht kein Platz für den großen I/O und Chiplets vorhanden.
Als aktuell einfachste Lösung fällt mir RavenRidge2018 ein.
RavenRidge auf 24 PCIe Lanes und um 2 zusätzliche IF Links erweitert.
Durch die Massenproduktion wird dieser recht günstig. Voll Funktionsfähige Chips gehen in Notebooks, AIO, embedded und billige Einsteiger APUs.
Teildefekte Chips mit zu großen Fehlern in GPU Bereich können als 4 Core CPUs abgesetzt werden.
Teildefekte Chips mit zu großen Fehlern im CPU Bereich können als I/O für Ryzen3000 APUs verwendet werden.
Selbst Chips mit bei denen nur der I/O Bereich noch funktioniert können für reine Ryzen3000 CPUs verwendet werden.
Demnach ergäbe sich folgendes Linup:
RavenRidge (Picasso) als 2/4 Core APU
RR + Chiplet als 6/8 Core APU
RR + 2 Chiplets als 12/16 Core APU (CPU?)
Inwiefern AMD den GPU Teil beschneidet muß sich zeigen, hängt von TDP und Bandbreite ab. Bei Verwendung einer dedizierten GPU sollte die IGP aber nicht stören, da diese dann abgeschaltet wird.
Vorteile:
Kein weiterer Chip für I/O notwendig, geringer zusätzlicher verifikations Aufwand.
Hoher Yield da fast alles verwendet werden kann.
8 Core 7nm APU sollte fast doppelte Performance wie single Chip 4 Core 12nm APU haben bei gleichem Verbrauch.
Effiziente 6/8 Core Mobile APUs.
APU 2 - 16 Kerne im AM4 Format.
Günstig in Massen herstellbar.
Schnell verfügbar.
Nachteile:
Höhere Latenz durch Chipletdesign.
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.984
- Renomée
- 232
Ich kann mir gut vorstellen, dass AMD in den kommenden Jahren auch Samsung als Foundry etablieren wird.
Erst kürzlich hat IBM bekannt gegeben, dass es u.a. seine Power Prozessoren demnächst in 7nm EUV Technologie bei Samsung fertigen lassen wird.
Vermutlich kommt AMD ein zweites Standbein neben TSMC sehr gelegen. Sonst hätten letztere ab 7nm keine Konkurrenz zu befürchten und könnten quasi die Preise diktieren. Möglicherweise fordern bestimmte Kunden (Konsolen) auch einen zweiten Hersteller.
Mit IBM und seinen fetten HPC-Chips als Kunde ist klar, dass Samsung auch für AMDs CPUs und APUs geeignet ist.
Mal sehen, was aus AMDs Wafer-Abnahmevertrag mit Globalfoundries wird. Ich vermute, dass der sich mit der Zeit in Luft auflöst, wenn Globalfoundries den Bedarf in den entsprechenden Nodes unterhalb von 12nm ohnehin nicht decken kann.
Technologisch sehe ich demnächst fd-SOI wieder im Spiel, allerdings nicht für die CPU-Chiplets sondern für deren Träger, der u.a. das IO beinhaltet. Intel will seinen Träger auch mit einem leistungsarmen Prozess (22nm FFL) fertigen. Es könnte für AMDs Serverprozessoren sinnvoll sein, von einem 14nm bulk Prozess auf einen 22nm (Globalfoundries) oder 18nm (Samsung) fd-SOI Prozess umzuschwenken, der sparsamere und möglicherweise auch günstigere Träger ermöglicht.
MfG
Erst kürzlich hat IBM bekannt gegeben, dass es u.a. seine Power Prozessoren demnächst in 7nm EUV Technologie bei Samsung fertigen lassen wird.
Vermutlich kommt AMD ein zweites Standbein neben TSMC sehr gelegen. Sonst hätten letztere ab 7nm keine Konkurrenz zu befürchten und könnten quasi die Preise diktieren. Möglicherweise fordern bestimmte Kunden (Konsolen) auch einen zweiten Hersteller.
Mit IBM und seinen fetten HPC-Chips als Kunde ist klar, dass Samsung auch für AMDs CPUs und APUs geeignet ist.
Mal sehen, was aus AMDs Wafer-Abnahmevertrag mit Globalfoundries wird. Ich vermute, dass der sich mit der Zeit in Luft auflöst, wenn Globalfoundries den Bedarf in den entsprechenden Nodes unterhalb von 12nm ohnehin nicht decken kann.
Technologisch sehe ich demnächst fd-SOI wieder im Spiel, allerdings nicht für die CPU-Chiplets sondern für deren Träger, der u.a. das IO beinhaltet. Intel will seinen Träger auch mit einem leistungsarmen Prozess (22nm FFL) fertigen. Es könnte für AMDs Serverprozessoren sinnvoll sein, von einem 14nm bulk Prozess auf einen 22nm (Globalfoundries) oder 18nm (Samsung) fd-SOI Prozess umzuschwenken, der sparsamere und möglicherweise auch günstigere Träger ermöglicht.
MfG
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Fordern kann man ja recht viel.
Nur wenns halt keinen weiteren Hersteller gibt wird man sich recht schwer tun...
Unterschiedliche HErsteller bedeutet ziemlich sicher auch unterschiedliche Masken. Was für AMD teurer ist.
Nur wenns halt keinen weiteren Hersteller gibt wird man sich recht schwer tun...
Unterschiedliche HErsteller bedeutet ziemlich sicher auch unterschiedliche Masken. Was für AMD teurer ist.
Ähnliche Themen
- Antworten
- 743
- Aufrufe
- 52K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 764
- Aufrufe
- 101K