App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)
- Ersteller BoMbY
- Erstellt am
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Solange es keine 8Hi-Stacks gibt kann AMD doch mit 2 Stacks nur 4/8GB anbieten.
Ich schätze mal die kleinere GPU kommt zuerst, wahlweise mit 4GB oder 8GB.
Danach kommt die große GPU mit 8/16GB.
4GB passt doch eh, immerhin sollen mit Vega ja auch Mobile-Karten kommen.
Ich schätze mal die kleinere GPU kommt zuerst, wahlweise mit 4GB oder 8GB.
Danach kommt die große GPU mit 8/16GB.
4GB passt doch eh, immerhin sollen mit Vega ja auch Mobile-Karten kommen.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Denke eher mal Vollausbau 8GB zuerst und später noch eine langsamere sparsamere beschnittene mit 4 und 8GB als 1070 Konkurrenz.
4GB Notebook.
16GB lohnt sich nur, wenns einen Geschwindigkeitsvorteil bringt oder Vega auf 1080Ti Niveau wäre.
Bezweifle ich beides.
Demnach 16GB nur für Profi Sektor, wo der Speicher auch gebraucht wird.
4GB Notebook.
16GB lohnt sich nur, wenns einen Geschwindigkeitsvorteil bringt oder Vega auf 1080Ti Niveau wäre.
Bezweifle ich beides.
Demnach 16GB nur für Profi Sektor, wo der Speicher auch gebraucht wird.
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Bei Desktop Retail-Karten können sie nicht ernsthaft 4GB anbieten wollen, das hat ja dann eine RX 570 schon mehr RAM.
Für OEM-Karten wäre das aber sicher egal.
Für OEM-Karten wäre das aber sicher egal.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
4GB HBM Cache ist was anderes wie 4GB GDDR5.
Wenn die 4GB HBM Karten gegenüber 8GB GDDR Karten keine Nachteile zeigen, warum nicht.
Wenn die 4GB HBM Karten gegenüber 8GB GDDR Karten keine Nachteile zeigen, warum nicht.
Pinnacle Ridge
Vice Admiral Special
- Mitglied seit
- 04.03.2017
- Beiträge
- 528
- Renomée
- 7
Wo soll da der Unterschied sein?
Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.
Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.
Wo soll da der Unterschied sein?
Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.
Das hängt von der Größe des working sets und der Organisation des Nachladens ab. Für irgendwelche Tester bedeutet das natürlich mehr Arbeit und Hirnschmalz bei der Interpretation von Zahlen, aber es geht ja nicht um die Tester sondern um die Nutzer die von einer effizienteren Nutzung der Ressourcen profitieren können.
Mit der Verbreiterung des Marktes wird auf die Tester sowieso mehr Arbeit zukommen als nur a und b zu vergleichen.
Zuletzt bearbeitet:
Stefan Payne
Grand Admiral Special
Die Art und Weise, wie das ganze arbeitet.Wo soll da der Unterschied sein?
Und damit auch der Adressraum, der beim HBCC = System ist...
grauenvoll
Cadet
- Mitglied seit
- 08.01.2017
- Beiträge
- 50
- Renomée
- 1
Wo soll da der Unterschied sein?
Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.
Wenn ich Raja Koduri richtig verstanden habe, allokieren viele Applikationen zwar mehr als 4Gb, nutzen sie aber nicht wirklich. Vega scheint nun mit HBCC einen virtuellen Adressraum (48Bit) bereitzustellen, der aber nicht linear im Speicher abgelegt wird. Wenn 8 GB allokiert werden, aber nur 2GB effektiv genutzt werden, entsteht mit 4GB kein Engpass.
Das ist eine ganz anderer Ansatz, ein ganz andere Denkweise, als sie in der Vergangenheit üblich war.
Zuletzt bearbeitet:
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Bezüglich der neuen Rebrands taucht jetzt eine RX550 mit einem angeblichen "Polaris-12", der 640 Shader haben soll, auf. An sich macht der keinen Sinn, es sei denn an der Storry ist was dran, nach der Intel eine AMD-GPU in seine neuen Kaby-Lakes als extra-Die einbauen will...könnte das dann ein solcher Polaris-12 sein?
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Wieso sollte ein Polaris 12 jetzt wieder mal keinen Sinn machen? Jeder potentielle Office PC mit einer Ryzen CPU braucht auch eine GPU, und HTPCs und Notebooks, usw. usf.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.840
- Renomée
- 2.807
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
An sich macht der keinen Sinn,......
Solche Aussagen kommen wenn man die eigenen Ansprüche auf die Allgemeinheit "runterbricht".
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.982
- Renomée
- 232
Emmerdeur hat es woanders schon angemerkt: die Intel-GPU Für-Intel-GPU von AMD kann man sich am besten für ein Apple Produkt vorstellen.
Apple verlangt von seinem CPU Lieferanten Intel eine stärkere GPU und eine höhere Integrationsdichte als einfach eine diskrete GPU auf einem zweiten Sockel.
Deshalb integriert Intel die zusammen mit der eigenen CPU auf einem gemeinsamen Träger zusammen mit HBM. Der Unterschied zu früher ist vor allem, dass Intel diese Integration übernimmt. Auf dem freien Markt wird es m.E. einen sochen Chip niemals geben.
Für diesen Fall würde ich aber nicht von einem Polaris-Rebrand sondern von einem Vega Abkömmling ausgehen.
MfG
Apple verlangt von seinem CPU Lieferanten Intel eine stärkere GPU und eine höhere Integrationsdichte als einfach eine diskrete GPU auf einem zweiten Sockel.
Deshalb integriert Intel die zusammen mit der eigenen CPU auf einem gemeinsamen Träger zusammen mit HBM. Der Unterschied zu früher ist vor allem, dass Intel diese Integration übernimmt. Auf dem freien Markt wird es m.E. einen sochen Chip niemals geben.
Für diesen Fall würde ich aber nicht von einem Polaris-Rebrand sondern von einem Vega Abkömmling ausgehen.
MfG
Zuletzt bearbeitet:
Highway61
Fleet Captain Special
Es hat doch mal ein Video gegeben über HBM wo das genauer von AMD erklärt wird, habe aber jetzt auf die Schnelle nur einen Artikel von PCGH gefunden, wo das erklärt wird:
http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Philosophie-Bandbreite-1217867/
Wenn ich nicht gleich weg müsste, hätte ich noch länger nach dem Video gesucht Hatten wir das hier nicht schon mal hier? Na ja, aber der Ansatz tönt schon gut, hoffentlich funktioniert es auch reibungslos in der Praxis.
http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Philosophie-Bandbreite-1217867/
Wenn ich nicht gleich weg müsste, hätte ich noch länger nach dem Video gesucht Hatten wir das hier nicht schon mal hier? Na ja, aber der Ansatz tönt schon gut, hoffentlich funktioniert es auch reibungslos in der Praxis.
Bezüglich der neuen Rebrands taucht jetzt eine RX550 mit einem angeblichen "Polaris-12", der 640 Shader haben soll, auf. An sich macht der keinen Sinn, es sei denn an der Storry ist was dran, nach der Intel eine AMD-GPU in seine neuen Kaby-Lakes als extra-Die einbauen will...könnte das dann ein solcher Polaris-12 sein?
Nicht jeder will vermeidbare Wärmequellen, aber dafür aktuelle Videodekoder und aktuelle Schnittstelle zum Monitor oder auch zusätzliche Monitore.
--- Update ---
Wenn ich Raja Koduri richtig verstanden habe, allokieren viele Applikationen zwar mehr als 4Gb, nutzen sie aber nicht wirklich. Vega scheint nun mit HBCC einen virtuellen Adressraum (48Bit) bereitzustellen, der aber nicht linear im Speicher abgelegt wird. Wenn 8 GB allokiert werden, aber nur 2GB effektiv genutzt werden, entsteht mit 4GB kein Engpass.
Das ist eine ganz anderer Ansatz, ein ganz andere Denkweise, als sie in der Vergangenheit üblich war.
Und da der Treiber die Strukturen kennt kann z.b. nach den ersten Page Fault einer Textur die komplette Textur im voraus geholt werden.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Das könnte auch eine der Verbesserungen in Vega sein:
Inside the next Xbox: Project Scorpio tech revealed
However, potentially the most exciting aspect surrounding the CPU revamp doesn't actually relate to the processor blocks at all, but rather to the GPU command processor - the piece of hardware that receives instructions from the CPU, piping them through to the graphics core.
"We essentially moved Direct3D 12," says Goossen. "We built that into the command processor of the GPU and what that means is that, for all the high frequency API invocations that the games do, they'll all natively implemented in the logic of the command processor - and what this means is that our communication from the game to the GPU is super-efficient."
Processing draw calls - effectively telling the graphics hardware what to draw - is one of the most important tasks the CPU carries out. It can suck up a lot of processor resources, a pipeline that traditionally takes thousands - perhaps hundreds of thousands - of CPU instructions. With Scorpio's hardware offload, any draw call can be executed with just 11 instructions, and just nine for a state change.
"It's a massive win for us and for the developers who've adopted D3D12 on Xbox, they've told us they've been able to cut their CPU rendering overhead by half, which is pretty amazing because now the driver portion of that is such a tiny fraction," adds Goossen.
Zuletzt bearbeitet:
KuroibanTech
Cadet
- Mitglied seit
- 23.01.2017
- Beiträge
- 29
- Renomée
- 3
Wäre das dann ein Feature des neuen High-Bandwidth Cache Controller, oder ist der Command Processor an einer anderen Stelle?
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
AMD stellt nochmal zwei Entwickler ein, die am Open Source-Treiber für Linux arbeiten werden:
http://phoronix.com/scan.php?page=news_item&px=AMD-More-Open-Devs
http://phoronix.com/scan.php?page=news_item&px=AMD-More-Open-Devs
grauenvoll
Cadet
- Mitglied seit
- 08.01.2017
- Beiträge
- 50
- Renomée
- 1
Auch meine Fury X mit 4GB HBM hat mehr Speicherbandbreite als eine 1080Ti - abgesehen davon ist das alles Quark im Moment mit dieser Vega 4 GB Diskussion.
Jupp! Genau wie sämtliche Performancediskussionen.
Das einzige was wir wissen ist, dass ein Vorserienmodell von Vega bei Starwars Battlefront(4k, Ultra) mehr als 60 fps erreicht. Eine GTX1080 liegt bei 45FPS.
Wenn man daraus irgendwelche Schlüsse ziehen will, dann dass Vega sich bei älterem Code eher an der 1080TI orientiert. Mit optimiertem Code kann man erwarten dass sie noch mal ordentlich zulegt. Frostbite hat z.B. angegeben dass auf der PS4 Pro die Umstellung auf FP16 im Durchschnitt zusätzliche 30% Performance bringen.
Jupp! Genau wie sämtliche Performancediskussionen.
Das einzige was wir wissen ist, dass ein Vorserienmodell von Vega bei Starwars Battlefront(4k, Ultra) mehr als 60 fps erreicht. Eine GTX1080 liegt bei 45FPS.
Wenn man daraus irgendwelche Schlüsse ziehen will, dann dass Vega sich bei älterem Code eher an der 1080TI orientiert. Mit optimiertem Code kann man erwarten dass sie noch mal ordentlich zulegt. Frostbite hat z.B. angegeben dass auf der PS4 Pro die Umstellung auf FP16 im Durchschnitt zusätzliche 30% Performance bringen.
Ich will die Vorfreude nicht schmälern, aber wir wissen nicht ob das unter DX12 war. Falls ja ist das ein "relativ" gutes Ergebnis. In DX11 aber wäre es der bruner. Davon gehe ich aber nicht aus...
grauenvoll
Cadet
- Mitglied seit
- 08.01.2017
- Beiträge
- 50
- Renomée
- 1
Soweit ich nich entsinne, ist Battlefront kein ausgesprochen AMD freundlicher Titel. Und ein DX 12 Renderpfad gibt es nur für die XBox, aber nicht für PC. Der Titel läuft eigentlich auf beiden Plattformen gleich gut.
Selbst wenn es so wäre, sollte eigentlich klar sein, dass es bei 4k zwischen Dx11 und 12 kaum noch Unterschiede gibt.
Aus meiner Sicht ist das Ergebnis schon eine Duftmarke.
Selbst wenn es so wäre, sollte eigentlich klar sein, dass es bei 4k zwischen Dx11 und 12 kaum noch Unterschiede gibt.
Aus meiner Sicht ist das Ergebnis schon eine Duftmarke.
Zuletzt bearbeitet:
Soweit ich nich entsinne, ist Battlefront kein ausgesprochen AMD freundlicher Titel. Und ein DX 12 Renderpfad gibt es nur für die XBox, aber nicht für PC. Der Titel läuft eigentlich auf beiden Plattformen gleich gut.
Selbst wenn es so wäre, sollte eigentlich klar sein, dass es bei 4k zwischen Dx11 und 12 kaum noch Unterschiede gibt.
Aus meiner Sicht ist das Ergebnis schon eine Duftmarke.
Wie kommst du auf den Quark?
http://www.gamestar.de/spiele/battl...68,3303884,2.html#directx-11-gegen-directx-12
Seit Beginn an gibt es beide Pfade. Nur ich habe gehört der Dx12 Pfad soll buggy sein... Allerdings - bei entsprechender CPU scheint DX12 auf den AMD Karten kein deutlichen Vorteil zu bringen. Bei kleinern CPU`s dann doch bis +15% was net schlecht ist.
Ok ist 4K.. Und die Tests die ich bisher gesehen habe, verliert man in DX12 sogar Performance gegenüber DX11.. Die 60 FPS in Ultra sind mal nicht schlecht. 75 FPS hätten mir besser gefallen ...
grauenvoll
Cadet
- Mitglied seit
- 08.01.2017
- Beiträge
- 50
- Renomée
- 1
Wie kommst du auf den Quark?
http://www.gamestar.de/spiele/battl...68,3303884,2.html#directx-11-gegen-directx-12
Seit Beginn an gibt es beide Pfade. Nur ich habe gehört der Dx12 Pfad soll buggy sein... Allerdings - bei entsprechender CPU scheint DX12 auf den AMD Karten kein deutlichen Vorteil zu bringen.
Keine Ahnung.
Hab bisher nur gesehen, dass es mit DX11 getestet wird...
Ok ist 4K.. Und die Tests die ich bisher gesehen habe, verliert man in DX12 sogar Performance gegenüber DX11.. Die 60 FPS in Ultra sind mal nicht schlecht. 75 FPS hätten mir besser gefallen ...
Aber nicht das Ende der Fahnenstange. Mehr als 60 Fps(DP1.2 Limit) wollte man nicht zeigen...
Das ist dann nicht ganz so stark.
http://fudzilla.com/news/graphics/43545-amd-says-vega-is-on-track-for-launch-in-q2
5950 Punkte in 3dMark - wäre auf GTX 1070 Niveau - aber vielleicht der kleine Vega?
http://fudzilla.com/news/graphics/43545-amd-says-vega-is-on-track-for-launch-in-q2
5950 Punkte in 3dMark - wäre auf GTX 1070 Niveau - aber vielleicht der kleine Vega?
grauenvoll
Cadet
- Mitglied seit
- 08.01.2017
- Beiträge
- 50
- Renomée
- 1
5950 Punkte in 3dMark - wäre auf GTX 1070 Niveau - aber vielleicht der kleine Vega?
Aber die ganz kleine...
Ähnliche Themen
- Antworten
- 1
- Aufrufe
- 289
- Antworten
- 1
- Aufrufe
- 643
- Antworten
- 0
- Aufrufe
- 558
- Antworten
- 0
- Aufrufe
- 557
- Antworten
- 0
- Aufrufe
- 540