AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)

Solange es keine 8Hi-Stacks gibt kann AMD doch mit 2 Stacks nur 4/8GB anbieten.

Ich schätze mal die kleinere GPU kommt zuerst, wahlweise mit 4GB oder 8GB.
Danach kommt die große GPU mit 8/16GB.

4GB passt doch eh, immerhin sollen mit Vega ja auch Mobile-Karten kommen.
 
Denke eher mal Vollausbau 8GB zuerst und später noch eine langsamere sparsamere beschnittene mit 4 und 8GB als 1070 Konkurrenz.
4GB Notebook.

16GB lohnt sich nur, wenns einen Geschwindigkeitsvorteil bringt oder Vega auf 1080Ti Niveau wäre.
Bezweifle ich beides.
Demnach 16GB nur für Profi Sektor, wo der Speicher auch gebraucht wird.
 
Bei Desktop Retail-Karten können sie nicht ernsthaft 4GB anbieten wollen, das hat ja dann eine RX 570 schon mehr RAM.
Für OEM-Karten wäre das aber sicher egal.
 
4GB HBM Cache ist was anderes wie 4GB GDDR5.
Wenn die 4GB HBM Karten gegenüber 8GB GDDR Karten keine Nachteile zeigen, warum nicht.
 
Wo soll da der Unterschied sein?

Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.
 
Wo soll da der Unterschied sein?

Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.

Das hängt von der Größe des working sets und der Organisation des Nachladens ab. Für irgendwelche Tester bedeutet das natürlich mehr Arbeit und Hirnschmalz bei der Interpretation von Zahlen, aber es geht ja nicht um die Tester sondern um die Nutzer die von einer effizienteren Nutzung der Ressourcen profitieren können.

Mit der Verbreiterung des Marktes wird auf die Tester sowieso mehr Arbeit zukommen als nur a und b zu vergleichen.
 
Zuletzt bearbeitet:
Wo soll da der Unterschied sein?
Wenn nicht alle Texturen in den HBM passen muß auf den System-RAM ausgelager werden, das ist dann aber wieder relativ langsam.

Wenn ich Raja Koduri richtig verstanden habe, allokieren viele Applikationen zwar mehr als 4Gb, nutzen sie aber nicht wirklich. Vega scheint nun mit HBCC einen virtuellen Adressraum (48Bit) bereitzustellen, der aber nicht linear im Speicher abgelegt wird. Wenn 8 GB allokiert werden, aber nur 2GB effektiv genutzt werden, entsteht mit 4GB kein Engpass.

Das ist eine ganz anderer Ansatz, ein ganz andere Denkweise, als sie in der Vergangenheit üblich war.
 
Zuletzt bearbeitet:
Bezüglich der neuen Rebrands taucht jetzt eine RX550 mit einem angeblichen "Polaris-12", der 640 Shader haben soll, auf. An sich macht der keinen Sinn, es sei denn an der Storry ist was dran, nach der Intel eine AMD-GPU in seine neuen Kaby-Lakes als extra-Die einbauen will...könnte das dann ein solcher Polaris-12 sein?
 
Wieso sollte ein Polaris 12 jetzt wieder mal keinen Sinn machen? Jeder potentielle Office PC mit einer Ryzen CPU braucht auch eine GPU, und HTPCs und Notebooks, usw. usf.
 
An sich macht der keinen Sinn,......

Solche Aussagen kommen wenn man die eigenen Ansprüche auf die Allgemeinheit "runterbricht".
 
Emmerdeur hat es woanders schon angemerkt: die Intel-GPU Für-Intel-GPU von AMD kann man sich am besten für ein Apple Produkt vorstellen.
Apple verlangt von seinem CPU Lieferanten Intel eine stärkere GPU und eine höhere Integrationsdichte als einfach eine diskrete GPU auf einem zweiten Sockel.
Deshalb integriert Intel die zusammen mit der eigenen CPU auf einem gemeinsamen Träger zusammen mit HBM. Der Unterschied zu früher ist vor allem, dass Intel diese Integration übernimmt. Auf dem freien Markt wird es m.E. einen sochen Chip niemals geben.
Für diesen Fall würde ich aber nicht von einem Polaris-Rebrand sondern von einem Vega Abkömmling ausgehen.
MfG
 
Zuletzt bearbeitet:
Es hat doch mal ein Video gegeben über HBM wo das genauer von AMD erklärt wird, habe aber jetzt auf die Schnelle nur einen Artikel von PCGH gefunden, wo das erklärt wird:
http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Philosophie-Bandbreite-1217867/

Wenn ich nicht gleich weg müsste, hätte ich noch länger nach dem Video gesucht ;) Hatten wir das hier nicht schon mal hier? Na ja, aber der Ansatz tönt schon gut, hoffentlich funktioniert es auch reibungslos in der Praxis.
 
Bezüglich der neuen Rebrands taucht jetzt eine RX550 mit einem angeblichen "Polaris-12", der 640 Shader haben soll, auf. An sich macht der keinen Sinn, es sei denn an der Storry ist was dran, nach der Intel eine AMD-GPU in seine neuen Kaby-Lakes als extra-Die einbauen will...könnte das dann ein solcher Polaris-12 sein?

Nicht jeder will vermeidbare Wärmequellen, aber dafür aktuelle Videodekoder und aktuelle Schnittstelle zum Monitor oder auch zusätzliche Monitore.

--- Update ---

Wenn ich Raja Koduri richtig verstanden habe, allokieren viele Applikationen zwar mehr als 4Gb, nutzen sie aber nicht wirklich. Vega scheint nun mit HBCC einen virtuellen Adressraum (48Bit) bereitzustellen, der aber nicht linear im Speicher abgelegt wird. Wenn 8 GB allokiert werden, aber nur 2GB effektiv genutzt werden, entsteht mit 4GB kein Engpass.

Das ist eine ganz anderer Ansatz, ein ganz andere Denkweise, als sie in der Vergangenheit üblich war.

Und da der Treiber die Strukturen kennt kann z.b. nach den ersten Page Fault einer Textur die komplette Textur im voraus geholt werden.
 
Das könnte auch eine der Verbesserungen in Vega sein:

Inside the next Xbox: Project Scorpio tech revealed

However, potentially the most exciting aspect surrounding the CPU revamp doesn't actually relate to the processor blocks at all, but rather to the GPU command processor - the piece of hardware that receives instructions from the CPU, piping them through to the graphics core.

"We essentially moved Direct3D 12," says Goossen. "We built that into the command processor of the GPU and what that means is that, for all the high frequency API invocations that the games do, they'll all natively implemented in the logic of the command processor - and what this means is that our communication from the game to the GPU is super-efficient."

Processing draw calls - effectively telling the graphics hardware what to draw - is one of the most important tasks the CPU carries out. It can suck up a lot of processor resources, a pipeline that traditionally takes thousands - perhaps hundreds of thousands - of CPU instructions. With Scorpio's hardware offload, any draw call can be executed with just 11 instructions, and just nine for a state change.

"It's a massive win for us and for the developers who've adopted D3D12 on Xbox, they've told us they've been able to cut their CPU rendering overhead by half, which is pretty amazing because now the driver portion of that is such a tiny fraction," adds Goossen.
 
Zuletzt bearbeitet:
Wäre das dann ein Feature des neuen High-Bandwidth Cache Controller, oder ist der Command Processor an einer anderen Stelle?
 
Auch meine Fury X mit 4GB HBM hat mehr Speicherbandbreite als eine 1080Ti - abgesehen davon ist das alles Quark im Moment mit dieser Vega 4 GB Diskussion.

Jupp! Genau wie sämtliche Performancediskussionen.

Das einzige was wir wissen ist, dass ein Vorserienmodell von Vega bei Starwars Battlefront(4k, Ultra) mehr als 60 fps erreicht. Eine GTX1080 liegt bei 45FPS.
Wenn man daraus irgendwelche Schlüsse ziehen will, dann dass Vega sich bei älterem Code eher an der 1080TI orientiert. Mit optimiertem Code kann man erwarten dass sie noch mal ordentlich zulegt. Frostbite hat z.B. angegeben dass auf der PS4 Pro die Umstellung auf FP16 im Durchschnitt zusätzliche 30% Performance bringen.
 
Jupp! Genau wie sämtliche Performancediskussionen.

Das einzige was wir wissen ist, dass ein Vorserienmodell von Vega bei Starwars Battlefront(4k, Ultra) mehr als 60 fps erreicht. Eine GTX1080 liegt bei 45FPS.
Wenn man daraus irgendwelche Schlüsse ziehen will, dann dass Vega sich bei älterem Code eher an der 1080TI orientiert. Mit optimiertem Code kann man erwarten dass sie noch mal ordentlich zulegt. Frostbite hat z.B. angegeben dass auf der PS4 Pro die Umstellung auf FP16 im Durchschnitt zusätzliche 30% Performance bringen.

Ich will die Vorfreude nicht schmälern, aber wir wissen nicht ob das unter DX12 war. Falls ja ist das ein "relativ" gutes Ergebnis. In DX11 aber wäre es der bruner. Davon gehe ich aber nicht aus...
 
Soweit ich nich entsinne, ist Battlefront kein ausgesprochen AMD freundlicher Titel. Und ein DX 12 Renderpfad gibt es nur für die XBox, aber nicht für PC. Der Titel läuft eigentlich auf beiden Plattformen gleich gut.

Selbst wenn es so wäre, sollte eigentlich klar sein, dass es bei 4k zwischen Dx11 und 12 kaum noch Unterschiede gibt.

Aus meiner Sicht ist das Ergebnis schon eine Duftmarke.
 
Zuletzt bearbeitet:
Soweit ich nich entsinne, ist Battlefront kein ausgesprochen AMD freundlicher Titel. Und ein DX 12 Renderpfad gibt es nur für die XBox, aber nicht für PC. Der Titel läuft eigentlich auf beiden Plattformen gleich gut.

Selbst wenn es so wäre, sollte eigentlich klar sein, dass es bei 4k zwischen Dx11 und 12 kaum noch Unterschiede gibt.

Aus meiner Sicht ist das Ergebnis schon eine Duftmarke.

Wie kommst du auf den Quark?

http://www.gamestar.de/spiele/battl...68,3303884,2.html#directx-11-gegen-directx-12

Seit Beginn an gibt es beide Pfade. Nur ich habe gehört der Dx12 Pfad soll buggy sein... Allerdings - bei entsprechender CPU scheint DX12 auf den AMD Karten kein deutlichen Vorteil zu bringen. Bei kleinern CPU`s dann doch bis +15% was net schlecht ist.

Ok ist 4K.. Und die Tests die ich bisher gesehen habe, verliert man in DX12 sogar Performance gegenüber DX11.. Die 60 FPS in Ultra sind mal nicht schlecht. 75 FPS hätten mir besser gefallen ... ;D
 
Wie kommst du auf den Quark?

http://www.gamestar.de/spiele/battl...68,3303884,2.html#directx-11-gegen-directx-12

Seit Beginn an gibt es beide Pfade. Nur ich habe gehört der Dx12 Pfad soll buggy sein... Allerdings - bei entsprechender CPU scheint DX12 auf den AMD Karten kein deutlichen Vorteil zu bringen.

Keine Ahnung. ;D
Hab bisher nur gesehen, dass es mit DX11 getestet wird...

Ok ist 4K.. Und die Tests die ich bisher gesehen habe, verliert man in DX12 sogar Performance gegenüber DX11.. Die 60 FPS in Ultra sind mal nicht schlecht. 75 FPS hätten mir besser gefallen ... ;D

Aber nicht das Ende der Fahnenstange. Mehr als 60 Fps(DP1.2 Limit) wollte man nicht zeigen...

AMD-VEGA-4K-Ultra-Battlefield-Battlefront-1.jpg
 
Zurück
Oben Unten