AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)

Summit Ridge und Vega laufen allen Gerüchten nach wie Polaris bei GloFo. Ich würde vermuten die alten Gerüchte, dass AMD auch Samsung-Fabs nutzt, kommen da her, dass dort die Konsolen-APUs gefertigt werden.
 
iuno schrieb:
[...]
btw, VEGA 11 taucht jetzt auch im OpenCL Treiber auf, das war vor kurzem noch nicht so

Code:
SI: TAHITI
CI/GFX7: MILOS, KRYPTOS, HAWAII, NEVIS, PENNAR, BONAIRE, KABINI
VI/GFX8: ICELAND, TONGA, CARRIZO, BERMUDA, RACERX, FIJI
GFX81: AMUR, STONEY, ELLESMERE, DERECHO
GFX9: GREENLAND, RAVEN1X, VEGA10, VEGA11

Zudem scheint Raven Ridge Vega-IP zu sein
[...]
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11101439#post11101439

Mir fällt ein kleiner Stein vom Herzen, wenn Raven-Ridge tatsächlich mit der Vega-IP erscheint und nicht Polaris.
Hoffentlich bringt Vega gute Neuigkeiten mit, besonders FL12.1 wäre endlich angesagt für AMD.

Auch ist es interessant das Ellesmere gelistet wird, allerdings nicht Polaris 10.
Dagegen gibt es Greenland und Vega10, also kein gemeinsamer Chip?
Es ist wieder spannend, bis es sich auflöst. ;D
 
GFX8.1 für die 480 heißt dann wohl dass Ellesmere nur ein Tonga Refresh ist und Vega GCNv5 wird?
 
Ist schon mehr wie ein refresh ein solides Update würde wohl passen

Vega10 und 11 und Greenland entweder stimmt das Gerücht das Greenland = Vega ist nicht oder ein Fehler?

Naja Greenland könnte ein gpu sein die spezielle für interposter und hpc (1:2 sp/dp) gebaut wird
 
Die GFX IP Version definiert IMHO nur das Frontend, also die Opcode, etc. Nach außen ist Polaris gleich/kompatibel geblieben, aber intern gab es schon einige Änderungen.
 
wann bringt amd die spannungsregelung von. Br auf die gpu bei der rx480 scheint die Spannungsabsenkung 3% mehrleistung zu bringen bei 10-15% weniger verbrauch was imho auf zu hohe Spannung hinweist wie ich sie auch hier bei meinem alten llano sehe.
 
Das liegt schlicht an den neuen super tollen Boost Fähigkeiten...
Wenn die Karte dann nah am 'Power Target' ist, kann das Absenken der Spannung zu einem höheren/länger gehaltenem Takt führen, was wiederum die Leistung steigert...

Ich persönlich bin kein allzu großer Fan dieser Takthüpfenden Boostfähigkeiten, aber einige Redakteure finden das besonders toll...
 
Golem.de hat mal ne kleine Analyse zu Low Level APIs mit den aktuell verfügbaren Spielen erstelt: http://www.golem.de/news/geforce-gt...ingen-direct3d-12-und-vulkan-1607-122214.html

Das Fazit stimmt mich sehr positiv, die RX 480 sollte mit den neuen APIs gut an Leitung dazu gewinnen. Der Vergleich mir der 1060 bringt wohl nicht so viel, wer sich nicht tiefgehend jetzt mit der Thematik befast wir seine Kaufentscheidung anhand der aktuellen Testparcours fällen.

[FONT=&amp]Unterm Strich wurde uns bei den Benchmarks für diesen Artikel klar: Die Direc3D-12-Unterstützung ist in vielen Spielen noch nicht ausgereift, im Zweifel profitiert aber die Radeon RX 480 durch Async Compute. In Doom mit Vulkan-API fällt der Leistungszuwachs besonders hoch aus, Hitman mit D3D12-Schnittstelle zeigt ebenfalls einen starken Geschwindigkeitsschub.
[/FONT][FONT=&amp]Die Geforce GTX 1060 bleibt jedoch immer in Reichweite und liegt oft in Front, wenn D3D11 verwendet wird. Wir halten es für möglich, dass die Radeon RX 480 die Nvidia-Karte dank der Spiele-Konsolen mittelfristig überholen wird.[/FONT]
 
Danke für den Link, aber es reicht, wenn du es in einem Thread postest.

LG
 
Ich habe es mit Absicht in beiden Threads mit verschiedenen Beiträgen gepostet damit es im nV Thread nicht wieder zur Vermengung der beiden Themen und dem damit einhergehenden Fan War kommt.
 
Zuletzt bearbeitet:
Golem.de hat mal ne kleine Analyse zu Low Level APIs mit den aktuell verfügbaren Spielen erstelt: http://www.golem.de/news/geforce-gt...ingen-direct3d-12-und-vulkan-1607-122214.html

Das Fazit stimmt mich sehr positiv, die RX 480 sollte mit den neuen APIs gut an Leitung dazu gewinnen. Der Vergleich mir der 1060 bringt wohl nicht so viel, wer sich nicht tiefgehend jetzt mit der Thematik befast wir seine Kaufentscheidung anhand der aktuellen Testparcours fällen.

Das Fazit von Golem ist ein Witz. Sorry - "wir halten es für möglich..." Schaut man sich die letzte und da davor die Generationen an, dann weiß man dass das auch ohne DX12 schon immer so war. Und nun ist faktisch schon ein Gleichstand da und in den neuen Schnittstellen ist die AMD Karte deutlich besser.
 
Das Fazit von Golem ist ein Witz. Sorry - "wir halten es für möglich..." Schaut man sich die letzte und da davor die Generationen an, dann weiß man dass das auch ohne DX12 schon immer so war. Und nun ist faktisch schon ein Gleichstand da und in den neuen Schnittstellen ist die AMD Karte deutlich besser.

Einen Aspekt sollte dabei nicht vergessen werden : Wieviel kostet NV das ganze Treibergefummel? Das muß alles über die Preise wieder reingeholt werden.
Und wie ätzend muß das für den Anwendungshersteller sein wenn die Performance der Produkte von NVs Gnaden abhängt.
 
Ja und vergiss hier die neue Ethereum, in dem eine RX480 auch eine GTX1080 schlagen soll...
 
[falscher thread, sorry]
 
Ich bin im Blackmagic Forum über ein paar nette Test zum Einsatz der RX480 in DaVinci Resolve gestolpert: https://forum.blackmagicdesign.com/viewtopic.php?f=21&t=49713

Wie es scheint kann man aus der kleinen Karte schon einiges raus hohlen unter OpenCL.
Hast ganz schön was angestoßen, hat die Runde gemacht!

Mal kurz den letzten LuxMark 3.0 Bench ausgekramt: https://abload.de/img/luxmark3_hotel_gpu_oczzsvh.png

Wer braucht schon 12GByte RAM: http://www.abload.de/img/rottr_2016_07_03_08_5czshl.jpg (@Standard Takt)
 
Ich habs gewusst:) frag sich nur wie die das anbinden hoffe ja ohne Plx Chip da er die Zugriffzeiten verschlechtert Ansicht ist da ja scönnum platz zu sparen man könnte ach u2 Büchsen setzten

--- Update ---

So jetzt wo es auch auf deutsch ist hab ich mir das mal genau angeschaut golem sagt die beiden m.2 Steckplätze würden über pcie8 angebunden und die gpu über pcie 8 aber dar die gpu und CPU draufzugreifen kann denke ich das hier ein plx Chip andersrum drauf ist also versorg mit der x8 Seite die beiden m2 und mit der x16 Seite gehen 8 zur gpu und 8 zur CPU

Man kann ja nur hoffen das es das auch irgendwann für normallos gibt aber größtes Problem dürften die Treiber sein was passiert wenn schneller Speicher auf langsam Trift zeigt uns die gtx 970 ja aber unter VR zum Beispiel könnte man wenn Leistung ungenutzt ist (AC) schon Bilder vorrechnen für den Fall das ich dort hinlaufen/hinschauen sollte Oder nur als Platz spar Option in ein itx matx Systeme wo kein Platz ist für viele m2/u2 Ssds
 
Was will man als SOHO Nutzer denn mit 1TB SSD auf der GPU? Das bringt überhaupt nichts. Im Profi Bereich ist das praktisch, da selbst viel RAM auf der GPU nicht ausreichend ist.
 
Hab ich doch geschrieben wenn man mehr als eine m2 SSD in ein itx sys haben möchte das der Nutzen relativ klein ist und nicht zwingend Sinn haben muss sieht man doch an der Titan und den 8kernern von Intel die nur zum Spiel genutzt werden
 
im Artikeltext werden ja "oil & gas" als Kunden genannt, wo offenbar Riesendatensätze bei geologischen Auswertungen durchforstet werden. Oder im Bankensektor oder sonstwo. Ich schätze, das ist einfach mal ein Test, ob es angenommen wird und wo sich evtl. noch Verbesserungswünsche auftun.

Jedenfalls sehe ich solche Karten hauptsächlich in Clustern unterkommen, wo die Anbindungen (Netzwerk zum SAN) sonst völlig überfordert wären. Wichtig auch als Vorbereitung für Vega, mit HBM kriegt man ja auch nur begrenzte Speichermengen hin, die auch (noch) kleiner sind als mit GDDR5 machbar, das würde sonst die professionellen Kunden abschrecken.
 
Der Prototyp von der SSG scheint auf Fiji zu basieren, also dürfte das finale Produkt mit Vega sein. Oder vielleicht ist es sogar ein Vega-Prototyp, und deswegen erst 2017 verfügbar?
 
Die HBM/SSD Kombination würde in sich in den neuen Konsolen gut machen :)
 
Zurück
Oben Unten