Volcanic Islands - R7-240, 250, 260x / R9-270x, 280x, 290x

Mir steht einfach bei hbm noch die Frage offen ob die hbm stacks auch nur mit 512bit angebunden werden können bei anderem RAM ist so was doch meisst möglich. Damit wäre 8GB auch möglich.
 
Völlig korrekt, bei HBM1 sind SI und Speichergröße fest verbunden. Erst mit HBM2 wären bei 4096bit mehr als 4GB möglich. Aber ersten ist HBM2 nicht so weit weg, kann gut sein dass die finalen Karten schon mit HBM2 kommen und zweitens liefert HBM nicht nur eine höhere Speicherbandbreite, sondern auch deutlich niedrigere Latenzen. Dazu kommen noch andere Vorteile, wie das kleinere Die und weniger Stromverbrauch.
 
Das stimmt zwar, aber man kann ja nicht einfach von 4GB auf 8GB wechseln. Im Gegensatz zu bisherigen Grafikkarten kann man ja nicht einfach mehr VRAM auf das Board klatschen und gut ist's. Bei HBM1 ist die max. Speicherbestückung afaik fest mit der Breite des Speicherinterfaces verbunden. Wenn man also zusätzlich zum 4GB Modell auch noch ein 8GB Modell anbieten wollte, müsste man das Speicherinterface der GPU ändern und nicht einfach nur mehr Stacks draufpacken.
Das ist zwar richtig. Aber ich würde mal sagen, das hängt einfach davon ab, auf wie viele Stacks die GPU Anbindung ausgelegt ist. Ist ja nicht verboten, diese für mehr als 4 Stacks auszulegen, spätestens mit Hinblick auf HBM2. Das heisst dann könnte man später durchaus mehr Speicher verbauen, ohne an der GPU was machen zu müssen. Aber wie gesagt, ich denke man wird eher versuchen, schnell auf HBM2 zu wechseln, wo einfach mehr Speicher pro Stack möglich ist. Ich vermute es wird zu Beginn bei maximal 4 Stacks bleiben.

Daher sehe ich den Fiji XT eher als Versuchsballon zum Erfahrung sammeln; ähnlich der damaligen HD4770, nur dass jetzt keine neue Strukturbreite, sondern ein neues Speicherinterface erprobt wird. In dem Falle würde man dann vermutlich recht schnell (Ende 2015?) eine neue Serie auflegen, bei der man dann neben HBM2 auch DX12 und 20nm-Fertigung mit draufpacken könnte.
Ob wir 20nm überhaupt noch sehen, ist fraglich. Von TSMC erwarte ich da nichts in absehbarer Zeit. Und dass Glofo noch viel in 20nm investiert, sehe ich auch nicht. Gut möglich, dass bis 2016 keine dGPU in unter 28nm kommt.
 
Um 4GB benutzen zu können, müsste das Speicherinterface der GPU also 4096Bit breit sein.
Das ist es auch. Die Anbindung erfolgt ja auch nicht mehr wie bisher mit einem großen Speicherinterface sondern über Wide IO mittels TSV.
Hier ist das gut erklärt: http://www.heise.de/newsticker/meldung/Stapel-RAM-fuer-AMD-Grafikkarten-2454735.html

--- Update ---

Und dass Glofo noch viel in 20nm investiert, sehe ich auch nicht. Gut möglich, dass bis 2016 keine dGPU in unter 28nm kommt.
Nun wegen der XBOne wäre es möglich, dass die 20nm nicht ganz so stiefmütterlich behandelt werden. Aber 14XM ist ja auch gestrichen seit der Synchonisation mit Samsungs 14nm Produktion. Daher ist die GF 20nm Fertigung auch eine Sackgasse die zu keinem 14XM mehr weiter führt.
 
20% schneller als die 980 bei 5% mehr Verbrauch. Klingt als würde die in meinem nächsten Rechner landen ^^
 
Soweit ich das sehe, steht bei Chiphell nicht, welche Karte es sein soll. Es wird lediglich darüber spekuliert, dass es nicht die 390X sein soll. Könnte also 380X oder auch 390 sein. Für eine 380X in 28nm wäre die Performance mMn zu hoch. Etwa 75% mehr gegenüber Tahiti ist einfach unrealistisch. Selbst die 4870 hatte seinerzeit einen solchen Sprung nicht ganz geschafft. Und die brauchte dafür auch deutlich mehr Energie als die 3870. Bei 20nm schaut das allerdings schon wieder anders aus. Verdopplung der Einheiten auf vergleichbarer Fläche, effizientere Architektur (GCN2) und eventuell HBM. Damit wären +75% bei etwas geringerer Leistungsaufnahme sicherlich drin.
 
Dank HBM soll die benötigte Leistung des Speicherinterfaces doch massiv reduziert werden. Da wäre also ein wenig mehr TDP für die Recheneinheiten.
 
Stand da nicht einmal eine Zahl von etwa 50 Watt bei "Enthusiasten"-Grafikkarten für den Leistungshunger von GDDR + SI im Raum? Wenn man davon sagen wir 30 W einspart, wäre das zwar prima, lässt aber noch keine nennenswerten Sprünge an anderer Stelle zu. Zahlen Pi mal Daumen, bitte korrigiert mich bei genauerer Informationslage...
 
Ich meine beim 3DCenter was von 70 W gelesen zu haben, habe aber keinen Link parat.
 
GDDR5 von z.b. der 7970 verbraucht alleine um die 60-70w



quelle: irgendwo mal bei anandtech gelesen
 
Zuletzt bearbeitet:
Bleiben wir mal bei absoluten Angaben: eine Einsparung von etwa 50 Watt bei Enthusiasten-GPUs wäre schon eine Hausnummer, sollten sich die Angaben bewahrheiten. Aber von der anderen Seite aus gefragt: wie viel Mehr-Performance lässt sich bei aktueller GPU-Hardware (µArch, Fertigung) aus einem Leistungsbudget von 50 Watt herausholen?

AMD-Hynix-HBM-04.png
 
??? 600-850 GFLOP

wären bei einer r9-290X theoretisch 6,2-6,5 TFLOP

(also single)

------------------------------------------------------------------------------------------------------
ich hoff immer noch das amd HBM auch irgendwann für die apu wenigstens als cache bringt,
den der 7850k schafft @ OC schon mehr als 1 TFLOP bzw. @ wakü 1,2 TFLOP

(zum vergleich eine 7770/R7-250X hat 1,4TFLOP)

und dafür ist der ddr3 hoffnungslos zu schwach
-----------------------------------------------------

Bei carizzo wär geil 512 shader wie beim kaveri aber mit 1GB HBM als Cache,
oder mit 640shader dann könnte man alles unter einer 7790/260X wegscheißen*bye**attacke*
 
Zuletzt bearbeitet:
20% schneller als die 980 bei 5% mehr Verbrauch. Klingt als würde die in meinem nächsten Rechner landen ^^

Ich hoffe nicht, dass du denkst, dass du die dann zum Preis einer 280X bekommst ;) ;)

Wäre schon schön, wenn AMD wieder ganz oben ordentlich mitmischt (wie bisher im Prinzip auch).
 
Ich hoffe nur AMD wirft die möglichst schnell auf den Markt. Wenn es da jetzt noch große Verzögerungen geben würde, wäre das nicht gut (vor allem nicht, weil das NVidia noch Zeit für irgendeinen Konter geben würde).
 
Ich hoffe nur AMD wirft die möglichst schnell auf den Markt. Wenn es da jetzt noch große Verzögerungen geben würde, wäre das nicht gut (vor allem nicht, weil das NVidia noch Zeit für irgendeinen Konter geben würde).
Ich hoffe AMD tut genau dies nicht, sonst ergibt sich wieder das Problem der 290(X), die als laute und heiße Karte mit mäßiger Performance (gegenüber den nVidia-Pendants) gilt, wegen eines zu schnell auf den Markt geworfenen miserablen Referenz-Designs.
 
Eine 380X schneller als eine 980? Soll es nicht auch noch eine 390X geben? Sind solche Werte realistisch? :]
Ich denke schon, dass solche Leistungssteigerungen für AMD machbar sind. Die GeForce 980 basiert schließlich auf dem GM204. Dem Namen nach handelt es sich also um einen Chip der unteren Oberklasse. Bei Kepler kam der GK104 bis zur GeForce GTX 770 zum Einsatz. Darüber wurde bei der GeForce GTX 780 (Ti) und bei der Titan auf den GK110 gesetzt. Das dicke Eisen (für HPC) von nVidia kommt dem Vernehmen nach folglich erst noch mit dem GM210. Erst dann hat Maxwell seine volle Ausbaustufe erreicht. Bei Kepler bedeutete dies noch eine Verdopplung der Transistorzahl. Wenn bei Maxwell also noch Luft nach oben ist, wird dies bei GNC ebenfalls der Fall sein, denn beide setzen schließlich auf TSMC als Fertiger und so herrscht bei diesem Punkt Gleichstand.

Lange Rede, kurzer Sinn: Wenn bei nVidia noch längst nicht das Ende der Fahnenstange erreicht ist, liegt es an AMD jetzt nachzulegen.
 
Ich denke schon, dass solche Leistungssteigerungen für AMD machbar sind. Die GeForce 980 basiert schließlich auf dem GM204. Dem Namen nach handelt es sich also um einen Chip der unteren Oberklasse. Bei Kepler kam der GK104 bis zur GeForce GTX 770 zum Einsatz. Darüber wurde bei der GeForce GTX 780 (Ti) und bei der Titan auf den GK110 gesetzt. Das dicke Eisen (für HPC) von nVidia kommt dem Vernehmen nach folglich erst noch mit dem GM210. Erst dann hat Maxwell seine volle Ausbaustufe erreicht. Bei Kepler bedeutete dies noch eine Verdopplung der Transistorzahl. Wenn bei Maxwell also noch Luft nach oben ist, wird dies bei GNC ebenfalls der Fall sein, denn beide setzen schließlich auf TSMC als Fertiger und so herrscht bei diesem Punkt Gleichstand.

Lange Rede, kurzer Sinn: Wenn bei nVidia noch längst nicht das Ende der Fahnenstange erreicht ist, liegt es an AMD jetzt nachzulegen.

Irgendwann dürfte aus wirtschaftlicher Sicht das Ende der Siliziumfläche (also doch "Fahnenstange") erreicht sein, sagen wir im Bereich von 650mm². Zu bedenken gilt, dass in dieser "Generation" schon für die als Mitteklasse-GPUs gehandelten Boliden eine deutlich höhere Fläche aufgewendet wurde als in der letzten Generation (GM204 398/416mm² - GK104 294mm²). Die Betrachtung der Flächenverhältnisse lässt da für AMD GPUs entsprechend mehr Luft nach oben bis zum "Ende der Fahnenstange".
 
Ja ich denke auch nicht dass man an der Bezeichnung x04 oder x10 das Potential der Performancesteigerung absehen kann. Da bietet die Chipfläche im Verhältnis zur Performance wesentlich realistischere Grenzen.

Man könnte es hier nämlich genau andersherum sehen:
GK110 hatte 510 mm² und somit deutlich mehr Transistoren als GK104. Die Differenz zu wirtschaftlichen 550 mm² ist deutlich kleiner von GM204 aus gesehen. Daher kann auch ein deutlich kleinerer Sprung erwartet werden wenn mit 100 mm² weniger (GK104= 294, GM204=389 mm²) Transistorfläche gearbeitet werden muss.
 
Zuletzt bearbeitet:
Ja ich denke auch nicht dass man an der Bezeichnung x04 oder x10 das Potential der Performancesteigerung absehen kann.
Das wollte ich auch nicht behaupten. Es ging mir darum, dass oben geschrieben wurde, dass die Radeon R9 380X (gerüchtehalber) die GeForce GTX 980 überholen wird und dass es neben der R9 380X (bekanntlich) noch eine R9 390X geben wird. Da nVidia selbst schnellere Maxwell Karten als die GeForce GTX 980 für das nächste Jahr geplant hat, sehe ich es als durchaus realistisch an, dass es AMD gelingt mit der Radeon R9 380X die GeForce GTX 980 zu überholen und mit der R9 390X die Messlatte noch weiter in die Höhe zu schrauben. Bloß wegen der Radeon R9 285, deren Tonga Chip womöglich etwas hinter den Erwartungen zurück blieb hinsichtlich der Energieeffizienz, würde ich keine anderslautenden Rückschlüsse auf die Effienz von R9 380X und R9 390X ziehen. Bei den beiden Serien werden die Karten vollkommen neu gemischt. Außerdem ist nicht gesagt, dass Tonga schon sein volles Potential offenbart hat. Gegebenfalls erleben wir eine Überraschung, wenn Tonga auf der Radeon R9 370X seinen zweiten Einstand gibt.
 
Zuletzt bearbeitet:
Mit der R9 285 ist AMD in Sachen Tonga den gleichen Weg gegangen, wie nVidia im Bezug auf Maxwell mit der GTX 750 Ti. Erst ein kleines Lebenszeichen des neuen Chips auf einer Mittelklassenkarte zum Zeitpunkt des Erscheinens...und Rest dann mit der neuen Serie.
 
Bloß wegen der Radeon R9 285, deren Tonga Chip womöglich etwas hinter den Erwartungen zurück blieb hinsichtlich der Energieeffizienz, würde ich keine anderslautenden Rückschlüsse auf die Effienz von R9 380X und R9 390X ziehen. Bei den beiden Serien werden die Karten vollkommen neu gemischt.
Was, wenn Tonga garnicht als Spiele-Beschleuniger, sondern als Hashing-Monster, oder für einen anderen (uns unbekannten) Einsatzzweck konzipiert wurde, und dabei "hocheffizient" arbeitet? Was wenn der Tonga-Vollausbau in Spielen überproportional zulegt? Würdest du dann deine Aussage revidieren?
Denn ich persönlich glaube nicht, dass die Ingenieure dort 700 Mio Transistoren gegenüber einer für das professionelle Segment konzipierten GPU zum Spaß verbaut haben. Um Tahiti im Segment der Spiele-Grafikkarten zu ersetzen, hätten sie gemäß der Machart von nVidia lediglich die GPGPU-Funktionalität auf ein Minimum reduzieren können - das wären bei einem reduzierten Speicherinterface letztlich signifikant weniger Transistoren (bei erhöhter "Effizienz") gegenüber Tahiti, und nicht mehr.
 
Ist doch gerade anders herum. Die Spieleleistung war eher konstant, die Computeleistung ist aber ordentlich gestiegen. Genau das Gegenteil von dem was nVidia gemacht hat.
 
Fred, der jetzige nVidia Maxwell ist auch noch nicht im Vollausbau. nVidia hat auf jeden Fall noch was in der Hinterhand, wenn der große Tonga die GTX 980 weghaut. Siehe GTX 780 / Titan --> R9 290 / R9 290X --> GTX 780 Ti
 
Zurück
Oben Unten