R800 Spekulationsthread

Eine SOI GPU extra für ein einziges high-End-Modell zu entwickeln erscheint mir nicht sehr sinnig...
Llanos GPU hat einfach deswegen SOI weil Llano in alter AMD-CPU-Tradition selbst ein SOI-Produkt ist und man so beides in einem Aufwasch erledigen kann.
Die Tatsache dass GF z.B. im 28nm-Porzess kein SOI mehr erwähnt deutet für mich darauf hin dass bei 32nm das ende der SOI-Fahnenstange erreicht ist und sich darunter das Ganze einfach nicht mehr lohnt..."

An sich dürften alle nötigen Elemente für eine "reine" 32nm-SOI-GPU mit Fusion schon entwickelt sein. Sollte sich inzwischen gezeigt haben, dass diese GPU von Fusion tolle spezifische Daten liefert (z.B. sehr hohe Takte bei relativ niedriger Energieaufnahme, hohe Dichte und damit relativ kleines Die), warum dann nicht doch (angesichts der neuen Lage) davon eine Highend-GPU "abzweigen"?

Wenn Fusion 480 Shader hat und einen 64bit-GDDR5-Sideport, dann vervierfacht man das Ganze und hat womöglich eine 1920-Shader-GPU mit 256-bit-Bus und womöglich 1,5Ghz Takt...und das Ganze womöglich mit kaum über 200mm² Diesize. Warum nicht? Würde ja auch kein Massenprodukt, sondern lediglich für den Highend-Markt.

So ein Ding brächte womöglich einen höheren Verkaufspreis als ein ähnlich großer Quadcore-Fusion. Warum also nicht?
 
Ähm... Korrigiert mich wenn ich mich täusche, aber war es nicht so, dass jedes Chipdesign auf einen Fertigungsprozess hinentwickelt, also hin-Designt werden muss?
d.h. selbst wenn die transistoren im Llano so gelayoutet und konstruiert sind dass sie aus SOI nutzen ziehen (wobei hier immernoch zur Debatte steht ob HMKG nicht den größeren Vorteil bringt ggn. SOI)
dann kannst du das nicht einfach 1:1 auf eine größere GPU übertragen... da muss sich jemand hinsetzen und das Design tatsächlich ändern.
Und "das Ganze mal eben vervierfachen" ist auch nicht grade ein no-brainer, außer du willst es per quad-crossfire mit einer bescheidenen Skalierung machen.
Um aus einem kleinen chip einen 4-mal so großen herauszuentwickeln muss allerhand geändert werden, datenpfade angepasst, scheduler/dispatcher geändert usw.
Wir sind hier nicht bei CPUs, wo man mal eben ein oder zwei kerne zusätzlich an die Crossbar klebt und man ist fertig!
Die CPU-Cores sind eigenständige, in sich geschlossene Einheiten.
Eine GPU ist eine GPU, egal ob sie 480 shader oder 1920 Shader hat. Sie kriegt ihre Instruktionen vorgesetzt und muss diese so effizient wie irgend möglich an die shaderkerne verteilen usw.
Cypress mag zwar 2x Juniper sein, aber es ist dennoch ein eigenes Produkt, ein extra chip...und wenn du die eine Hälfte abschneidest hast du immernoch keinen Juniper.
Ich sage nur eines:
Wegen einer einzigen Chipgeneration, designt man nicht alles auf SOI um um es dann in 28nm wieder auf Bulk umsetzen zu müssen. Das lohnt einfach nicht!
Der Arbeitsaufwand der da hinein fließt ist an anderen Stellen viel besser aufgehoben.
Die GPUs haben bisher kein SOI gebraucht und sie werden es auch weiterhin nicht brauchen...HKMG, U-Low-K und so Spielchen eher... aber nur weil Llano SOI hat (was er wie gesagt meiner Meinung nach nur hat weil er eben eigentlich eine CPU ist) ist das noch lange nicht morgen schon Standard bei Grafikkarten...
Bitte bleibt mal auf dem Teppich.
Sogar in der akt. 40nm Generation von Radeons steckt noch Potential, etwas Spannungszugabe und voila...
Deswegen schießt man doch nicht mit Kanonen auf Spatzen und legt für ein paar Tausend kaufwütige Max-FPS-Fetischisten einen extra chip in einer FErtigungstechnik auf, von der man für die nächste Generatio nwieder abrücken muss!? (28nm SOI hab ich noch nirgends gelesen!)
Protzen ist schön und gut... aber von sisyphos-Arbeit werden die Quartalszahlen auch nicht besser....
.
EDIT :
.

So ein Ding brächte womöglich einen höheren Verkaufspreis als ein ähnlich großer Quadcore-Fusion. Warum also nicht?

Höherer verkaufspreis vielleicht, aber für einen viel kleineren Kundenkreis!
 
Wenn Fusion 480 Shader hat und einen 64bit-GDDR5-Sideport, dann vervierfacht man das Ganze und hat womöglich eine 1920-Shader-GPU mit 256-bit-Bus und womöglich 1,5Ghz Takt...und das Ganze womöglich mit kaum über 200mm² Diesize. Warum nicht? Würde ja auch kein Massenprodukt, sondern lediglich für den Highend-Markt.

1. Sideport für Fusion wird hier im Forum immer mal wieder hochgekocht, es gibt dafür aer bis jetzt NULL Belege oder auch nur Hinweise.

2. Bei den Shadern könnte deine Überlegung aufgehen, da das nur gleichförmige Recheneinheiten sind, die man einfach replizieren muss. Allerdings machen diese nur einen winzigen Teil der GPU aus. Viel mehr Arbeit steckt im Dispatch Prozessor, der die Arbeit effektiv verteilen muss und der Speicheranbindung. Einfach mal so auf 256Bit aufbohren ist da nicht drin. Da müssen viele Funktionseinheiten angepasst werden, um anderen Latenzen und Zugriffsmustern Rechnung zu tragen.
 
Zurück
Oben Unten