Wie wird nun eigentlich Llano hergestellt?

Wie wird nun eigentlich Llano hergestellt?

  • GPU + CPU in SOI

    Stimmen: 25 45,5%
  • GPU + CPU in bulk

    Stimmen: 7 12,7%
  • GPU in bulk + CPU in SOI

    Stimmen: 11 20,0%
  • Alles Käse

    Stimmen: 12 21,8%

  • Anzahl der Umfrageteilnehmer
    55
  • Umfrage geschlossen .
Ich könnte mir durchaus vorstellen, dass man sich im Moment auch gedanken macht, welche Chips in der nächsten Konsolengeneration verbaut werden.

Charlie Demerijan hat ja da so ein Gerücht aufgebracht, von wegen Intel möchte gerne den Larabee in eine Next-Gen-Konsole reinbringen.

Ich denke, dass die jetzt kommende Konsolengeneratioen, es hieß ja, dass 2011 ca. etwas neues anstehen soll, dass für diese Generation eine Single-Die-Lösung, zumindest aber eine MCM-Lösung sehr wahrscheinlich sei.

Ich kann mir im Hinblick darauf durchaus vorstellen, dass eine GPU auf SOI umgebaut wird. In SOI wären bereits die Xenon-Kerne aus der jetzigen XBox360. Evtl. liegt es aber auch im Interesse von Microsoft, das man das x86-Lager stärkt - die einzige Bastion, die Microsoft wirklich richtig mächtig inne hat ist x86. Evtl. könnte ein (Rück-)Schritt auf x86 strategisch wichtig sein. Evtl. lizenziert AMD das "alte K8-Design" als IP(intelectual Property) an Microsoft.

Der Grund warum Microsoft nach der Ur-Xbox nicht noch mal eine x86-CPU eingebaut hat war der, dass man kein Angebot für einen x86 IP-Kern hatte und man sich nicht mehr so abhängig an Intel anhängen wollte.

Ich denke, dass Microsoft mal wieder das Zünglein an der Waage sein könnte. Wenn also AMD an Microsoft einen K8-Kern lizenziert, AMD selber ihre Fusion-Chips in SOI designen, dann denke ich, dass es sinnvoller ist den Nachfolger des heutigen Cypress-Chips und alle auf den Nachfolger aufbauenden Designs in SOI fertigen zu lassen.

Grüße,
Tom

P.S. Der IBM Chip ist auch in SOI, legt man also Microsoft unterschiedliche "Schlachtpläne" vor, so wäre auch eine Option SOI-Xenon-CPU & SOI-ATI-GPU.

Nun gibt es also schon erste Gerüchte, dass Nintendo die Fusion-Chips in ihre Konsolen einbauen möchte - nur logisch:
http://www.pcgameshardware.de/aid,7...Wii-2-kommt-mit-AMD-Fusion-APU/Konsolen/News/
 
Wäre ein riesiger Auftrag für AMD, aber ist noch etwas sehr für um über so etwas zu spekulieren. Das ist dann eher Kategorie wünsche dir was. Die Idee ist richtig einen Chip einzusparen aber ich weise nicht ob diese Llano wirklich als Konsolenchip geignet ist.
Andererseits wäre der CPU-Teil etwas ganz neues für den Konsolenmarkt, immerhin ist der ja x86. Wenn das so kommt sehe ich schon erste Windows-hacks für die Wii *rofl*
 
Wäre ein riesiger Auftrag für AMD, aber ist noch etwas sehr für um über so etwas zu spekulieren. Das ist dann eher Kategorie wünsche dir was. Die Idee ist richtig einen Chip einzusparen aber ich weise nicht ob diese Llano wirklich als Konsolenchip geignet ist.
Andererseits wäre der CPU-Teil etwas ganz neues für den Konsolenmarkt, immerhin ist der ja x86. Wenn das so kommt sehe ich schon erste Windows-hacks für die Wii *rofl*

Ich würde auch eher denken, dass Nintendo weiter auf eine Power-Architektur setzt. 1. ist es dann inkompatibler mit der x86 Welt, was hacks oder ähnliches für den pc schwerer macht. 2. kann man dann leichter die Kompatibilität zur alten Wii und zur Gamecube erhalten.
Vorteil eines Schwenks auf x86 wäre wohl eine schnellere Portierung von pc games auf die wii oder umgekehrt (ich weiß nicht, ob das allzu erstrebenswert ist für nintendo). Und die integrierte gpu von fusion. Allerdings glaube ich auch, dass der vorteil nicht soo imens sein wird.

Ich könnte mir eher vorstellen, dass man versucht in die bestehende (Power-)Architektur direkt eine GPU zu integrieren (also on chip). Da man eh den Prozessor gemeinsam mit IBM entwickelt, sollte es eigentlich kein allzu großes Problem sein.
 
Ich könnte mir eher vorstellen, dass man versucht in die bestehende (Power-)Architektur direkt eine GPU zu integrieren (also on chip). Da man eh den Prozessor gemeinsam mit IBM entwickelt, sollte es eigentlich kein allzu großes Problem sein.

Nintendo entwickelt nicht wirklich CPUs. Die lassen sich höchstens eine CPU von der Stange von IBM leicht anpassen.

Eine Kombichip auf PowerPC Basis wird schwer zu bekommen sein, denn IBM entwickelt/baut keine GPUs und weder von nVidia noch von ATI bekommst du sie als IP-Cores. Eine Verbindung mit PowerVR (da würden sogar die Arch-Namen passen: DoublePower = PowerPC + PowerVR *lol*) wäre möglich, die Frage wäre aber dann wie leistungsfähig das ganze im Vergleich zu den beiden Großen wäre.
 
Eine Kombichip auf PowerPC Basis wird schwer zu bekommen sein, denn IBM entwickelt/baut keine GPUs und weder von nVidia noch von ATI bekommst du sie als IP-Cores.

Öhm, doch!?! AMD lizenziert seit Jahren IP für den Hollywood Grafikchip der Wii an Nintendo. Hergestellt wird der Chip nicht von AMD selbst, die verdienen nur daran, das sie ihn entwickelt haben. Wieso sollte sowas nicht auch bei der Integration in einen Chip funktionieren?
 
Nintendo entwickelt nicht wirklich CPUs. Die lassen sich höchstens eine CPU von der Stange von IBM leicht anpassen.
Das meinte ich doch. ;)

Obwohl ich wirklich nicht daran gedacht habe, dass IBM keine eigenen Grafikchips entwickelt .....
Vielleicht wirds dann wie Lynxeye sagt ....?!
 
... Eine Kombichip auf PowerPC Basis wird schwer zu bekommen sein ...
Schon mal was von Lizenzkernen gehört? Da hat IBM eine ganze Stange von.

denn IBM entwickelt/baut keine GPUs und weder von nVidia noch von ATI bekommst du sie als IP-Cores. ...
- Erstens ist die GPU von ATI dort ein IP-Core.

- Zweitens warum sollte IBM ausgerechnet das nicht können, was Fertigungspartner und Allianzmitglied wie Chartered* millionenfach an Andere ausliefert?

- Drittens sind Power-IP-Kerne in noch ganz anderen Chips wie FPGAs integriert und zwar High-Performance FPGAs für militärische Zwecke.

- In der Vergangenheit fädelte Nvidia mal eine GPU-Fertigung bei IBM ein, aber mangels Qualität wurde der Deal rückgängig gemacht.
Nicht desto Trotz fertigt IBM eine Reihe unterschiedlichster Halbleiterprodukte, warum nicht auch so etwas?

- Deine Frage zur Schnittstelle zwischen CPU und GPU ist berechtigt ... sollte aber dem Mitentwickler von Geneso (PCI-Express als Prozessor-Interconnect) nicht wirklich graue Haare wachsen lassen.

Und wenn die schon gräulich gewachsen sind, dann blichen die schon aus, um interne Schnittstellen zwischen Multicores wie dem Cell, Power6, Power7, z6 und z10 zu entwickeln. Integrierte Kryto-, Dezimal-FPU-Einheiten und anmutig angeleimte L3-Caches warfen Fragen auf, wie High-Speed-Schnittstellen auszusehen haben.

MFG Bobo(2009)

* Der Fremdfertiger Chartered, "Erfinder der Lizenzfertigung" (-> Foundry) aus Singapur, ist seit gestern den 28.12. 2009 Geschichte als unabhängiges Einzelunternehmen - und ist nun integriert in der arabischen ATIC.
ATIC ist das Dach für GlobalFoundries (GF) und Chartered. Das Unternehmen aus Singapur soll vollständig die bestehenden Geschäfte mit GF "koordinieren". Damit bekommt AMDs alte Fertigungsstätte vollständigen Zugriff auf alle Kunden und Geschäftsbeziehungen der Asiaten.
 
Zuletzt bearbeitet:
so weit ich das verfolgt habe, wurde anfangs über eine APU bzw. einen Fusion-Chip von AMD in der neuen Wii spekuliert. Von der speziellen CPU Llano wurde eingentlich nichts geschrieben.

Nimmt man obige Argumente zusammen, würde für mich folgende Kombination sinn machen:

GPU und NB von AMD werden mit einem PowerPC-Kern von IBM zusammengekleistert. Das sollte doch ohne allzu großen Aufwand machbar sein, oder?


MfG @
 
Hmm, ich glaube, ich wurde kräftig missverstanden. Ich zweifle in keinster Weise an IBM Produktionstechnik. Auch ist mir bekannt, dass IBM PowerPC Designs als IP-Cores verkauft. Auch das AMD/ATI Nintendo/MS Lizenzen für AMD/ATI GPUs gegeben habe ist mir bekannt.

Das Problem sehe ich eher darin, dass AMD/ATI sein GPU-Design nicht offenlegen wird, d.h. Nintendo/MS können die GPU selbst produzieren, sie können sie shrinken, aber am Design ändern können sie nichts, bzw. nur auf einer sehr niedrigen Ebene. Um eine Fusion-ähnliches Produkt zu bauen wäre das aber dringend notwendig (z.B. beim Speicherinterface). Wenn man also nicht nur zwei Kerne nebeneinander auf ein Die packen will, sondern auch die "Synergieeffekte" haben will, muss man sowohl das CPU- als auch das GPU-Design entsprechend anpassen. So ein Chip müsste also in einer Coproduktion von IBM und AMD zusammen entwickelt werden. Die beiden Firmen verstehen sich ja ganz gut also ist das nicht ausgeschlossen, aber ich halte es trotzdem nicht für sehr wahrscheinlich. Das das ganze nicht trivial ist, sieht man ja auch daran, wie lange AMD braucht um so etwas bei Llano zu realisieren, obwohl sie dort vollen Zugriff auf alle existierenden Infos haben und nicht bei jeder Anfrage erst die Rechtsabteilung anrufen müssen um nicht aus versehen zu viel über das eigene Design zu verraten.
 
Hmm, ich glaube, ich wurde kräftig missverstanden. ...
Wer IBM da die Kompetenz abstreitet und dann da noch ein auslachenden Smily hin pflanzt, der darf auch missverstanden werden.

... Um eine Fusion-ähnliches Produkt zu bauen wäre das aber dringend notwendig (z.B. beim Speicherinterface). Wenn man also nicht nur zwei Kerne nebeneinander auf ein Die packen will, sondern auch die "Synergieeffekte" haben will, muss man sowohl das CPU- als auch das GPU-Design entsprechend anpassen. So ein Chip müsste also in einer Coproduktion von IBM und AMD zusammen entwickelt werden ...
Ich denke auch, dass das nicht trivial ist.

Aber Nintendo hat sich sicher gut abgesprochen, um ein Produkt wie die Wii (und deren Vorgänger) kostengünstig mit gewissen Shrinking-Potenzial zu entwerfen, um während der Lebenszeit der Konsole noch billiger und stromsparender zu werden.

Ich sehe da keine grundsätzlichen Probleme, die unüberwindbar sind. Die Power-Architektur hat Nintendo jedenfalls nicht am Erfolg der Wii behindert und sicherlich manch ein Windows-Script-Kiddi erst gar nicht zum Hack0rs heranreifen lassen, weil sie auf irgendwelche obskuren x86-Schwachstellen herumdremeln.

Und was Speichertechnik angeht, so haben auch hier die Konsolen auf die eine und andere Seite eben nicht die PC-üblichen Speicherchips genommen.

Ich werde mich aber nicht hinauslehnen, dass x86-64 für eine Nintendo-Konsole unmöglich ist. Es spricht jedenfalls nicht alles dafür.

Einen geschrinkten BE-Cell halte ich jedoch für nahezu ausgeschlossen. Ich glaube kaum, dass es Sony duldet, wenn ein Konkurrent ein Design-Recycling von IBM hintergeschmissen bekommt, nachdem Big Blue sich aus der eigenen Fortentwicklung herausgeklinkt hat.

Was das Nintendo (oder Microsoft) mit dem Llano zu tun hat? Hmm gute Frage. Wenns ein Power-Kern drin hat, dann wohl nur noch recht wenig.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Wer IBM da die Kompetenz abstreitet und dann da noch ein auslachenden Smily hin pflanzt, der darf auch missverstanden werden.

Ähmm, ja, also das geht jetzt ein wenig zu weit.
Ich sage: "IBM entwickelt/produziert keine GPUs", du verstehst "IBM ist nicht dazu in der Lage GPUs zu fertigen". Ich mache einen offensichtlichen Wortwitz und kennzeichne es mittels lachendem Smiley als solches und du interpretierst irgendwelchen Spot über IBM hinein. Mag sein, dass ich nicht jedes Wort auf die Goldwaage lege, aber um das derart misszuverstehen gehört schon viel dazu.

Ich denke auch, dass das nicht trivial ist.

Gut, dann gibt es zumindest hier keine Missverständnisse.

Aber Nintendo hat sich sicher gut abgesprochen, um ein Produkt wie die Wii (und deren Vorgänger) kostengünstig mit gewissen Potenzial zum Shrinking entwerfen, um während der Lebenszeit der Konsole noch billiger und stromsparender zu werden.

Sicher und das werden sie wohl auch in Zukunft machen. Die Frage ist eben nur, wie das aussehen wird. Klassisch mit CPU + GPU getrennt oder als Kombichip. CPU + GPU getrennt halte ich persönlich für die wahrscheinlichste Variante. Wenn es ein Kombichip werden sollte, würde ich auf eine Variante von AMDs Fusion tippen, denn Intel ist von der GPU-Performance zu weit hinten und eine Variante mit mehreren Herstellern würde erheblich mehr Entwicklungskosten verursachen, wenn die Hersteller sich überhaupt einige könnten (siehe auch vorheriger Post).

Ich sehe da keine grundsätzlichen Probleme, die unüberwindbar sind. Die Power-Architektur hat Nintendo jedenfalls nicht am Erfolg der Wii behindert und sicherlich manch ein Windows-Script-Kiddi erst gar nicht zum Hack0rs heranreifen lassen, weil sie auf irgendwelche obskuren x86-Schwachstellen herumdremeln.

Bei einer Konsole ist die zugrundeliegende Architektur eher nachrangig, da die Software sowieso speziell angepasst wird und die PowerPC Architektur scheint vom Preis-/Leistungsverhältnis bzw. von den Lizenzbedingungen attraktiver zu sein. Daher denke ich, dass Nintendo da nicht groß experimentieren wird, sondern beim altbewährten Konzept bleiben wird. Man nimmt einfach eine aktuelle PowerPC CPU von der Stange, eine ATI GPU mit den neusten Features und mehr Power. Damit ist man mit der Leistungsfähigkeit voll im grünen Bereich und vergeudet nicht viel Zeit, so dass man sich hoffentlich weitere schöne Features/Spielkonzepte ausdenken kann.


Ich werde mich aber nicht hinauslehnen, dass x86-64 für eine Nintendo-Konsole unmöglich ist. Es spricht jedenfalls nicht alles dafür.

Das einzige was eigentlich dafür spricht wäre eben die Fusion-Chips und die damit verbundenen Kosteneinsparungen, was aber andererseits mit dem Nachteil verbunden wäre, dass Nintendo diese einkaufen müsste und nicht selbst fertigen könnte, da sie dafür u.A. Lizenzen von Intel bräuchten. Daher glaube ich, dass es einfach ein "einfaches" Update wird, ähnlich wie von GameCube zu Wii (bezogen auf die CPU und GPU).
 
Öhm, doch!?! AMD lizenziert seit Jahren IP für den Hollywood Grafikchip der Wii an Nintendo. Hergestellt wird der Chip nicht von AMD selbst, die verdienen nur daran, das sie ihn entwickelt haben. Wieso sollte sowas nicht auch bei der Integration in einen Chip funktionieren?
http://de.wikipedia.org/wiki/Wii

Die Konsole ist ja noch recht jung bzgl. Design. Was fehlt ist die Unterstützung für HDMI / 1920*1080 TV.
Wobei es wichtig ist, dass auch eine mobile Version technisch möglich wäre (ggf. mit teildeaktivierter Hardware ? )

Den 'Hollywood Grafikchip' funktionell etwas zu erweitern und per 28nm statt 90nm etwas höher zu takten dürfte umsetzbar sein.
Dazu noch etwas mehr Arbeitsspeicher und dies auch in eDRAM.
Und das zusammen mit einem Dual-Core Design dann bei IBM und alternativ auch bei GF gefertigt.

Ich tippe auf relativ wenig Änderungen aber Potential als alternatives Mobilgerät.
 
Ich tippe auf relativ wenig Änderungen aber Potential als alternatives Mobilgerät.

Konsole als Mobilgerät? Wie soll man das verstehen, einen Wii Laptop?
 
Konsole als Mobilgerät? Wie soll man das verstehen, einen Wii Laptop?
Nein, eine mobile Konsole mit LCD-Schirm.
LCDs mit 800*600 Auflösung kommen schon bei digitalen Bilderrahmen in den unteren Preisklassen auf den Markt. Die Auflösung liegt damit leicht über TV/DVD Qualität und damit geeignet für bisherige Konsolen-Designs.

Stationär natürlich dann HDMI oder gleich ein Gerät das wahlweise an Groß-LCDs anschließbar wäre.
Auch dafür wäre ein Upgrade bei Performance eher zugunsten von geringere Leistungsaufnahme sinnvoll.
 
Erste Fusion-APU wird bereits ausgeliefert - 45nm Design - Power ISA + ATI-GPU - gefertigt bei Chartered, exklusiv für die Xbox 360.
Die Fachpresse ist sich ja nicht einmal einig, ob die angestaubte Direct3D9 Xenos GPU nun überhaupt vollwertige Unified Shader besitzt.

Da ist schon ziemlich gewagt von einer APU zu sprechen. Außerdem ist noch nicht geklärt, ob man es mit einem MCP zu tun hat oder nicht.
 
Zuletzt bearbeitet:
Erste Fusion-APU wird bereits ausgeliefert - 45nm Design - Power ISA + ATI-GPU - gefertigt bei Chartered, exklusiv für die Xbox 360.

http://www.anandtech.com/show/3774/welcome-to-valhalla-inside-the-new-250gb-xbox-360-slim/8
http://www.semico.com/mediacov/2008-11/2008-11-10 EETimes.pdf

anno 2008:
As part of the plan, Singapore's Chartered Semiconductor Manufacturing Pte. Ltd. will act as a ''second source'' foundry for IBM's 45-nm SOI offering.

Und die 65nm CPU der XBox360 haben sie ja auch schon gefertigt.

Bei 45nm eDRAM ist der Lebenszyklus eh schon im Herbst. Es kosten also sicherlich kaum Lizenzgebühren an IBM die einzusetzen. Oder IBM ist auch (zweiter) Hersteller des Designs und verrechnet das miteinander ?

Wie http://www.videogameszone.de/Xbox-3...ip-angeblich-schon-in-Sack-und-Tueten-697291/ nahe legt wäre aber 28nm dann die übernächste Evolution ab 2012. Wobei nur für SOI-32nm auch die eDRAM Technologie von IBM greifbar wäre.

Die Fertigungsentwicklung bei der XBox könnte durchaus Folgen für den Nachfolger des LIano haben. Ergibts sich eine Verzahnung von IBM und GF bei Nutzung von eDRAM wäre aktuell SOI-25nm die kleinste noch ersichtliche Evolution jener Fertigung.
Oder eDRAM in Bulk-28nm und dann auch für Chartered, GF-Dresden, GF-New York und ggf. IBM. Damit wäre zumindest eDRAM auch für AMD abgreifbar ... natürlich nur auf Wunsch von AMD.
 
Die Fachpresse ist sich ja nicht einmal einig, ob die angestaubte Direct3D9 Xenos GPU nun überhaupt vollwertige Unified Shader besitzt.

Da ist schon ziemlich gewagt von einer APU zu sprechen. Außerdem ist noch nicht geklärt, ob man es mit einem MCP zu tun hat oder nicht.
Gewagt hin oder her. Die ATIs der 19xx-Serie gehörten zu den ersten kommerziell vertriebenen Grafikkarten, die ATIs Stream-Initiative Schub gaben.

Zwar ist der Xenos noch etwas anders, aber nicht desto Trotz ATIs Weg hin zum Unified-Shader-Design der R600.

Und auch das Argument "angestaubt" zählt für Konsolen nicht wirklich, wenn dadurch eine schon bestehende Konsolenplattform gepflegt wird. Der Mehrwert für Microsoft liegt in der Kompaktheit, Reduzierung der benötigten Chips und geringerem Strombedarf.

Immerhin startete die CPU bei 90 nm und die Zwischenstationen mit 65 nm (GPU in 80 nm) haben GPU und Hauptprozessor auch schon vollzogen. Zwischenzeitlich wurde dann "nebenbei" noch der einstige e-RAM tatsächlich auch noch integriert. Damit dürfte die Xbox 360 in der wahrscheinlich letzten Shrinkstufe drin sein - jedenfalls was die Integration einstmals separater Chips angeht.

Der Mehrwert für AMD/ATI liegt darin, dass sie einen Einblick haben wie die Datenströme innerhalb der CPU (Tricore + SMT-Funktionalität), embedded RAM, Systemspeicher und GPU verlaufen. Microsofts SDK für DirectX 9 bis 11 kennt ja zugleich auch die Xbox 360.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Wenn Chartered zu einer "second source" für 45nm-SOI werden sollte, dann wird der 45nm-SOI-Prozess erst recht noch länger leben, vermutlich mindestens bis Ende 2012.

Und dann werden dafür auch SOI-Produkte gebraucht, die es bisher neben diesem Xbox-Chip nur von AMD gibt. Das sieht mir dann immer mehr danach aus, dass AMDs 45nm-Produkte zum Teil noch ein längeres Leben erleben dürften. Da wird es dann wohl schon noch die überarbeiteten Regors mit Ultralow-K und Turbo-Mode geben. Womöglich erhalten die gar noch einige der für Fusion entwickelten Storm-Spar-Features. Die Dinger wären dann durchaus gut genug, um ordentliche Lowend- und Mainstream-Notebook und -Desktops noch länger zu bauen.

Und ob AMD dann womöglich gar einen 45nm-SOI-Ontario entwickeln könnte? Das Einzige, was bisher nicht auf SOI wäre, wäre das Bobcat-Core. Aber nachdem AMDs CPU-Cores bisher alle SOI sind, dürfte das für AMD kein allzugroßer Aufwand sein. Womöglich hat man das bisher noch nicht gemacht. Aber wenn es genügend 45nm-SOI-Kapazitäten zu attraktiven Preisen geben sollte, warum nicht? Und nachdem AMD immer noch einen ordentlichen Anteil an GF hat, wird man schon noch etwas mitsprechen können.
 
Wenn Chartered zu einer "second source" für 45nm-SOI werden sollte, dann wird der 45nm-SOI-Prozess erst recht noch länger leben, vermutlich mindestens bis Ende 2012.

Und dann werden dafür auch SOI-Produkte gebraucht, die es bisher neben diesem Xbox-Chip nur von AMD gibt. Das sieht mir dann immer mehr danach aus, dass AMDs 45nm-Produkte zum Teil noch ein längeres Leben erleben dürften.
Bei Chartered und ggf. IBM lohnt es sich natürlich bei den großen Stückzahlen den Prozess weiter laufen zu lassen.
GPU plus CPU plus eDRAM auf einem DIE ergibt ja eine optimale Konstruktion und die 45nm sind nun eingefahren genug um damit kostengünstige Consumerchips zu fertigen.

AMD hat zumindest schon mal ca. 6 Monate bis 'cross over' 45nm / 32nm und dann noch Nachlauf der Fertigung wg. Bedarf. Die 90nm K8 wurden ja fast ewig weiter gefertigt wobei teils ja nur 200mm Wafer verwendet wurden.

Fertigung und Entwicklung sind aber zwei Paar Stiefel. AMD verdient am meisten wenn die alten 45nm Designs unverändert gefertigt werden und die neuen 32nm Designs zu hohen Preisen am Markt absetzbar sind.

Außer dem Champlain wird 2011 nichts an Produkten wie Regor oder Propos nicht deutliche Gewinne beibringen können ... also wozu da noch etwas entwickeln ?
AMD wird versuchen möglichst früh den LIano im Mobilmarkt unter zu bekommen und der Desktop läuft einfach so nach mit Regor und Propos ab 2011.
Und per Zosma / wie Phenom II X4 960T ist ja der lukrative letzte K10.5 Markt für So.AM3 auch gut aufgestellt.
 
... Und dann werden dafür auch SOI-Produkte gebraucht, die es bisher neben diesem Xbox-Chip nur von AMD gibt ...
Die Aussage, dass nur AMD bzw. GlobalFoundries SOI-Fertigung beherrscht ist definitiv falsch.

Sowohl IBM, als auch Freescale setzten schon sehr früh auf SOI-Fertigung. Wer in das SOI-Konsortium reinschaut, der wird definitiv weitere Fertiger und auch existierende Produkte finden.

Samsung, STMicro und UMC gehören ebenso dazu.

Man darf lediglich annehmen, dass GlobalFoundries die höchste Wertschöpfung und die meisten Chips mit SOI-Produkten macht

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Melde ich mich auch zu Wort :)

Ich denke das AMD die Erfahrungen nutzen wird, um beide Komponenten in SOI zu fertigen. Meine Aussage basiert auf der Annahme, das es wahrscheinlich teurer ist, auf zwei verschiedene Prozesse zu setzten als alles in einem "Rutsch" zu fertigen.
Zusätzliche Meinung ist der Platzbedarf. CPU >GPU, daher beides im CPU Prozess.

Wissbegieriger freut sich auf Antworten. :)
 
Zurück
Oben Unten