Erste APU auf dem Markt

In diesem Falle:
- Kosteneinsparungen
- Energieeinsparungen
- Erfahrungen sammeln

Absolut richtig, ich wollte aber eher auf den Software nutzen dieser APU ein gehen. Für mich ist das ein wichtiges Feature einer APU wie sie von AMD bisher beschrieben wurde. Die intigierte GPU sollte aus diesem Chip eben mehr als nur ein Verbund von CPU und GPU, da ein Mehrnutzen für Software vorhanden ist. Wie viel bringt einem der Name APU bei diesen Chip wenn man das nicht wirklich nutz. Daher kam meine Frage.

In der Praxis wird sich dieses Design als APU für GPGPU z.B. für Physik-Effekte doch höchstens bei Spielen mit der grafischen Komplexität von Tetris einsetzen lassen.
Ich bin allerdings gespannt, ob in der nachfolgenden Generation nicht vielleicht schon ein SoC-Design von Anfang an kommt.

Genau das ist das Ding. Für die moderne Grafikpracht reicht es nicht mal mehr, was will man dann darauf berechnen?

Und da mir es nicht darum geht mit mein Frage gegen jemanden zu wettern sondern Antworten zu bekommen mache ich mir auch selber gedanken:
Microsoft will mit Kinetic die XBox auch Richtung Multimedicenter erweitern und auch ein Videoportal einführen. Upscaling wäre da doch eine mögliche Anwendung oder? Würde ja Sinn mach über das Internet komprimierte Videos zu verschicken und an den Konsolen Upscaling zu betreiben, damit entlastet man die Serverstruktur und spar Bares Geld beim bereit stellen eines solchen Service.
 
Warum erwartet immer jeder, dass neue Technologien wie eine Bombe einschlagen müssen? Fusion wird meiner Meinung nach auch nicht sofort ein Paukenschlag.

Aber dadurch das brauchbare und einsatzfähige Hardware vorhanden ist, auch wenn sie noch relativ langsam ist, bringt man Entwickler dazu für diese Technologien zu programmieren. SSE wurde auch nicht sofort genutzt. Da es aber inzwischen weit verbreitet ist optimieren viele Softwareschmieden ihre Programme darauf. Damit haben wir als Endnutzer immer noch große Vorteile davon, auch wenn es nicht direkt genutzt wurde, als die erste Prozessorgeneration mit SSE erschien.

Microsoft macht es hier genau richtig. Sie haben ein relativ simples Testvehikel, da die Grundarchitektur schon da war, mussten das Ganze also nur auf einem Chip verschmelzen. Damit zeigen sie aber den Entwicklern: "Schaut her, das ist die Richtung in die es zukünftig geht, in der nächsten Generation wird dieses Prinzip noch viel leistungsfähiger". Sie geben damit den Softwareherstellern Zeit sich mit der Technik zu befassen, bevor sie in der nächsten Generation der XBox produktiv eingesetzt wird. Und als positiven Nebeneffekt haben sie gleich noch niedrigere Produktionskosten für die aktuelle Konsole.
 
Warum erwartet immer jeder, dass neue Technologien wie eine Bombe einschlagen müssen? Fusion wird meiner Meinung nach auch nicht sofort ein Paukenschlag.

Darum geht es mir doch gar nicht, mir geht es um das Potenzial das dahinter steckt. Immerhin kostet die Entwicklung eines solchen Chips auch Geld, und zwar mehr Geld als ein einfach Shrink der vorhanden Hardware. Mit diesem hätte man wohl auch eine XBox Slim raus bringen können und das mit weniger Aufwand. Mircosoft gibt doch keinen Chipentwicklung in Auftrag weil die Konsole intern so toll sein soll, sondern weil es nach Außen etwas bringt. Und genau da nach frage ich.
 
Absolut richtig, ich wollte aber eher auf den Software nutzen dieser APU ein gehen.

Der ist der gleiche wie seit vier Jahren der Nutzen der GPU. Nicht mehr und nicht weniger.

Natürlich kannst Du diese zwei Sätze gerne noch fünfmal wiederkäuen, sie von allen Seiten intensiv betrachten, die einzelnen Buchstaben darin beleuchten, nach Häufigkeit und Kombination gruppieren und hübsche Statistiken über das Ergebnis führen. Allein, es ändert nichts so wie sich am Nutzen der APU nichts geändert hat.
 
@Bayushi

Ja, klar ist der Aufwand der Entwicklung größer, aber im Gegenzug ist auch das Einsparpotential größer. Du hast nur noch 2 Dies (SoC + eDRAM) dadurch sparst du Kosten beim Package und kommst mit ner simpleren Hauptplatine aus. Das sind alles vielleicht nur wenige Dollar Vorteil.
Und warum das Ganze? Weil dies meiner Meinung nach der letzte Shrink dieser Generation sein wird. Die Xbox-Slim muss bis zum Ende der Lebensdauer 2015 durchhalten.
Technisch darf sie intern sogar nix neues können. War ja verlinkt, dass der Chip über den FSB-Replacement künstlich gebremst wird, um die Kompatibilität zu wahren.
 
Wie könnte ich das, dazu ist über den Aufbau von GPU und CPU zur APU bisher zu wenig bekannt.

Aber fangen wir doch mal von unten an. Bezeichnest Du den Cyrix MediaGX als APU?

Wenn nein - warum nicht?

Ich habe schon geschrieben, das ich die News nur "zitiert" habe. Da ich den Media GX bisher nicht kannte, und ich auch nicht weiss ob APU nur ein Marketingbashwort ist, kann/will ich mich an der Disskussion nicht beteiligen.

Meine Frage hast Du trotzdem nicht beantwortet, also nochmal direkt, ist Llano/Ontario Deiner Meinung die erste APU? Wenn ja, was ist der Unterschied zum xBox-Chip? Wenn nein, wäre es auch ganz interessant zu wissen warum?

Wenn Dir aber das ganze APU-Gehype auf den Geist geht, dann benutzt nicht mich als Zielscheibe, sondern schreibs einfach hin!
 
Aber wenn vorher Microsoft die CPU von IBM und die GPU von ATI kauft.

Und jetzt plötzlich nur noch von IBM bezieht.

Wo ist dann ATI? Die müssen ja irgendwie daran beteiligt sein.

Und wieviel kann man bei einem solchen Vorgehen denn sparen? Die Stromersparnis scheint ganz ordentlich zu sein, meine Ur-Box zieht anscheinend doppelt soviel.

Wegen Upscaling: meines Wissens beherrscht die Xbox das schon recht gut. Deshalb hatte sie ja laut MS ursprünglich kein HDMI, da man sich zwischen HDMI und guten Upscaling-Fähigkeiten entscheiden muss. Diese Info klaube ich jetzt aber nur aus meiner Erinnerung zusammen, keine Gewähr.
 
Nach meinem Verständnis und der Beschäftigung mit dem Thema Royalties funktioniert das Geschäft folgendermaßen:
Der Konsolenhersteller(hier Microsoft) vergibt einen Auftrag des Entwurfs und der Entwicklung einer GPU(AMD/ATI) oder CPU(IBM) an die genannten Unternehmen.
Die Entwicklung bekommen die Unternehmen als sogenannte NRE(Non-Recurring Engineering) bezahlt.Danach vergibt der Konsolenhersteller den Auftrag der Herstellung der Chips an einen Fertiger(z.B. Chartered Semiconductor) und zahlt dann pro abverkaufte Konsole eine Lizenzgebühr(Royalty) an die CPU/GPU-Entwickler für die Nutzung deren Know-How.

Hier bei der neuen Xbox stellte sich daher auch die Frage wer wohl die Fusion bewerkstelligen würde.Dachte sogar eine Zeitlang das vielleicht sogar schon ein AMD-Fusion eingesetzt werden könnte.

Jedenfalls wird IBM demnach Geld für die "Verschmelzung" bekommen und Lizenzgebühren nachwievor an beide,AMD und IBM, gezahlt werden müssen.
 
ich an AMDs stelle würde Microsoft bischen drohen "wenn ihr unsere CPU nicht verbaut bekommt ihr auch keine ATI" das gilt für alle!
 
ich an AMDs stelle würde Microsoft bischen drohen "wenn ihr unsere CPU nicht verbaut bekommt ihr auch keine ATI" das gilt für alle!

Seit wann ist es üblich seinen Kunden zu drohen?! Bisher dachte ich man gewährt ihnen Rabatte, sonder Leistungen um die zu halten.
 
ich an AMDs stelle würde Microsoft bischen drohen "wenn ihr unsere CPU nicht verbaut bekommt ihr auch keine ATI" das gilt für alle!
Und schwupps ist Nvidia wieder an Bord.

Wäre ziemlich selten dämlich von AMD den Softwarekonzern Microsoft für deren Spielekonsole zu zwingen einen AMD-Prozessorkern zu implementieren. Das muss der Riese aus Redmond schon selber wollen.

Darüber hinaus bietet die Power-Architektur den Vorteil, das das von einem breiteren Konsortium verwaltet wird. Da wird die Fortentwicklung der Power ISA (Instruktion Set Architecture) mit allen Mitgliedern zeitnah geteilt und und kooperativ gepflegt.

Das ist bei x86 nach wie vor allem Intel. In wie weit die Kartellprozesse daraus die wenigen Mitglieder Gleiche unter Gleiche macht ist mir noch völlig unklar. Noch unklarer ist der Beitritt von Neumitgliedern.
Bei der Power-Architektur gibt es keine politischen Beitrittschranken. Wer da mitmachen will, ist herzlich eingeladen.

Microsoft hatte schon gute Gründe die Power-Architektur zu wählen. Alternativen wären da sicherlich noch SPARC und ARM gewesen.

MFG Bobo(2010)
 
Wenn Dir aber das ganze APU-Gehype auf den Geist geht, dann benutzt nicht mich als Zielscheibe, sondern schreibs einfach hin!

Sorry, ich hatte gar nicht wahrgenommen und auch nicht beabsichtigt Dich als Zielscheibe zu mißbrauchen. Ich habe schlicht eine ausgeprägte Abneigung gegen Marketinggeblubber und versuche mich durch ständigen Widerspruch selbst "wach" zu halten. Und das meist ohne das ich zu beginn einer Diskussion weiß wo ich am Ende stehe.

Also nochmal: Sorry, das ging und geht ganz sicher nicht gegen Dich.
.
EDIT :
.

Aber wenn vorher Microsoft die CPU von IBM und die GPU von ATI kauft.

Und jetzt plötzlich nur noch von IBM bezieht.

Wo ist dann ATI? Die müssen ja irgendwie daran beteiligt sein.

ATI (bzw. die GPU-Sparte von AMD) ist wahrscheinlich dort beteiligt wo Schecks in Empfang genommen werden. Ich glaube nicht, das die das Design an MS verkauft, eher das sie es lizenziert haben.

Mit einiger Wahrscheinlichkeit würde ich auch annehmen das die CPU-Sparte von AMD ebenfalls beteiligt ist. Wissen über die schnelle Kopplung von CPU und GPU dürfte dort im Moment verfügbar sein :-)

Und wieviel kann man bei einem solchen Vorgehen denn sparen? Die Stromersparnis scheint ganz ordentlich zu sein, meine Ur-Box zieht anscheinend doppelt soviel.

Die Integration selbst sehe ich da weniger als Ursache, die dürfte sich nur auf die Herstellungskosten auswirken. Der Durst wird eher über Strukturgröße und Details in der Fertigungstechnik (LowK? SI?)
gesenkt.

Wegen Upscaling: meines Wissens beherrscht die Xbox das schon recht gut. Deshalb hatte sie ja laut MS ursprünglich kein HDMI, da man sich zwischen HDMI und guten Upscaling-Fähigkeiten entscheiden muss.

So wie mein Auto keine Metalliclackierung hat? Ich mußte zwischen Metalliclackierung und ABS wählen.
 
ATI (bzw. die GPU-Sparte von AMD) ist wahrscheinlich dort beteiligt wo Schecks in Empfang genommen werden. Ich glaube nicht, das die das Design an MS verkauft, eher das sie es lizenziert haben.

Mit einiger Wahrscheinlichkeit würde ich auch annehmen das die CPU-Sparte von AMD ebenfalls beteiligt ist. Wissen über die schnelle Kopplung von CPU und GPU dürfte dort im Moment verfügbar sein :-)
Da wie ich gelesen habe, die GPU für die CPU praktisch auch als Northbridge (Verbindung zum Rest des System und zum gemeinsam genutzten GDDR-RAM) dient, muss das nicht mal unbedingt sein. Ich traue da IBM durchaus zu das alleine zu bewerkstelligen.
Ich gehe auch von Lizenzfertigung aus. Ich hatte bezüglich der ROD-Probleme gelesen, dass MS Geld sparen wollte und ATI beim praktischen Design außen vor lies. Erst später habe man sie dazu geholt, um die Kohlen aus dem Feuer zu holen.
 
Zurück
Oben Unten