News Sony nennt Eckdaten zur PS4

Ich glaube im Fertigungsprozess liegt die Hauptantwort.

Es lohnt sich für AMD nicht den Entwicklungsaufwand zu betreiben um einen "großen" Grafikkern auf den teuren SOI Prozess zu bekommen, da die High Performance CPU's im Tablet Bereich unbrauchbar sind aufgrund Strom und Hitze.
Ne da bist Du auf dem Holzweg. Grund für Jaguar ist ganz eindeutig der geringe Die-Flächenverbrauch und die knausrige Stromaufnahme. So ne Spielekonsole braucht doch vor allem ne dicke Grafikkarte, in die wird der Großteil des Die-Flächen- und Stromverbrauchs-Budget investiert. Alles andere wäre auch ziemlich dumm. Eine Kombination zw. einem FX8350 und ner HD-6450 bringt einfach keine schönen Bilder auf dem Schirm.
Außerdem kann man bei Konsolen Hardware-näher programmieren, da kann man also noch ein paar Prozente ggü. der PC-Plattform mit den ganzen Abstraktionslayern, z.B. DX11 und 64bit@SSE2 oder den ganzen unterschiedlichen CPUs mit unterschiedlichen Takten und Rechenleistungen / Cache etc. rausholen.
Bei der PS4 kann man nun ganz spezifisch auf 8 Threads, AVX und (vermutlich) 2x2MB L2-Cache programmieren&optimieren. Alte Dual-Core CPUs mit maximal SSE3 oder so interessieren nicht.
 
Naja, sagen wir untere Mittelklasse (im Vergleich zu dedizierten Karten).

Der Focus Deiner Ausführung lag aber nicht am unterschied zwischen APU und externer Grafikkarte sondern in der Behauptung das AMD leistungsstarke Grafik nur in Bulk fertigt.

Die Grafikeinheiten von Llano und Trinity sind in SOI gefertigt, sie sind leistungsstark. Die Gesamtleistung ist lediglich durch die Anzahl der verbauten CU begrenzt.

Im PS4 Chip ist schon was anderes drinne, oder?

Nein, keineswegs. AMD hat ihre VLIW5 CU auf SOI umgesetzt, AMD hat ihre VLIW4 CU auf SOI umgesetzt. Alles spricht also dafür das AMD auch die GCN CU auf SOI umsetzen könnten (*). Der PS4C wurde lediglich hochgetunt bis unters Dach, das hat nichts mit Bulk oder SOI zu tun.

(*) für mich ist die Frage ob Kaveri in 28nm SOI kommt solange offen bis AMD selbst ihn als 28nm Bulk vorstellt.
 
Zuletzt bearbeitet:
Na, auf jeden Fall ist der SOI Produktionsprozess teurer als Bulk.
Ne, der Produktionsprozess ist garantiert billiger, da er weniger Schritte und weniger Doping braucht, was auch die Yields verbessert.

Teuer ist bei SOI vor allem der SOI-Ausgangswafer ;-)
 
So, nun aber nocheinmal die Antwort zu den Grafikeinheiten auf den existierenden APU's: Neueste Generation Richland:
<table><tr>
<td rowspan="1" colspan="1" style="text-align:center;"><strong>APU-Typ</strong></td>

<td rowspan="1" colspan="1" style="text-align:center;"><strong>CPU-</strong><br>
<strong>Kerne</strong></td>

<td rowspan="1" colspan="1" style="text-align:center;"><strong>Takt (Turbo)</strong></td>

<td rowspan="1" colspan="1" style="text-align:center;"><strong>GPU</strong><br>
Radeon ...</td>

<td rowspan="1" colspan="1" style="text-align:center;"><strong>Shader-</strong><br>
<strong>Cores</strong></td>

<td rowspan="1" colspan="1" style="text-align:center;"><strong>GPU-</strong><br>
<strong>Takt</strong></td>

<td rowspan="1" colspan="1" style="text-align:center;"><strong>TDP</strong><br>
(Watt)</td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A10-5750M</td>

<td rowspan="1" colspan="1" style="text-align:center;">4</td>

<td rowspan="1" colspan="1" style="text-align:right;">2,5 (3,5) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 8650G</td>

<td rowspan="1" colspan="1" style="text-align:center;">384</td>

<td rowspan="1" colspan="1" style="text-align:right;">533 (720) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W<br>
</td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A8-5550M</td>

<td rowspan="1" colspan="1" style="text-align:center;">4</td>

<td rowspan="1" colspan="1" style="text-align:right;">2,1 (3,1) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 8550G</td>

<td rowspan="1" colspan="1" style="text-align:center;">256</td>

<td rowspan="1" colspan="1" style="text-align:right;">515 (720) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W</td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A6-5350M</td>

<td rowspan="1" colspan="1" style="text-align:center;">2</td>

<td rowspan="1" colspan="1" style="text-align:right;">2,9 (3,5) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 8450G</td>

<td rowspan="1" colspan="1" style="text-align:center;">192</td>

<td rowspan="1" colspan="1" style="text-align:right;">533 (720) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W</td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A4-5150M</td>

<td rowspan="1" colspan="1" style="text-align:center;">2</td>

<td rowspan="1" colspan="1" style="text-align:right;">2,7 (3,3) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 8350G</td>

<td rowspan="1" colspan="1" style="text-align:center;">128</td>

<td rowspan="1" colspan="1" style="text-align:right;">514 (720) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W</td>
</tr><tr>
<td rowspan="1" colspan="7" style="text-align:left;"><strong>zum Vergleich: Trinity (32 nm, Piledriver)</strong></td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A10-4600M</td>

<td rowspan="1" colspan="1" style="text-align:center;">4</td>

<td rowspan="1" colspan="1" style="text-align:right;">2,3 (3,2) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 7660G</td>

<td rowspan="1" colspan="1" style="text-align:center;">384</td>

<td rowspan="1" colspan="1" style="text-align:right;">496 (685) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W</td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A8-4500M</td>

<td rowspan="1" colspan="1" style="text-align:center;">4</td>

<td rowspan="1" colspan="1" style="text-align:right;">1,9 (2,8 ) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 7640G</td>

<td rowspan="1" colspan="1" style="text-align:center;">256</td>

<td rowspan="1" colspan="1" style="text-align:right;">496 (685) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W</td>
</tr><tr>
<td rowspan="1" colspan="1" style="text-align:right;">A6-4400M</td>

<td rowspan="1" colspan="1" style="text-align:center;">2</td>

<td rowspan="1" colspan="1" style="text-align:right;">2,7 (3,2) GHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">HD 7520G</td>

<td rowspan="1" colspan="1" style="text-align:center;">192</td>

<td rowspan="1" colspan="1" style="text-align:right;">496 (685) MHz</td>

<td rowspan="1" colspan="1" style="text-align:right;">35 W</td>
</tr></table>


maximale Shader Cores: 384 und alles VOR der GCN Generation, selbst bei den allerneuesten Richlands mit Piledriver CPU Cores.

Also ich bleibe bei der Aussage, das war eher unterste Mittelklasse, wobei die PS4 APU wohl eher höchste Mittelklasse bis mittlere Oberklasse einzuklassifizieren wäre.
 
Zuletzt bearbeitet:
Ist doch gut, dass da ne Menge AMD drinsteckt?! Ist es? Ist es??

*admin* *attacke*
http://www.gamespot.com/news/ps4-not-worth-the-cost-says-nvidia-6405300

jetzt kann man sich fragen, inwiefern das die reaktion einer beleidigten leberwurst ist oder inwiefern dort doch ein fünkchen wahrheit drinsteckt. sony ist ein finanziell stark angeschlagener konzern und da ist es imho nicht ganz unwahrscheinlich, dass sony tatsächlich hoch gepokert und versucht hat, die kosten möglichst gering zu halten. und mit amd hat man einen nicht weniger angeschlagenen partner, der diesen deal wirklich gut gebrauchen konnte.

allerdings gibts da auch noch microsoft. da dürfte der preis wohl eher eine untergeordnete rolle spielen. mag sein, dass sich der verzicht für nvidia strategisch auszahlen mag. aber viele beobachter mutmaßen, dass microsoft als großer gewinner bei next-gen-konsolen hervorgehen könnte. so oder so ist nvidia bei den medienzentralen im wohnzimmer (und dahin entwickeln sich die konsolen) erstmal komplett außen vor. und wenn dann auch noch die entwickler sich mehr und mehr auf amd einstellen, kann das für amd in diesem punkt nur von vorteil sein. hoffentlich zahlt es sich auch langfristig aus.
 
http://www.gamespot.com/news/ps4-not-worth-the-cost-says-nvidia-6405300

jetzt kann man sich fragen, inwiefern das die reaktion einer beleidigten leberwurst ist oder inwiefern dort doch ein fünkchen wahrheit drinsteckt.

NVs Marketing funktioniert offensichtlich immer noch hervorragend. NV hat keine x86 Lizenz, ARM-Kerne mit denen selbst ein AthlonII den Boden wischen würde, Treiber die sofort das Handtuch werfen wenn ihnen der eigentlich standardkonforme Code nicht extra nocheinmal mit viel Liebe aufpoliert serviert wird und Chips die wahlweise aus Holz sind oder nur teilweise dem Standard entsprechen. NV war also in keinster Weise konkurrenzfähig.

sony ist ein finanziell stark angeschlagener konzern und da ist es imho nicht ganz unwahrscheinlich, dass sony tatsächlich hoch gepokert und versucht hat, die kosten möglichst gering zu halten. und mit amd hat man einen nicht weniger angeschlagenen partner, der diesen deal wirklich gut gebrauchen konnte.

Gerade weil AMD angeschlagen war konnte AMD einen Deal ohne Gewinn brauchen wie Dünnschiss ohne Klopapier. NV könnte sich einen Auftrag fürs Prestige jederzeit leisten(*), AMD nicht.

(*) und ist gerade dabei sein Geld in eine eigene Spielekonsole zu investieren die ziemlich sicher als Totgeburt endet.
 
Nvidia konnte doch gar nicht das liefern was Sony wollte. APU-Ähnlich haben die nur ihre Tegras, due CPU-Seitig nicht genug Power haben. Sony hätte also nur eine GPU-Architektur bei denen lizenziert, was natürlich nicht viel Kohle bringt wie ein kompletter Chip.
Bei Sony mag einiges nicht optimal laufen, aber die Finanzkraft ist immernoch da. Aber das hat gar nichts damit zu tun, denn bezaheln wollen alle keinen Cent zu viel. Guck dir doch allein mal Apple an. Mehrere Milliarden $ auf der hohen Kante, aber das nächste iPhone soll mit einer Verpackung kommen, die man zu einem akustischen Schallkörper umfunktionieren kann, damit Apple die 3c Entsorgungskosten in Kanada nicht zahlnen müssen, ist ja keine Verpackung mehr :]
 
Nvidia konnte doch gar nicht das liefern was Sony wollte.
warum haben sie dann mit nvidia verhandelt?

Bei Sony mag einiges nicht optimal laufen, aber die Finanzkraft ist immernoch da.
sony schreibt seit fast 5 jahren ununterbrochen rote zahlen. viele marktbeobachter sehen in der ps4 einen letzten strohhalm für eine nachhaltige trendwende.

geschäftsjahr 2008 = 1 milliarde us-dollar verlust
geschäftsjahr 2009 = 437 millionen us-dollar verlust
geschäftsjahr 2010 = 3,13 milliarden us-dollar verlust
geschäftsjahr 2011 = 5,51 milliarden us-dollar verlust
fiskalisches q1-2012 = 309 millionen us-dollar verlust
fiskalisches q2-2012 = 199 millionen us-dollar verlust
fiskalisches q3-2012 = 125 millionen us-dollar verlust

und zuletzt haben sie ähnlich wie amd angefangen, ihre immobilien zu versilbern.

http://www.spiegel.de/wirtschaft/un...verkauft-firmensitz-in-new-york-a-878336.html

für sony ist ein erfolg der ps4 elementar wichtig, sonst werden sie früher oder später weiteres tafelsilber in form von lukrativen unternehmensteilen verscherbeln müssen.

NVs Marketing funktioniert offensichtlich immer noch hervorragend. NV hat keine x86 Lizenz, ARM-Kerne mit denen selbst ein AthlonII den Boden wischen würde, Treiber die sofort das Handtuch werfen wenn ihnen der eigentlich standardkonforme Code nicht extra nocheinmal mit viel Liebe aufpoliert serviert wird und Chips die wahlweise aus Holz sind oder nur teilweise dem Standard entsprechen. NV war also in keinster Weise konkurrenzfähig.
dann noch mal ... worüber haben sony und nvidia dann verhandelt? ist es denn in stein gemeißelt, dass sony von anfang an mit einer apu geplant hat? ich kann das nicht beurteilen, ich glaube aber nvidia schon, dass sie tatsächlich mit sony gesprochen haben, sonst würde eine solche aussage doch nicht von sony unwidersprochen bleiben. ob das nun alibi-verhandlungen waren, um andere potentielle partner unter druck zu setzten oder weiß der geier. abgesehen davon gibt es mehr als einen x86-lizenznehmer. vielleicht hat sony ja mit einem geheimen via-prozessor geplant. *buck*
 
Ich weiß dass Sony verluste macht, aber das heißt nicht, dass die für die Chips weniger zahlen als MS. Beide werden nur so wenig wie möglich bezahlen wollen.

Mit NV hat Sony vermutlich nur über eine GPU-Lizenz verhandelt. Den Rest hätte man wo anders herbekommen und irgendjemand hätte es gefertigt. Möglich wäre IBM gewesen, wie dem Xenon in der Xbox 360. Ich gehe daher davon aus, dass AMD mehr Geld bekommt, die liefern immerhin alles aus einer Hand. Klar wird auch hier fremdgefertigt, aber AMD nimmt nicht nur das Risiko des Chips auf sich, sondern eben auch die Gelder für integration, design und producement.
 
Zurück
Oben Unten