AMD: "IBMs Cell-Prozessor läuft in die Itanium-Falle"

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
ZDNET hat auf der CeBIT ein Interview mit Jochen Polster, Geschäftsführer von AMD Deutschland, <a href="http://www.zdnet.de/itmanager/unternehmen/0,39023441,39131623,00.htm" target="b">geführt</a>.

Gesprächsthema waren ausser dem Cell, unter anderem Dell, Turion für den Desktop, die Virtualisierungstechnik Pacifica und die Marktstellung von AMD in Deutschland.
 
nun ja, Jochen Polster hat ja den Desktop Markt im Auge.

Bei Games, zukünftige Consumer Elektronik und Servern sieht es anders aus.

Auch - der Cell ist eher ein $30-$75 Produkte, da spielt der Itanium doch wo ganz anders.

AMD muss den Cell im Auge halten. Besonders die SPUs sind eben jeder SSE weit überlegen (durch ihre 'begrenzte' freie Programmierbarkeit) und bringen DSP-Fähigkeiten geballt in den Mainstream-Markt.
Sowas in Bonsai hat AMD ja selbst gestartet -
per Alchemy Au1500. Daher, die DSP-Zusatzfähigkeiten sind sicherlich in der Zukunft sehr gefragt.

Wobei Intel hier weniger betroffen ist als AMD. Der typische Dell Industriekunde brauch weder SPUs noch DSP-Fähigkeiten.
Der muss PCs ersetzen, die steuerlich abgeschrieben sind und deren potentielle Reparaturbedürftigkeit eine Neuanschaffung sinnvoll machen. Und die IT benötigt noch ein Argument, daß der PC auch schneller ist. Also echte 3 GHz im Celeron D - obwohl ein Tualatin Celeron 1,3 genauso schnell wäre.
 
Du meinst der Cell wird nicht mehr als 75Dollar kosten? Wie soll das denn erreicht werden? Ich meine, das ist ein von der Fläche her riesiger Chip, mit 8 physikalischen Recheneinheiten und einem recht großen Cache! Und das noch bei einem hohen Takt!
 
Nun, diese "Itanium-Falle" in Form der Nicht-x86-Kompatibilität tut sich ja nur auf, wenn IBM versucht, normale PCs damit zu bauen. Aber da der erstmal "nur" in einer Spielekonsole landen wird (und vielleicht in einigen speziellen Nischenanwendungen), stellt sich das Problem ja nicht. Natürlich könnte IBM auch größere Teile der Cell-Architektur benutzen und einen x86-kompatiblen Prozessor bauen, wenn sie das vorhätten - aber wollen sie das überhaupt?
 
Nun zum Itanium sind da geringfügige Unterschiede.

Zum einen baut der Cell auf Bibliotheken vom PowerPC auf, wenn auch nicht ganz binärkompatibel.

Zum anderen ist mit der Konsolenplattform auch schon für eine gewisse Massenverbreiterung gesorgt. Dank modularer Bauweise, kann die Prozessorarchitektur auch skalieren.

Was den Cell aber zurückhält ist die ganz spezielle Architektur (sie ist nun mal nicht so weit verbreitet wie x86) und die Rambusbestandteile. Interner CPU Bus und Speicherinterface basieren auf einen RAMBUS-Standard ... da muss das Gesamtpaket zusammen sehr billig sein um vom Markt aktzeptiert zu werden.

Da aber IBM und Co hier einen Massenmarkt anstreben, hat der Cell schon das Potential für eine neue Konkurrenz neben anderen Etablierten.
Natürlich könnte IBM auch größere Teile der Cell-Architektur benutzen und einen x86-kompatiblen Prozessor bauen, wenn sie das vorhätten - aber wollen sie das überhaupt?
Halte ich auch für reichlich sinnbefreit darauf x86 emulieren zu lassen. Ausserdem hat IBM ja die PowerPC-Architektur ... die ist ja auch leistungsfähig. Damit haben sie ja auch schon länger ein eigenes Reich geschaffen (Mac und UNIX).

MFG Bokill
 
Original geschrieben von Bokill
Nun zum Itanium sind da geringfügige Unterschiede.

Zum einen baut der Cell auf Bibliotheken vom PowerPC auf, wenn auch nicht ganz binärkompatibel.

Zum anderen ist mit der Konsolenplattform auch schon für eine gewisse Massenverbreiterung gesorgt. Dank modularer Bauweise, kann die Prozessorarchitektur auch skalieren.
Der Vergleich mit dem Itanium bezog sich nicht auf den angestrebten Markt, sondern auf die Tatsache, dass Cell wie der Itanium eine neue Prozessor "Gattung" (mir fällt im Moment kein besserer Ausdruck ein) darstellt, für die heute keine einzige Software existiert, wie einst für den Itanium.

Auch wenn der Cell auf einem PowerPC basiert, (IMO könnte der PPC sogar irgendwelchen Mac Code ausführen) so geht es zwischen den heute üblichen PPCs und dem Cell einen enormen Unterschied: normale PPCs sind Out of Order, CELL ist in Order. D.h. das was kompatibel ist, könnte er ausführen, aber nur enorm langsam, weil er ständig warten muss, weil er eben nicht out of order irgend welche unabhängigen Befehle abarbeiten kann. Und genau dafür braucht man (AFAIK wie beim Itanium) enorm gute Compiler, die den Code so optimieren, dass die CPU nicht wartet. Gleiches gilt für die SPUs, die eben auch in order arbeiten. (Bei denen ergibt sich dich den Local Memory noch eine ganz andere Herausforderung an die Compiler, weil dieser im Gegensatz zu Cache vom prozessor nicht selbst verwaltet wird.)

Dabei ist es IMO doch sehr interessant, dass es der Compilerspezialist Intel mit dem ebenfalls massiv parallelen Prozessordesign Itanium es nicht geschafft hat, einen Compiler zu entwickeln, der es dem Itanium ermöglicht, sein volles Potenzial zu nutzen. Das ist, zusammen mit der fehlenden Software, eben die von Jochen Polster erwähnte "Itanium-Falle". Man muss von vorne alles neu anfangen.
 
Original geschrieben von mtb][sledgehammer
Auch wenn der Cell auf einem PowerPC basiert, (IMO könnte der PPC sogar irgendwelchen Mac Code ausführen) so geht es zwischen den heute üblichen PPCs und dem Cell einen enormen Unterschied: normale PPCs sind Out of Order, CELL ist in Order. D.h. das was kompatibel ist, könnte er ausführen, aber nur enorm langsam, weil er ständig warten muss, weil er eben nicht out of order irgend welche unabhängigen Befehle abarbeiten kann. Und genau dafür braucht man (AFAIK wie beim Itanium) enorm gute Compiler, die den Code so optimieren, dass die CPU nicht wartet. Gleiches gilt für die SPUs, die eben auch in order arbeiten. (Bei denen ergibt sich dich den Local Memory noch eine ganz andere Herausforderung an die Compiler, weil dieser im Gegensatz zu Cache vom prozessor nicht selbst verwaltet wird.)

Nicht nur das, der Cell ist ein komplett anderes Programmierparadigma, eben das Cell-Paradigma. Das hat mit der herkömlichen imperativ-prozeduralen Programmierung nicht mehr viel zu tun.
Offenbar ist das ganze im Hype um den Cell auch untergegangen. Die Idee des Cell ist ja nicht neu, sondern in der Softwaretechnik schon recht alt. IBM/Sony/Toshiba schlachten jetzt nur den Namen Cell für ihre Implementierung aus. Prinzipiell könnte ein Cell-Prozessor auch auf x86, Mips, Sparc oder EPIC aufbauen.
 
ist einfach nur wie schon gesagt ne Software Frage, der Itanium an sich ist gar nicht so schlecht, aber wenn es keine Software gibt, dann,...

btw der Itanium ist bei Seti Classic im 64 Bit Mode nicht zu schlagen, ... wenn es denn die angepasste Sopftware gibt...

und die gibt es bei ganz weniger Software...

mfg
Sir Ulli
 
Original geschrieben von Sir Ulli
wenn es denn die angepasste Sopftware gibt...

Das Problem ist hier die in-Order-Architektur. Die ist nur sehr schwer zu beherrschen, von Menschen eigentlich überhaupt nicht, von Compilern so gut wie gar nicht. Dazu ist das Design viel zu komplex. Es wird wohl noch reichlich Zeit ins Land gehen, bis diese Architekturen (EPCI, Cell) ähnlich ausgereift sind, wie die heute verfügbaren (x86, Power, Mips, Alpha, Sparc, HPPA...).
 
Original geschrieben von PuckPoltergeist
Das Problem ist hier die in-Order-Architektur. Die ist nur sehr schwer zu beherrschen, von Menschen eigentlich überhaupt nicht, von Compilern so gut wie gar nicht. Dazu ist das Design viel zu komplex. Es wird wohl noch reichlich Zeit ins Land gehen, bis diese Architekturen (EPCI, Cell) ähnlich ausgereift sind, wie die heute verfügbaren (x86, Power, Mips, Alpha, Sparc, HPPA...).

finde den Link jetzt gerade nicht, weiss aber das die Itanium at SAH Classic mit dem 64 Bit Clienten die ersten unter 1:30 wahren...

also mit der richtigen Software bringt es doch was...

mfg
Sir Ulli
 
Seti ist in gewisser Weise ja auch auf den Itanium zugeschnitten (bzw. andersrum): Das Programm passt zum größten Teil in den Cache, ergo ist Speicherlatenz egal. Seti lässt sich hervorragend parallelisieren. Und Seti braucht viel FP Power, auch da kann der Itanium glänzen.
 
Original geschrieben von mtb][sledgehammer
Seti ist in gewisser Weise ja auch auf den Itanium zugeschnitten (bzw. andersrum): Das Programm passt zum größten Teil in den Cache, ergo ist Speicherlatenz egal. Seti lässt sich hervorragend parallelisieren. Und Seti braucht viel FP Power, auch da kann der Itanium glänzen.

wenn es denn so einfach wäre

http://www.planet3dnow.de/vbulletin/showthread.php3?s=&postid=2140237#post2140237

aber Seti ist nicht einfach....

Compiler etc spielen hier doch ne Grosse Rolle

mfg
Sir Ulli
 
Original geschrieben von PuckPoltergeist
Das Problem ist hier die in-Order-Architektur.
Was genau charakterisiert denn eine in-Order Architektur abgrenzend zur klassischen? bzw. warum sollte man es so machen?
 
Original geschrieben von t0bi`
Du meinst der Cell wird nicht mehr als 75Dollar kosten?
Wie soll das denn erreicht werden?
Ich meine, das ist ein von der Fläche her riesiger Chip, mit 8 physikalischen Recheneinheiten und einem recht großen Cache! Und das noch bei einem hohen Takt!
a) IBM/ Sony könne ja auf einige Jahre fixe Preise definieren.

b) Cell auf 300mm2 Wafer in 65nm (ca. 125 mm2) = 565 Stück je Wafer.
Yield rate mal pessimistisch auf 35%, also 200 Cell je Wafer. Waferkosten ca. $1.000, Chemie etc, nochmals $2000.
Ergeben $15 netto je Cell.

c) Mal 200 Mill. Cell angenommen innerhalb von 3-4 Jahren und rechnerisch von zwei Fab à $2.5 Milliarden gesprochen zzgl. nochmals $2.5 Milliarden Entwicklungskosten ergibt $7.5 Milliarden zzgl. 1 Mill. Wafer à 3.000 Dollar = $3 Millarden. In Summe $10.5 Millarden Gesamtkosten oder $53 je Cell.
(200 Mill. Cell benötigen 1 Mill. Wafer, etwa 5 Jahresproduktionen zweier 300 mm Fabs).

d) $75 (ex Steuer) und 200 Mill. Stück würden $15 Milliarden Umsatz oder Kosten für Sony & Co. bedeuten, aber 'nur' $10,5 Milliaden kosten = $4,5 Milliarden Gewinn in 5 Jahren.

e) Nachdem Sony ja selbst auch fertigt, dürfte man dort kaum
bereit sein, an IBM viel zu bezahlen. Auch innerhalb von sony dürften der Cell gekauft werden müssen, also die Fab eben auch kalkulatorisch Gewinn daraus erzielen wollen (= Stichwort Umsatzrendite).


Die 'hohen' Taktraten sind relativ. Wir haben uns an 'Netburst' Celerone nahe 3 GHz und unter $100 gewöhnt.
Für den Cell in 65nm sind eben 4 GHz ein 'Budget' Takt.
Man muss eben die Intel-Brille absetzen und einfach technisch 'DSL'-SOI-90nm und ein taktoptimiertes Design (= weiter entwickelt wie Netburst) betrachten.

Die 4 GHz sind für IBM/Sony und Cell einfach ein Normalwert.
 
Was genau charakterisiert denn eine in-Order Architektur abgrenzend zur klassischen? bzw. warum sollte man es so machen?
Eigentlich ist das klassische Konzept die In-Order-Architektur. Das heißt ganz einfach, die Befehle werden in genau der Reihenfolge abgearbeitet, wie sie im Code stehen. Sieht der Code nun folgendermaßen aus:
Code:
1.  LD R10, R11
2.  ADD R5, R10, R10
3.  ADD R9, R9, #1
4.  ...
Dann muss der Prozessor warten bis die Daten aus R11 in R10 geladen sind, bevor er den zweiten Befehl abarbeiten kann, da dessen Ergebnis vom Inhalt von r10 abhängt.

Out-of-order heißt, dass der Prozessor in obigem Beispiel in der Wartezeit einfach mal den 3. Befehl bearbeitet, der vom 1. und 2. unabhängig ist, mit dem Ergbenis, dass der Prozessor die Wartezeit sinnvoll anders nutzt. Dieses Verfahren benötigt logischerweise einen gewissen Mehraufwand beim Abarbeiten des Code.

Cell nutzt wieder das alte Konzept und ist somit darauf angewisen, dass der Compiler den Code so optimiert, wie es eine Out-of-order CPU selber getan hätte.
 
Stimmt, da hatte ich doch schonmal was von gehört :)

Allerdings wenn eine CPU sowas eben vor dem ausführen noch erledigt, sollten diese Optimierungen doch nicht so schwer im Compiler zu realisieren zu sein, oder?
 
Da gibt es dann ein weiteres Problem: die CPU kann solange out of order Befehle nachschieben, bis der Ladebefehl erledigt ist. Der Compiler weiß im Falle des PPC Kern des Cell jedoch nicht, wann dass der Fall ist, weil der Compiler nicht weiß, ob sich die Daten im L1 oder L2 Cache oder im RAM befinden. Bei den SPUs ist das aufgrund des Local Memory Konzepts besser zu lösen, weil der Compiler dann weiß, wo sich die Daten befinden. Allerdings bekommt er dann zsätzlich die Aufgabe, den Local Memory zu optimieren, falls dessen Größe von 256 KB nicht ausreichen.

Das ganze ist hier ganz nett beschrieben
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2379&p=1
 
Original geschrieben von rkinet
c) Mal 200 Mill. Cell angenommen innerhalb von 3-4 Jahren und rechnerisch von zwei Fab à $2.5 Milliarden gesprochen zzgl. nochmals $2.5 Milliarden Entwicklungskosten ergibt $7.5 Milliarden zzgl. 1 Mill. Wafer à 3.000 Dollar = $3 Millarden. In Summe $10.5 Millarden Gesamtkosten oder $53 je Cell.
Womit schonmal deine erste Behauptung selbst widerlegt wäre ( "Auch - der Cell ist eher ein $30-$75 Produkte" )

Und dann rechnest du noch solche Dinge wie Mitarbeiter, Transport, Assembling, Energie mit, was widerrum ein paar Dollar ausmacht.

Vom Gewinn ziehst du zusätzlich ein paar Steuern ab.
 
Original geschrieben von Sir Ulli
finde den Link jetzt gerade nicht, weiss aber das die Itanium at SAH Classic mit dem 64 Bit Clienten die ersten unter 1:30 wahren...

also mit der richtigen Software bringt es doch was...

Ich sage ja nicht, dass Itanium oder Cell schlecht sind, ganz im Gegenteil. Ich sage lediglich, dass diese Architekturen bei der Softwareentwicklung eine enorme Komplexität aufweisen, die (noch) nicht beherrscht wird. Bei den alten Architekturen, wie insbesondere x86, gibt es sehr viele Erfahrungswerte, die es erlauben diese Konzepte weiter zu verfeinern. Somit kommen diese Architekturen bei der Sprungvorhersage mittlerweile nahezu an die 100% Genauigkeit heran. Sowas fehlt bei EPIC einfach noch, und es wird Jahre, wenn nich Jahrzehnte dauern, bis man dort einen vergleichbaren Erfahrungsschatz aufgebaut hat.
 
Original geschrieben von rkinet
a) IBM/ Sony könne ja auf einige Jahre fixe Preise definieren.

b) Cell auf 300mm2 Wafer in 65nm (ca. 125 mm2) = 565 Stück je Wafer.
Yield rate mal pessimistisch auf 35%, also 200 Cell je Wafer. Waferkosten ca. $1.000, Chemie etc, nochmals $2000.
Ergeben $15 netto je Cell.

c) Mal 200 Mill. Cell angenommen innerhalb von 3-4 Jahren und rechnerisch von zwei Fab à $2.5 Milliarden gesprochen zzgl. nochmals $2.5 Milliarden Entwicklungskosten ergibt $7.5 Milliarden zzgl. 1 Mill. Wafer à 3.000 Dollar = $3 Millarden. In Summe $10.5 Millarden Gesamtkosten oder $53 je Cell.
(200 Mill. Cell benötigen 1 Mill. Wafer, etwa 5 Jahresproduktionen zweier 300 mm Fabs).

d) $75 (ex Steuer) und 200 Mill. Stück würden $15 Milliarden Umsatz oder Kosten für Sony & Co. bedeuten, aber 'nur' $10,5 Milliaden kosten = $4,5 Milliarden Gewinn in 5 Jahren.

e) Nachdem Sony ja selbst auch fertigt, dürfte man dort kaum
bereit sein, an IBM viel zu bezahlen. Auch innerhalb von sony dürften der Cell gekauft werden müssen, also die Fab eben auch kalkulatorisch Gewinn daraus erzielen wollen (= Stichwort Umsatzrendite).


Die 'hohen' Taktraten sind relativ. Wir haben uns an 'Netburst' Celerone nahe 3 GHz und unter $100 gewöhnt.
Für den Cell in 65nm sind eben 4 GHz ein 'Budget' Takt.
Man muss eben die Intel-Brille absetzen und einfach technisch 'DSL'-SOI-90nm und ein taktoptimiertes Design (= weiter entwickelt wie Netburst) betrachten.

Die 4 GHz sind für IBM/Sony und Cell einfach ein Normalwert.

Viel kann ich da leider nicht mitreden, kann mich nur auf deine Aussage verlassen, ABER sollte der Cell floppen und sich die PS3 schlecht verkaufen lassen, macht IBM ja einen RIESENverlust! Und glaubst du wirklich dass IBM dann schon in 65nm fertigen kann? Und 3ghz sind natürlich eine nur relativ hohe Frequenz. Mit der müssen aber gleich mehrere Teile in der CPU laufen. Und naja, vielleicht ist die Fertigung bei Intel ja nicht so toll, aber die mussten die Pipeline ja auch endlos verlängern um über die 3ghz zu kommen.

Ich glaube nämlich, dass die PS3 sogar teurer sein wird wie die PS2 am Anfang und dass dieser Preis nicht großartig sinken wird => wenige werden sich das Teil kaufen. Die Performance wird imo auch kein Quantensprung sein... Ich tippe ganz stark darauf, dass ein A64 bei gleichem Takt mehr Performance bringt... Naja bei Konsolen wird man diese brachiale Rechenleistung auch nicht brauchen.
 
Original geschrieben von t0bi`
Viel kann ich da leider nicht mitreden, kann mich nur auf deine Aussage verlassen,

Tu es besser nicht.


ABER sollte der Cell floppen und sich die PS3 schlecht verkaufen lassen, macht IBM ja einen RIESENverlust!

Zum einen ist der Cell nicht nur für die PS3 gedacht, der soll in etliche andere Consumergeräte wandern. Zum anderen kann es natürlich auch immer einen Flopp geben. Davor ist niemand sicher, nicht mal IBM.


Und glaubst du wirklich dass IBM dann schon in 65nm fertigen kann?

Noch nicht, aber bis zum Erscheinen des Cell wird wohl auch noch etwas Zeit ins Land gehen.


Und 3ghz sind natürlich eine nur relativ hohe Frequenz. Mit der müssen aber gleich mehrere Teile in der CPU laufen. Und naja, vielleicht ist die Fertigung bei Intel ja nicht so toll, aber die mussten die Pipeline ja auch endlos verlängern um über die 3ghz zu kommen.

Dafür sind die einzelnen Funktionseinheiten beim Cell aber auch sehr einfach gestrickt, viel einfacher, als z.B. die des P4.


Ich glaube nämlich, dass die PS3 sogar teurer sein wird wie die PS2 am Anfang und dass dieser Preis nicht großartig sinken wird => wenige werden sich das Teil kaufen.

Wie schon geschrieben, das Teil soll nicht nur in die PS2 wandern. Damit ließe sich allein auf Grund der Menge der Preis drücken. Außerdem können es sich sowohl IBM, als auch Sony und Toschiba leisten, das ganze erstmal als Verlustgeschäft laufen zu lassen.


Die Performance wird imo auch kein Quantensprung sein... Ich tippe ganz stark darauf, dass ein A64 bei gleichem Takt mehr Performance bringt... Naja bei Konsolen wird man diese brachiale Rechenleistung auch nicht brauchen.

Da kommt es immer auf das Anwendungsgebiet an. Aber dazu gibt es schon einen ellenlangen Thread im CPU-Forum.
 
@rkinet das ist ja mal ne interessante milchmädchenrechnung ........., zinsen für fremdkapital?;löhne gehälter für unproduktive personen?;(für produktive hat der gute sledge ja schon eingerechnet); marketing etc etc etc , zumal ich auch nicht weiss wo du die preise für die rohmaterialien her hast aber wenn du die so selbstbewusst vorträgst nehme ich mal an du hast schon irgendwelche richtigen quellen, nur leider ist es halt nicht mit bisschen gebäude und bisschen rohmaterial getan.

Wenn ich mich recht erinnere hast du nichtmal entwicklungskosten drin oder? (habe derzeit 39.xx fieber vergesse schon 2 minuten nachdem ich etwas gelesen habe was das war ;)) "edit" doch sind drin habe es nochmal schnell nachgelesen um zu testen ob ich irre bin ;) "edit ende"

möglich ist natürlich das du die kosten schon alle umgelegt hast aber mal im ernst ..... das glaube ich gerade nicht
 
Man kann auch anders rechnen ... wenn IBM die PowerPC Architektur populärer machen will (auch wenn der Cell ein abweichendes Design hat) könnten anfängliche Verluste einkalkuliert sein.

@mtb][sledgehammer
dass Cell wie der Itanium eine neue Prozessor "Gattung" ... darstellt, für die heute keine einzige Software existiert, wie einst für den Itanium.

Auch wenn der Cell auf einem PowerPC basiert, ... so geht es zwischen den heute üblichen PPCs und dem Cell einen enormen Unterschied:
normale PPCs sind Out of Order, CELL ist in Order. D.h. das was kompatibel ist, könnte er ausführen, aber nur enorm langsam, weil er ständig warten muss, weil er eben nicht out of order irgend welche unabhängigen Befehle abarbeiten kann. Und genau dafür braucht man (AFAIK wie beim Itanium) enorm gute Compiler, die den Code so optimieren, dass die CPU nicht wartet. Gleiches gilt für die SPUs, die eben auch in order arbeiten. Bei denen (SPU) ergibt sich durch den Local Memory noch eine ganz andere Herausforderung an die Compiler, weil dieser im Gegensatz zum Cache vom prozessor nicht selbst verwaltet wird.)

Alles richtig. Aber im Unterschied zum Itanium sind da eben doch gewisse Erfahrungsgrundlagen vorhanden. Die ersten PowerPC waren ja auch keine Out of Order Monster.
Mit dem Cell geht man gleichsam einen Schritt zurück, in der Hoffnung durch ein anderes Programmierparadigma, um 2 Schritte zu gewinnen.
Bei kommenden Multicorearchitekturen (Rock/Niagara, K8 etct.) ist es gar nicht mal so abwegig Vielfachkerne am arbeiten zu haben, auch nicht als ausgesprochnene Streamingprozessoren ... für TV/Videokonsolen und Netzwerkprozessoren könnte das Konzept gut klappen. Als FPU-Numbercruncher habe ich da aber auch so gewisse Zweifel, manches lässt sich schwer Parallelisieren, bzw. Vektorisieren.

Was die Verbreitung angeht, so hat IBM ja vor kurzem das PowerPC Modell (ähnlich dem SPARC) einem breiteren Entwicklerkreis zur Verfügung gestellt. Ob da ein eigenständiges Konsortium daraus geworden ist, ähnlich dem SPARC Konsortium, oder dem Hypertransportkonsortium ... da bin ich mir im Unklaren. Seit einiger Zeit stellt IBM aber so manches offen zur Verfügung.

MFG Bokill
 
Zuletzt bearbeitet:
Original geschrieben von Bokill
Man kann auch anders rechnen ... wenn IBM die PowerPC Architektur populärer machen will (auch wenn der Cell ein abweichendes Design hat) könnten anfängliche Verluste einkalkuliert sein.

Glaube ich eher weniger, weil das Einzige, was sie damit erreichen ist, dass sich der PPC herumspricht. Cell und PPC sind ja nicht binärkompatibel. Selbst auf Quellcode-Ebene bestehen da meiner Meinung nach erhebliche Unterschiede (verwendete Algorithmen).


In einem anderen (lieber nicht nennbaren unleserlichen) P3D Thread wird ja auch verwiesen, dass der Cell spezielle Compiler braucht. Die Grundlagen entstammen aber alle aus dem PowerPC Design, auch die SIMD-Einheiten.

Wenn du die SIMD-Einheit der PPE meinst, stimmt das irgendwo. Bei den SPEs stimmt es nicht. Die haben mit AltiVec & Co. außer vielleicht dem Zweck so ziemlich gar nichts gemein.
 
So weit ich Anand und Arstechnica verstanden habe sind die SPEs verwandt (aber eben nicht identisch) mit Altivec ... ich habe aber in keiner Zeile gesagt, dass Cell und PowerPC binärkompatibel sind.

Hätte ich sicher geschrieben, wenn sie das wären. Der Vorteil gegenüber EPIC ist, dass sozusagen einzelne Codesequenzen schon recht gut erforscht sind ... weil eben ältere Power-Designs bekannt sind. Die hohe Kunst besteht darin , den Cell gleichmässig effezient auszulasten (es sei denn man nimmt in kauf, dass nicht alles ausgelastet wird ... bleibt dann ja auch kühler).

MFG Bokill
 
Zurück
Oben Unten