Gerücht AMDs Fusion in 22nm?

User-News

Von S.I.

Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.
Da intel mit Clarksdale/Arrandale (CPU+GPU on Chip) Anfang 2010 auf den Markt stoßen will, ist AMD bedrängt mit Fusion nachzuziehen.
Angekündigt ist so etwas von AMD mit "Fusion" ja schon etwas länger, doch scheint es nicht ganz so einfach umsetzbar. Einige Versuche in 45nm wurden bereits abgebrochen. Die Hoffnung nennt sich nun 22nm, womit AMD jedoch weiter in Verzug käme, da dies für Q2 1012 geplant wäre....
Lt. Fuzilla steht die Chance jedoch nicht schlecht, dies auch mit 32nm zu schaffen und somit doch schon in Q2/2010 vorzustellen.
http://www.fudzilla.com/content/view/14792/1/

ach ja, Fusion soll übrigens in "Swift" umbenannt werden, weis der Geier warum *chatt*
 
Zuletzt bearbeitet:
Wobei Fudzilla unterscheidet in AMDs Fusion-Lösungen, welche alles auf einem Chip integrieren (22 nm) und den Schritt mit zwei Dice auf gemeinsamen Chipträger* (32 nm).

Intel macht das mit ihrem ersten integrierten Produkt auch nicht anders. Da wird vermutlich ein Grafikkern in 45 nm auf einem Chipträger zusammen mit einem Prozessor in 32 nm verlötet.

MFG Bobo(2009)


* = In diesem Falle wird dies auch gerne als "MCM" (Multi Chip Module) bezeichnet.
 
Ich weiß gar nicht, wo das Problem ist. Die integrierte Grafik in den aktuellen Chipsätzen verbraucht 4W (laut einer Folie letztens, Unterschied von Northbridge mit und ohne IGP), besonders groß dürfte das auch nicht sein. Das neben einen Regor und fertig (meinetwegen als MCM). Rein von Wärmeverbrauch und Diefläche her betrachtet sehe ich da kein Problem; wenn sie das also noch nicht machen, liegt es an was anderem.
 
@S.I. ich nehme an Du meintest 2012.

Danke für die Gerüchteküche ;)

Grüße
Christian
 
Wozu soll dass bitte gut sein? Ok man spart etwas Platz auf dem MB mehr nicht. Was ist wenn eine Komponente kaputt geht? Ich war nie ein Freund von Kompaktanlagen im HIFI bereich aus gleichem Grund, geht was in Arsch Baustein austauschen fertig. Diese Lösung ist doch nur was für 08/15 Billig Office PCs sonst nix, da verdient man weder großes Geld und sonst was. AMD sollte sich besser auf seine CPU konzentrieren und da mal zu Intel aufholen anstatt Geld für so ein Nonsens rauszuschmeißen. Fusion? Pff dinge die kein Mensch braucht.

mfg
 
Wozu soll dass bitte gut sein? Ok man spart etwas Platz auf dem MB mehr nicht. Was ist wenn eine Komponente kaputt geht? Ich war nie ein Freund von Kompaktanlagen im HIFI bereich aus gleichem Grund, geht was in Arsch Baustein austauschen fertig. Diese Lösung ist doch nur was für 08/15 Billig Office PCs sonst nix, da verdient man weder großes Geld und sonst was. AMD sollte sich besser auf seine CPU konzentrieren und da mal zu Intel aufholen anstatt Geld für so ein Nonsens rauszuschmeißen. Fusion? Pff dinge die kein Mensch braucht.

mfg

In der Hinsicht kann man geteilter Meinung sein und ich würde sagen Platzersparnis ist nur ein Vorteil der sich daraus ergibt. Vielmehr sind die kurzen Signalwege ein Grund in diese Richtung zu gehen. Sogesehen ist das Beispiel mit der Austauschbarkeit von Komponenten in Audioanlagen nicht gerade günstig, denn die spielen in einer ganz anderen Liga was den Frequenzbereich angeht.
Dieser Tage habe ich die Daten von PCIe 3.0 gesehen und dort wurde der Takt um 2GHz von 10GHz auf 8GHz heruntergenommen, da der Stromverbrauch exponentiell mit der Frequenz ansteigt.
Was ich damit sagen will, die Datenraten zwischen Grafikeinheit und CPU werden in Zukunft sicher nicht abnehmen, was einen sehr schnellen Bus braucht. Günstigerweise sollten aber die Signalwege sehr kurz sein, da man sich sonst Antennen mit ner guten Abstrahlleistung baut und wo hinten kein Signal mehr ankommt... und genau das will man mit dem Fusion vermeiden - nur leider scheint das aktuell nicht so ganz zu klappen.

Ich gebe zu das die Austauschbarkeit dann weiter flöten geht und das auch die Ausfallraten mit steigenden Bauteilzahlen weiter steigen wird (dieses Verhalten ist ja schließlich kein Geheimnis...), aber ob es nur eine Billiglösung wird, bleibt eher abzuwarten, denn das kann heute noch keiner sagen... oder aber die Glaskugel hat besondere Fähigkeiten.
In der Hinsicht möchte ich mich auch nicht zu weit aus dem Fenster lehnen was in 3 Jahren alles passiert - vor allem nicht im Bereich Computerarchitektur.

P.S.: Hier noch der Link zu der Meldung zu PCIe 3.0 von elektroniknet
 
Zuletzt bearbeitet:
Wenn ich mir meine ATI HD4850 so ansehe wie soll die bitte in einen kleinen Chip passen? Dieser Fusselirrsinn ist doch nur für Netbooks, Office PCs und Billig Notebooks zu gebrauchen. Es wird niemals ein Hiend Fusion CPUGPU geben was nützt die Busstreckenverkleinerung wenn dafür wieder Shared RAM gibt? Was soll´n dass für ne CPU werden wenn die da noch 512MB Ram Cache basteln würden so wie bei K7SlotA von AMD in VHS größe oder wat? Grade dort wo der Fussel sinn macht verdient man kein Geld so einfach ist dat. Die Netbooks sind eine Modeerscheinung wie oft kamen schon Leute zu mir und sagten boa das Ding war´n Fehlkauf, damit kann man nix außer Surfen und Emailschreiben usw. Wann war AMD Profitabel, wenn die mit Intel mithalten konnten richtig, so extra Würschte wie FUSCHion können die sich eigentlich doch gar nicht mehr Leisten und auf Intel Only im CPU Bereich habe ich kein Bock!

mfg
 
Ich glaube weiter oben war auch die Rede von Strukturverkleinerungen. Es sagt ja auch niemand das die Siliziumscheiben ewig bei rund 200mm² für ne CPU bleiben. Was passiert wenn man eine CPU neben eine GPU setzt? Braucht man dann unbedingt 512MB Cache um 512 MB RAM auszugleichen? Wie leistungsfähig kann so eine Verbindung sein? Sollte die nur auf Level Netbook sein oder steckt da mehr dahinter...
Das sind alles Dinge die für uns halbwegs schwierig abzuschätzen sind und daher eigentlich indiskutabel sind. Wenn es auf niedrigem Niveau ist, dann hast du natürlich vollkommen recht, aber wer von uns beiden hat so weiten Einblick in die Technik... *malzurAbwechslungzumKaffeesatzschiel*

mfg Oberst


P.S.: Das Verunglimpfen der Bezeichnung Fusion hilft hier in keiner Weise.
 
Wenn ich mir meine ATI HD4850 so ansehe wie soll die bitte in einen kleinen Chip passen? Dieser Fusselirrsinn ist doch nur für Netbooks, Office PCs und Billig Notebooks zu gebrauchen. Es wird niemals ein Hiend Fusion CPUGPU geben was nützt die Busstreckenverkleinerung wenn dafür wieder Shared RAM gibt? Was soll´n dass für ne CPU werden wenn die da noch 512MB Ram Cache basteln würden so wie bei K7SlotA von AMD in VHS größe oder wat? Grade dort wo der Fussel sinn macht verdient man kein Geld so einfach ist dat. Die Netbooks sind eine Modeerscheinung wie oft kamen schon Leute zu mir und sagten boa das Ding war´n Fehlkauf, damit kann man nix außer Surfen und Emailschreiben usw. Wann war AMD Profitabel, wenn die mit Intel mithalten konnten richtig, so extra Würschte wie FUSCHion können die sich eigentlich doch gar nicht mehr Leisten und auf Intel Only im CPU Bereich habe ich kein Bock!

mfg

Nun das mit dem Fehlkauf trifft bestimmt auf einige Geräte zu.
Aber die Dinger werden ja auch immer leistungsfähiger.
Ich hatte mir (eigentlich nur zum Test) das ALDI E1312 quasi-Netbook gekauft, und dachte dass ich es wegen zu geringer Leistung und zu kleinem Display wieder zurückbringen würde. Ich bin bis heute von dem Teil begeistert.
Es macht alles was es soll, und ist dabei auch noch ultramobil.
Was die Gewinnmargen für die Hardwarehersteller angeht, so denke ich dass ist eher eine Frage der Marktpositionierung.
Ein Apple-Book kostet in der Herstellung auch nur einen Bruchteil, aber gutes Marketing und ein ordentliches Gesamtkonzept erlaubt es, das Teil im Hochpreissegment zu verkaufen.
 
Die erste Generation ist sicher nicht besonders leistungsfähig und eignet sich natürlich eher für Notebooks und Officerechner. Aber nur weil es nicht sofort etwas für den fetten Gam0r-PC ist, heißt das ja noch nicht, daß es eine Fehlentwicklung wäre. Ist ja als grundlegende, langfristige Weichenstellung vorgesehen.

Das Problem mit dem RAM muß aber gelöst werden, wenn man die Leistung steigern will. Der RAM auf einer Grafikkarte hat eben wesentlich mehr Bandbreite, und die braucht eine GPU auch. Eine Bandbreitensteigerung des allgemeinen System-RAMs wäre aber auch nicht ganz falsch.

Ich finde es nur wieder armselig, daß AMD sich die Butter vom Brot nehmen läßt. Vor einiger Zeit dachte man, AMD könnte damit mal Intel unter Druck setzen, aber nee, nun überholt Intel sie wieder locker und kann mit der ersten Generation Erfahrungen sammeln, Marktanteile sichern und Entwickler für sich einnehmen, bevor AMD auch irgendwann auf dem Markt ankommt.
 
Jungs, mal langsam. Wer sagt denn, dass AMD sich nicht Zeit lässt? Die Idee, zwei verschiedene Dies auf einen Prozessor draufzumachen, hatten sie ja schon vorher, nur wäre das wenig elegant und würde Leistung verschenken.

Aber warum - und das ist für mich die eigentliche Frage - sollten sie überhaupt Technologievorreiter sein? Stellt Euch mal vor, die hätten ein Jahr vor dem Intel Atom einen ähnlichen Chip mit gleicher Leistung rausgebracht, sagen wir einen aufgebohrten Geode. Die Fach-Presse hätte das Ding in der Luft zerrissen, und die Hersteller hätten müde abgewunken.

Nein, ich könnte mir gut vorstellen, dass sie es Intel überlassen, einen Markt zu schaffen, den sie später betreten. Einen Atom-Konkurrenten haben sie ja schon.
 
... P.S.: Hier noch der Link zu der Meldung zu PCIe 3.0 von elektroniknet
Das ist keine echte Neuerung. Schon 2007 war die PCI-Sig bereit alte Zöpfe bei PCI-Express in der Version 3.0 abzuschneiden.

Die Verdoppelung der Datenrate gegenüber der Version 2.0 erreicht man durch den Verzicht auf den 8b/10b-Layer.

Deinem Beitrag stimme ich ansonsten zu.

MFG Bobo(2009)
 
@7upMan: AMD muß deswegen Vorreiter sein, weil sie ihren Marktanteil ausbauen müssen. In der Halbleiterbranche gilt nun mal ganz besonders, daß die Größe zählt. Fixe Entwicklungskosten sind irre hoch, die Produktionskosten für ein Teil in der Serie dagegen vernachlässigbar. In den Quartalszahlen hat man ja gerade eben gesehen, daß der Umsatz nicht groß genug ist, um eine schwarze Null zu schreiben. Und man kann sich nicht darauf verlassen, daß der Markt so stark wächst, daß man schon irgendwie mitgezogen wird, man muß schon aktiv mitarbeiten. Der damalige Plan, auf 30% Marktanteil zu kommen, war weder idiotisch noch utopisch, nur hätte es mehr Energie erfordert und weniger zögerliches Abwarten. Um Marktanteil zu gewinnen, muß man aber nicht nur gerade mal so gut sein wie die Konkurrenz, sondern besser, deutlich besser, über längere Zeit deutlich besser. Firefox hat einen Browser-Marktanteil von nur ca. einem Viertel, dabei ist er jahrelang schon besser als der IE.

Die Grafiksparte läuft gut, da wird evolutionär das Produkt verbessert und nebenher bereits der Nachfolger, ganz wichtig: Sie werden auch fertig! Die Produktion und die Produktpflege läuft ebenfalls gut, schön alles auf 45nm umgestellt, Istanbul ist früher als geplant fertig geworden (und damit endlich einmal konkurrenzfähig). Wenn man diesen momentanen Schwung längere Zeit beibehalten könnte, wäre das sicher nicht zum Nachteil der Bilanzen.

Logischer Schritt wäre nun, daß es innerhalb der nächsten 12 Monate mehrere Fusion-Produkte gäbe, einerseits als billige IGP für Bürokisten, andererseits als strom- und platzsparende Lösung für Netbooks, und schließlich als fette Numbercruncher für Server. Könnte man bestimmt alles auf Basis der aktuellen 45nm-CPUs und der kommenden DX11-GPU-Generation basteln. Vielleicht wäre das nicht der Weisheit letzter Schluß (bzgl. Anbindung untereinander usw.), aber es würde erstmal funktionieren und man hätte was für den Markt. Verbesserte Version gibt's dann das Jahr drauf.

Aber was macht AMD? Läßt die Chance, ihren Laden auf Vordermann zu bringen, einfach verstreichen. Damals, als Fusion vorgestellt wurde, dachte man, "jetzt wird aufgezündet", aber dann kommt einfach nix hinterher, jahrelang nicht. In dieser schnelllebigen Brache ein Produkt auf 2012 zu verschieben heißt im Grunde "wir wissen nicht, ob wir das überhaupt machen", da fragt man sich, ob die überhaupt mehr haben als die drei Powerpointfolien von vor 2 Jahren. Und was die seitdem überhaupt gemacht haben.

Ach ja, die nächste CPU-Architektur ist ja auch verschoben auf den Sanktnimmerleinstag. Paßt ja gut. Ich glaub, der Next-Generation-AMD-Rechner wird rechtzeitig für Duke Nukem ForNever fertig.
 
Naja, ihr müsst auch sehen in welcher Situation AMD steckt... Auch entwickler und Projekte müssen bezahlt werden, manpower ist im verleich zu intel eher weniger vorhanden...
Manche argumentieren hier, als wären die Karten fair verteilt und nur AMDs marktanteil kleiner...
Dabei ist die ganze Firma nichtmal ein Schatte von Intel in der Mittagssonne!
Ich glaube mit den vielen quartalen in den roten Zahlen haben die ganz andere Sorgen als Geldintensive Entwicklungsprojekte, sondern müssen erstmal sehen dass sie so gut es geht mit dem hinkommen was sie haben, das Marketing verbessern etc. um wenigstens lange genug zu überleben um sich den nächsten großen Projekten annehmen zu können wenn die Krise mal nachgelassen hat.
Was eine Fab kostet will ich gar nicht wissen, tools für 45nm und 32nm etc. und was es für einen Aufwand bedeutet die Produktion zu verbessern etc. Vielleicht ist auch grade das Bandbreitenproblem etwas, daß sie in den Griff kriegen wollen vor einem Fusion-Produkt.
Solange intel keinen Clarkdale mit larrabee-Grafikkern bringt, haben sie selbst in Sachen IGP AMD nichts entgegen zu setzen. Ein uralter Radeon x800 o.ä. Wischt mit intels integrierten Chips den Boden auf!
Die APU ist soweit ich das verstehe auch mehr als nur ein Grafikchip neben der CPU ondie.
Man könnte sich z.b. einen six-channel-RAM-controller vorstellen, an einer Crossbar mit der CPU und GPU, wobei beide über den L3 und den RAM direkt daten austauschen können. Oder eine noch tiefere integration in Bulldozers clusterstruktur... die GPU als eine art Risesen-SSE-Einheit zu benutzen usw.
Intels Clarkdale-Weg ist kein technologischer fortschritt, sondern dient in erster Linie der Preissenkung für LowEnd - Systeme. Dann spart sich der Mainboard-Hersteller vollends die Northbridge ein. Wesentlich interessanter ist die Integration eines PCIE-anschluses ondie.
Es ist bei GPGPU wichtig dass CPU und GPU so einfach und effizient wie möglich daten austauschen können...
Ich glaube AMD ist sich serhwohl bewusst wo sie stehen und was Intel macht, aber sie haben schlicht nicht die Ressourcen auf so vielen Hochzeiten gleichzeitig zu tanzen. Nicht im Moment... Istanbul hat vorrang, dann vielleicht der Griffin-Nachfolger, als nächstes MAgny-Cours und der 32nm-Shrink.
Das ist für eine Firma dieser Größenordnung schon durchaus eine ordentliche TODO-Liste...
 
@C4rp3di3m

Soweit ich weiß, lässt sich gerade im Billigsegment viel mehr Geld verdienen, da die Herstellungskosten dort gering sind, aber die Abnahmemenge hoch ist. Dein Vergleich zu einer HD 4850 hat in mir gleich auch einmal die Frage aufgeworfen, ob AMD mit dieser Karte überhaupt noch verdient, die geht im Einzelhandel inzwischen bei 80€ los.
 
Es gibt mehrere Integrationsstufen.
1.) war ein MCM geplant, das Swift genannt werden sollte. Hierbei wäre wohl einfach ein Regor mit einer GPU kombiniert worden, Whiteswift sollte als SingleCore und Blackswift als DualCore auf den Markt kommen. Es gibt aber keinen faktischen Vorteil für diese MCM-Lösung, deshalb wurde diese wohl aus Geldmangel gecancelt.
Intel sieht übrigens mit Clarkdale eine ähnliche Lösung vor, mit dem Unterschied, dass das CPU-Die nicht mit einer GPU, sondern einem IGP gekoppelt wird, welcher alle Chipsatzfunktionen übernimmt. Das wäre bei Swift nicht der Fall gewesen.
Im Prinzip kann man diese Integrationsstufe nur mit sehr viel gutem Willen als Integration bezeichnen, da sich eigentlich zu dem Status-Quo genau nichts ändert. Es gibt weiterhin 3 Chips, von denen einer IGP-Funktionen übernimmt und weiterhin getrennt von der CPU arbeitet. Wenn man böse ist, könnte man sagen, dass Clarkdale wie der Core2 über einen FSB mit einem IGP verbunden wird, nur dass kein GTL zum Einsatz kommt, sondern QPI. An der eigentlichen Achitektur des Systems ändert sich im Prizip garnichts bei dem Sprung von Core2 auf Clarkdale, nur die Northbridge sitzt woanders.
2.) Eine GPU-Integration auf das Die. Das ist genau die Lösung, die Intel mit Sandy-Bridge und AMD mit Llano vorsieht, aber auch das ist hier nicht gemeint. Hier wird einfach eine GPU mit auf das CPU-Die designt, aber nicht integriert. Will heißen, die CPU existiert weiterhin parallel zur CPU, auch wenn diese auf einem Die sitzen.
3.) Volle Integration der GPU in die CPU-Funktionen bzw. der FPU. Das ist in Wirklichkeit Fusion, das war immer das Ziel (und das hat rein garnichts mit Swift zu tun ;)). Diese Ziel wird erst mit 22nm erreicht werden können, weil man dafür eine neue CPU-Generation benötigt. Wahrscheinlich ist das noch BD-Generation, aber wäre in 32nm zu heftig zu implementieren.
Darauf bezieht sich dieses "Gerücht".

Bitte an den Newsschreiber: Erst informieren, dann schreiben.
 
Zuletzt bearbeitet:
Hi,
AMD-Fusion,N-C-177096-2.png

hier ein Link zum Thread im Forum: Klick

Greetz
neax;)
 
Ich weiß gar nicht, wo das Problem ist.
tja, ... AMD selbst.

Die GPUs hätten gute Chance als Bulk-32 nm in 2010 bzw. 28nm in 2011 am Markt zu sein. Bliebe nur noch die Aufgabe Dual-Core und GPUs zu vereinigen.

Gegen einen Clarkdale ist aber ein Dual-Core etwas zu unterdimensioniert, während ein Quad zuviel Performance hätte. Die richtige Anwort auf Clarkdale =2*2 Cores wäre ein nativer K10.5 Triple-Core (gewesen ? )
Theoretisch wäre ggf. Start mit Bulk 32nm als Dual-Core und Upgrade als Bulk-28nm incl. Upgrade CPU-Teil auch denkbar. 28nm läge besser als Intel und würde in Summe trotz Triple-Core ähnliche TDP-Werte ergeben wie 2*2 beim Clarkdale.

Dass AMD den großen Lima einfach ohne Yieldrate Problem verfrührt auf SOI-22nm schrumpfen kann erscheint fragwürdig. Allenfalls ein SOI-28nm wäre ggf. denkbar.
 
... Im Prinzip kann man diese Integrationsstufe nur mit sehr viel gutem Willen als Integration bezeichnen, da sich eigentlich zu dem Status-Quo genau nichts ändert. ...
Selbst eine MCM-Lösung verhindert, dass konkurrierende Fremdchipsätze verbaut werden. Ich denke, das sowohl AMD, als auch Intel dieses markttechnische Feature gerne mitnehmen.

2.) Eine GPU-Integration auf das Die. Das ist genau die Lösung, die Intel mit Sandy-Bridge und AMD mit Llano vorsieht, aber auch das ist hier nicht gemeint. Hier wird einfach eine GPU mit auf das CPU-Die designt, aber nicht integriert. Will heißen, die CPU existiert weiterhin parallel zur CPU, auch wenn diese auf einem Die sitzen. ...
Wenn aus zwei Chips ein Chip wird, dann handelt es sich um Integration. Wie effizient und verzahnt die Chips miteinander sind spielt bei dem Begriff "integriert" keine Rolle

Es gibt auch Chips, die nicht auf einem MCM eine Heimat finden, sondern die Chips werden direkt "huckepack" miteinander verbunden. Der Vorteil ist, dass das sehr platzsparend ist (wichtig im Mobil- und Embedded-Markt) und eine direktere Anbindung ermöglicht, als über ein PCB eines Mainboards (geringere Spannungen möglich, oder höherer Anbindungstakt [...]).

Ich finde der Begriff "native Integration" unnötig, wenn Chips eng verzahnt auf einem Dice vereinigt werden. Das führt zu nichts, wenn die Vorteile schon mit etwas andere Methoden möglich sind.
Was hinzu kommt, das ist das Risiko von Bugs in einem völlig neuen Design. Schon alleine deswegen geht man in der Industrie gerne auch mal den "dummen" Weg zwei bestehende Designs erst mal auf einem einzigen Chip unterzubringen.

3.) Volle Integration der GPU in die CPU-Funktionen bzw. der FPU. Das ist in Wirklichkeit Fusion, ...
Da stimme ich dir zu, dass AMD die GPU sehr eng mit dem Hauptprozessor verzahnen will, um noch zusätzliche Rechenleistung für eine Vielzahl von Anwendungen freizulegen. Jedenfalls verstehe ich so den Begriff "Fusion" von AMD. Mal schauen was daraus in der Praxis wird.

MFG Bobo(2009)
 
Zurück
Oben Unten