Neue Gerüchte um AMDs Fusion

mj

Technische Administration, Dinosaurier, ,
Mitglied seit
17.10.2000
Beiträge
19.529
Renomée
272
Standort
Austin, TX
Zu AMDs zukünftigem Chip, der CPU und GPU kombiniert, gibt es wenig gefestigtes, da sich das Unternehmen - der bisherigen unverständlichen Unternehmenstradition folgend - zu wichtigen neuen Produkten vollständig ausschweigt, sich hinter einer Informationsbarriere verschanzt und der Presse am liebsten gar nichts an Informationen zukommen lassen würde.

Glücklicherweise gibt es noch industrienahe Quellen, aus denen immer wieder Informationshäppchen ans Licht der Öffentlichkeit treten um uns die Wartezeit zu verkürzen und gleichzeitig die Neugier zu befriedigen. <a href="http://www.tgdaily.com/html_tmp/content-view-38703-135.html" target="b">TG Daily</a> will erfahren haben, dass die Fusion-Chips bei TSMC im Auftrag gefertigt werden sollen. Den verständlicherweise nicht näher genannten Quellen zufolge sollen im ersten Fusion-Chip namens "Shrike" ein Dualcore Phenom mit einer R800 GPU vereinigt werden. Auch zum R800 ist bisher noch sehr wenig bekannt, man geht allerdings davon aus, dass der DirectX-10.1-Chip mehr sein wird als lediglich ein Shrink von 55 auf 40 Nanometer.

Die Produktion des Shrike-Chips, der zunächst als sogenannter "half-node" in 40 Nanometer erscheinen wird, soll bis 2010 auf 32 Nanometer umgestellt werden, was in etwa dem Zeitrahmen von Intels Umstellung auf 32 Nanomenter entspricht. Ein "half-node" ist eine Art Zwischenschritt im Produktionsprozess, bei dem lediglich der Produktionsprozess selber umgestellt wird, so Strukturen verkleinert werden, ohne dass gleichzeitig das Chipdesign den neuen Strukturen angepasst wird.
 
Klingt sehr interessant das ganze.

Kann man dann quasi den Shrike-Chip als CPU und GPU verwenden und zusätzlich ne Grafikkarte für Crossfire zum Beispiel einbauen?! *noahnung*
 
Auch zum R800 ist bisher noch sehr wenig bekannt, man geht allerdings davon aus, dass der DirectX-10.1-Chip mehr sein wird als lediglich ein Shrink von 55 auf 40 Nanometer.

Daß AMDs nächste GPU-Generation R800 nicht einfach ein Shrink sein wird, ist anhand der sicher nicht schlafenden NV-Konkurrenz (und der noch schwer einzuschätzenden neuen Konkurrenz durch Intel) wohl zu erwarten. Laut Phoronix wird es zumindest beim UVD eine grundlegende Veränderung geben: Video Decoder und DRM (in diesem Fall Digitale Rechte-Entfernung, nicht Direct Rendering Manager - letzteres ein Bestandteil von Xorg) werden so voneinander getrennt, daß eine Freigabe der Spezifikation des Video-Decoders für FOSS-Programmierer möglich wird.
 
Soweit so nett, ab er schon bezeichnend, dass die 65er Version so zügig in der Senkrechten Ablage landete, wo doch Puma erst so langsam in den Markt sickert ( dank Nvidia wohl nun etwas zügiger ;D;D ).
Hmmm Fusion ... 45nm .... Da müsste es doch endlich mal klappen 1700Gramm-Notebooks mit knapp 8 Stunden Akkulaufzeit zu bauen !! ;)

Mmoe
 
Erst sind sie immer recht optimistisch mit der Einführung der Fertigungsverfahren und dann hinken sie doch wieder 1 Jahr hinter Intel zurück:( - hoffentlich diesmal nicht (die Hoffnung stirbt zuletzt;D)
 
Klingt sehr interessant das ganze.

Kann man dann quasi den Shrike-Chip als CPU und GPU verwenden und zusätzlich ne Grafikkarte für Crossfire zum Beispiel einbauen?!
Das geht bestimmt und macht für die performanten Notebooks mit 43 W Sinn.

1_shriek_tdp.jpg


Für den 32nm 'Shrink' ist aber eher kein Shrink sondern 'Bulldozer' nach folgender Art zu erwarten:

amd_swift_1.png


Beim Shrike fehlt ja noch der shared Cache, die K10 - Cores erhalten nur ihren lokalen L2 (?* 512k ?! )

TSMC hat übrigens schon in 65nm eDRAM - bis 256 MBit: http://news.softpedia.com/news/TSMC-Releases-65nm-eDRAM-Chips-49042.shtml

Rechnerisch wäre ein 32nm eDRAM von 512MBit = 64MByte ca. 30 mm2 groß (Zellen ?* 0,06um2) und so locker 4* Bulldozer als L3 und der GPU als local frame buffer dienen.

Nachdem AMD sich schon 2010 mit dem Bulldozer an den Markt begiebt wäre auch ein 40/45nm Design für DD denkbar. Jenes DIE wäre größe und hätte eine höhere TDP, was aber im Desktop nicht problematisch wäre.
Der Bulldozer wurde ja von 10-100 W schon einmal angekündigt, was bei 10 W aber eher nach max. Dual-Core und low GHz riecht.
100 Watt Quad-Core incl. GPU und local frame buffer wäre im Desktop eine brauchbare Größe, besonders da die 100 Watt ja per C'n'Q nur selten anstehen würden.
 
Ich habe natürlich zweifel an der vollwertigen Brauchbarkeit gegenüber einer reinen Grafikkarte. Soll heißen ist diese integrierte GPU nicht eher für spezifische Aufgaben gedacht? Solche wie zum Beispiel zur Berechnung der Physik oder verbessertes Rendering zum Support der Onboardgrafik?
 
Ich habe natürlich zweifel an der vollwertigen Brauchbarkeit gegenüber einer reinen Grafikkarte.
Die Bandbreite ist wg. DDR3-1333 im Vergleich zu heutigen Designs wie 780G um ca. 50% höher und die Latenzzeiten niedriger.

Den 780G hat man mit der alten Radeon 2400 verglichen und Shrike wird dann wphl zwischen 2400 und 2600 Performance liegen: http://www.trustedreviews.com/motherboards/review/2008/03/06/AMD-780-Integrated-Graphics-Chipset/p1

Für die 19 W und bedingt 30 W Designs sollte man eigentlich eine externe Grafikkarte vergessen, denn sie nimmt ja deutlich zusätzlich Leistung auf.

Bei 30 Watt incl. GPU und Northbridge hat man mx. TDP-Werte die deutlich unter Intels 25 W zzgl. GPU Plattform liegen bzw. unter jenen mit zusätzlicher ATI o. nvidia Mobilgrafik.


Ganz anders die Situation beim Desktop / Bulldozer. Hier könnte AMD bei den Cores aufbohren und den GPU-Teil z.B. mit GDDR5 RAM tunen.Wenn dann 100W max. am Socket sind - was solls.
Weltweit kann AMD viele Designs mit int. Grafik verkaufen. Wenn diese GPU dann an der COU sitzt hat nvidia das Nachsehen.

Wer etwas mehr Performance benötigt fügt noch eine Mittelklasse Grafikkarte dazu, der Rest dann leistungsfähige Grafikkarten.
 
Ich habe natürlich zweifel an der vollwertigen Brauchbarkeit gegenüber einer reinen Grafikkarte. Soll heißen ist diese integrierte GPU nicht eher für spezifische Aufgaben gedacht? Solche wie zum Beispiel zur Berechnung der Physik oder verbessertes Rendering zum Support der Onboardgrafik?
Nein, als Ersatz für Onboard-Grafik. Warum soll ein in die CPU integrierter GPU-Core schlechter arbeiten als ein solcher, der in den Chipsatz intergiert ist? Durch die verbesserte Anbindung an die CPU-Kerne (Latenz) ist eher eine höhere Performance zu erwarten, die wegfallenden (externen) PCIe-Lanes lassen deutliche Verbrauchsersparnisse erwarten.
 
http://www.digitimes.com/systems/a20080805PD201.html

In additional news, Intel will cease supply of Atom N270 processors at the end of second-quarter 2009, however the company has so far not released any information regarding the development of a next-generation Atom processor.

und: http://www.computerbase.de/news/har...erz/intel_roadmap_nach_silverthorne_lincroft/

Intel hat ähnlich zum Shrike den 45nm 'Lincroft' entwickelt. Scheinbar wird der Atom frühzeitig jetzt ausgesteuert und Intel kontert mit mehr Perfromance.

Zwar ist ein 19W (Single-Core ?! ) Shrike noch deutlich über der TDP der Atom ff. Plattform, aber etwas weniger Takt, einige GPU-Features deaktiviert und AMD nähert sich der 'Atom'-Welt.
 
...und nicht zu vergessen die geringere Chipanzahl, was bei kleinen Geräten recht wichtig ist. An Fusion braucht man ja nur noch die Southbridge anzubinden und ist fertig, da dort sowieso keine Grafikkarte drankommt, reichen auch ein paar wenige PCIe-Lanes für einen evtl. Zusatzchip (da die SB800 aber deutlich vollständiger wird, z.B. Ethernet usw., wird die Notwendigkeit dafür aber auch kleiner).

Wenn sie es auf längere Sicht dann auch schaffen, der SB ein paar Dutzend PCIe-Lanes zu verpassen (verschiedene Varianten der SB), dann wäre die Kombi auch für ausgewachsene Desktopboards zu nutzen. Wenn dann langfristig in jeder CPU auch GPU-Kerne drin sind, dann werden auch von den Programmierern genutzt, ähnlich wie SSE-Fähigkeiten.

Also das Konzept ist gut und bietet einen Masse an Möglichkeiten. Nur muß AMD damit auch mal zu Potte kommen. Im Augenblick würde man ja schon bald sagen, wenn die jetzt noch keine lauffähigen Pressesamples vorzeigen, dann wird das mit einem Markteintritt vor 2010 nichts mehr (und dabei sollte Fusion ursprünglich mal 2008 kommen).*suspect*
 
Zurück
Oben Unten