AMD mit Accelerated Processing Unit "Swift"

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Passend zur neu gegründeten Sparte Accelerated Computing, für die der CTO von MIPS Mike Uhler abgeworben wurde (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197291921">berichteten</a>), plant AMD unter dem Codenamen "Swift" eine APU (Accelerated Processing Unit) auf Basis eines Dual-Core Phenom.

Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=1129&w=l"></center>


<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=1128&w=l"></center>
 
Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.
Sicher, dass das das Gleiche ist?

Fusion war doch eine CPU, wo noch eine GPU draufgepappt wurde. Hier sieht es eher so aus,
als würde die GPU mit in den DIE integriert, würde also einen Schritt weitergehen.
Der Vorteil dafür wäre vermutlich, dass die GPU auch auf den Memory Controller zugreifen
kann und man keinen Nachteil mehr hat, wenn die GPU nicht mehr ihren eigenen Speicher hat.
 
Der Kombiprozessor aus CPU und GPU, der bislang unter dem Namen "Fusion" bekannt war, soll 2009 erscheinen.
Ich glaube nicht, daß das einfach nur umbenannt wurde. Fusion sollte ja mit dem Bulldozer-CPU-Kern kommen, Swift enthält aber die K10-Derivate. Wahrscheinlich haben sie sich gedacht, wenn schon Barcelona (wie der K8 auch) ein Jahr Verspätung hatte, wird es Bulldozer auch haben, und so lange wollen sie wohl nicht warten, der Rest wäre ja da. So les ich jedenfalls den Satz unter der zweiten Folie.

@Berniyh: Ob das Teil als MCM gebaut wird oder alles auf einem Die kommt, ist ja anhand dieser Folie nicht zu sagen, ich könnte mir auch denken, daß sie sich das noch offenhalten. Northbridge mit IGP kann man dann bei TSMC fertigen und den CPU-Teil in Dresden, reduziert die Risiken.

Für kleine Geräte wie Subnotebooks usw. ist das Ding wegen des niedrigen Chipcounts auf jeden Fall eine sehr interessante Sache - bloß sollten sie bis dahin auch ENDLICH mal wenigstens einen LAN-Port in die Southbridge integrieren, denn was nützt der ganze Integrationsgedanke, wenn dann wieder zig Zusatzchips auf die Platine müssen, damit man Daten rein und raus bekommt.
 
@Berniyh: Ob das Teil als MCM gebaut wird oder alles auf einem Die kommt, ist ja anhand dieser Folie nicht zu sagen, ich könnte mir auch denken, daß sie sich das noch offenhalten. Northbridge mit IGP kann man dann bei TSMC fertigen und den CPU-Teil in Dresden, reduziert die Risiken.
Es gab mal ein Foto, allerdings weiß ich nicht, ob das nicht eine Fälschung ist, möglich wäre
es sicherlich. ;)
http://www.hardwaremania.com/news/i...slemcisi-multi-chip-modul-olarak-gelecek.html
 
Ich sag ja, fusion ist ein Projekt. Bullbozer könnte dann das endgültige ergebnis des projektes sein.
 
Schau mal was da drunter steht:
Xbox 360'da kullan?lan Xenox çipi

Mich erinnert die Idee eigentlich eher an nen Cell Prozessor. Die GPU steuert einfach "nur" ne Menge SPUs bei, verwaltet wird über 2 X86 cores ...
Ein 1 chip Modul wäre wohl vorzuziehen, da wohl ziemlich viel Daten hin und hergeschaufelt werden müssen ... aber wer weiss vielleicht reicht auch erstmal ein MCM.

Man könnte ja schon mal die DIE Größe ausrechnen, ist ja alles in 45nm, da sollte das eigentlich gehen.

Falls mal eine SPU defekt ist, dann verkauft man das Teil halt als billiges onboard Grafik CPU Teil. Wär dann auch egal ^^

@ragas:
Bulldozer ist der CPU Kern, ist schon seit letzter Präsentation bekannt.

ciao

Alex
 
Schau mal was da drunter steht:
Ups. ;)

Ich hatte nur das Bild geöffnet, nur halt vor dem Verlinken noch kurz die Newsmeldung
dazu rausgesucht, aber nicht mehr genauer angeschaut, da ich eigentlich ohnehin von
einem Fake ausging.

Ein 1 chip Modul wäre wohl vorzuziehen, da wohl ziemlich viel Daten hin und hergeschaufelt werden müssen ... aber wer weiss vielleicht reicht auch erstmal ein MCM.
Meiner Meinung nach sollte AMD das auch erstmal als getrennte Chip Lösung bringen.
Wenn man CPU und GPU über einen HT Link verbinden könnte (und dadurch wäre ja auch
die Latenz zum Speicher recht gering für die GPU), dann könnte sich das schon lohnen.

Wirklich, AMD, sollte schauen, dass sie das Teil einfach möglichst schnell rausbringen,
meinetwegen sogar in 65nm.
 
Meiner Meinung nach sollte AMD das auch erstmal als getrennte Chip Lösung bringen.Wenn man CPU und GPU über einen HT Link verbinden könnte (und dadurch wäre ja auch die Latenz zum Speicher recht gering für die GPU), dann könnte sich das schon lohnen.
Naja ... AMD muss den ATI Chip so oder so umdesignen z.B. von PCIe auf HT .. da kann man das Teil auch gleich einen K10 Northbridge Bus verpassen ...

Der Chip wird größer, ja, aber in 45nm sollte das mit 2 x86 cores plus ATi core gehen, Defekte sind egal, da (falls es einen der "SPUs" trifft) da man dann die SPU dann einfach abschaltet und den Chip dann in einem andren, niedriegeren Marktsegment losschlagen könnte. Voll funktionsfähig gibts dafür dann aber einen (sehr) guten Preis im HPC Lager.

Also ich sähe da im Moment nur Vorteile ... falls jmd. Nachteile sieht bitte melden :)

ciao

Alex
 
Naja ... AMD muss den ATI Chip so oder so umdesignen z.B. von PCIe auf HT .. da kann man das Teil auch gleich einen K10 Northbridge Bus verpassen ...
Da AMD selbst ja schon Chipsätze mit HT Anbindung entwickelt hat denke ich nicht, dass
sie da allzu große Schwierigkeiten haben werden.
 
Also ich finde das Ganze geht zu sehr in die Richtung SOC.
Und die verkauften sich bisher nicht sooo toll.

Man verliert einfach die Unabhängigkeit der Komponenten, was den PC an sich wieder ins Absurde führt.

Und schon wären wir wieder bei Spielekonsolen angelangt.

lg
__tom
 
Ich glaube nicht, daß das einfach nur umbenannt wurde. Fusion sollte ja mit dem Bulldozer-CPU-Kern kommen, Swift enthält aber die K10-Derivate. Wahrscheinlich haben sie sich gedacht, wenn schon Barcelona (wie der K8 auch) ein Jahr Verspätung hatte, wird es Bulldozer auch haben, und so lange wollen sie wohl nicht warten, der Rest wäre ja da. So les ich jedenfalls den Satz unter der zweiten Folie.
Auch ist das Design auf den Mobilbereich ausgerichtet. Da reichen sogar einmal PCIe 2.0 x8 (falls doch externe GPU) und 2-3 x1 als Leitungen.
AMD kann auch sich auf 2 Cores begrenzen und ggf. doch schon eDRAM als L3-Cache und LFB (Loval frame buffer) nehmen.

Der Sinn der Zusatz Baugruppe ähnlich einer SPE beim Cell ist aber dubios.
Vernünftiger wäre die Erweiterung der Fähigkeiten der GPU, sodaß freie Units auch andere Multimedia-Aufgaben übernehmen können. Ist eine externe GPU vorhanden (ATI-mobil will ja auch weiterhin noch Geld verdienen) dann wäre eine universelle GPU auf dem Swift-Chip noch für andere Aufgaben verwendbar.
Im Fall einer externen GPU könnte die ja deaktiviert werden, wenn das Notebook im IDLE ist.

Sinnvoll wäre auch eine Möglichkeit eine GPU z.B. per 32 Bit HTr 3.0 direkt auf dem Träger (vgl. XBOX 360) anzubringen. Die könnte schnellen LFB onDIE haben und sich die sonstigen Daten aus dem CPU-DRAM holen. Diese GPU müßte AMD dann nicht selbst fertigen.


Fusion könnte dann mehr als 2 Cores aufweisen, noch leistungsfähigere GPUs und Co-Funktionen und auf 32nm optimiert werden.
 
Die Frage ist, für wen so ein Design überhaupt interessant wäre.

Richtige Gamer werden IMHO auch 2009+ noch auf diskrete Grafik setzen, da sie einfach immer viel GPU Power brauchen und auch die GraKa upgraden wollen.

Glaub nicht, dass diese GPUs in den CPU Kern integriert werden können, schon allein aus Gründen der Kühlung nicht.
Addiert doch mal die heutige Abwärme der CPU zzgl. guter GraKa, wer soll diese Verlustleistung auf einem einzigen Sockel abführen ?

Die 2009er GPUs werden sicher die heutige Leistung z.B. der nVidia 8800er mit deutlich weniger Abwärme erbringen, aber 2009 wird im Enthusiastenbereich ja auch wieder viel mehr GPU Leistung als heute der Standard sein.

Geld verdienen tut man mit stromsparenden & leistungsfähigen Bürorechnern und den Servern - da sind die großen Stückzahlen zu erzielen und die GPU ist dort bedeutungslos.

Die derzeitige Meldungsflut von AMD kommt mir daher eher so vor, als gelte es den Aktienkurs irgendwie zu stützen.
 
Ich lese die die Meldungen zu Fusion et al und ich habe dabei gemischte Gefühle....

Auf der einen Seite sehe ich die Vorteile, die sich durch die Ausführung von GPU-optimierten (sprich paralellisierten) Code auf dem GPU-Teil des Fusion bringt. Hier kann sich durchaus ein beträchtlicher Geschwindigkeitsgewinn ergeben.

Auf der anderen Seite sind eventuelle Vorteile die sich aus Onboardgrafik oder Hybrid-Crossfire bei der Verwendung des Fusion irrelevant, da ich (auf Grund vergangener Erfahrungen) Grafikkarten aus dem Hause Nvidia bevorzuge (gerne auch mit Hybrid-SLI).

Und solange es keinen Treiber gibt, welcher den (ATI-)GPU Anteil in einen SLI Verbund aufnimmt solange ist der Fusion, aus Grafiktechnischer Sicht, uninteressant. Und ich glaube nicht das es in diesem Leben einen solchen Treiber geben wird.

Aber ich hab Pferde auch schon kotzen sehen....

Schöne Grüße

Davidan

P.S. Ein Fusion mit Nvidia-Grafikkern das wär schön.......
 
Ich sehe bei einer "2 Chip in einem Gehäuse" Lösung, bei der die GPU per HT link angebunden wird kein allso grosses Problem, da die Technik ja quasi schon existiert.
Wo steckt denn bislang die integrierte Grafik des Chipsatzes und wie ist dieser an die CPU angebunden? Das Teil steckt in dem Chip der direkt mit dem Prozessor über den HT Link verbunden ist. Separiert man nun die Grafikeinheit auf ein extra Stück Silizium und nutzt einen Dualcore Prozessor (steht ja auch auf der Folie) mit 2 HT Links, so kann man einen Link mit dem Grafikkern und einen für die Verbindung mit dem Chipsatz nutzen.

Platz genug sollte ja bei einer 45nm Fertigung ja vorhanden sein und ev. bappt man bei der Grafikeinheit noch EDRAM oder eine andere Speicherart als Framebuffer mit rauf.
 
Man verliert einfach die Unabhängigkeit der Komponenten, was den PC an sich wieder ins Absurde führt.
Ich sehe die Zukunft des Fusion (oder wie auch immer es heißen mag) im Notebookbereich,
dort gab es ohnehin nie eine Unabhängigkeit der Komponenten.
Ansonsten ist das für Office Rechner in Firmen, wo man ja oftmals ohnehin auf Stable
Image Plattformen zurückgreifen will, interessant.
Klar, für Gamer spielt das Ding vermutlich keine Rolle.

Die Frage ist, für wen so ein Design überhaupt interessant wäre.
Für Subnotebooks ist das eine sehr interessante Geschichte, auch wenn die Grafik oben
einen Swift auf basis des Phenom zeigt.

Glaub nicht, dass diese GPUs in den CPU Kern integriert werden können, schon allein aus Gründen der Kühlung nicht.
Addiert doch mal die heutige Abwärme der CPU zzgl. guter GraKa, wer soll diese Verlustleistung auf einem einzigen Sockel abführen ?
Niemand redet davon eine 8800GTX in die CPU zu integrieren...
Nimm mal einen aktuellen IGP Chipsatz für Notebooks, der hat evtl. 10W TDP. Wenn man
den Dual Core Prozessor auf 25W bringen könnte (derzeitige haben 31W-35W), dann
sieht das doch durchaus realistisch aus.
Das Hauptaugenmerk liegt hier sicherlich nicht auf Spielerechnern!
 
ich glaube, der könnte schon heute fertig sein, wenn sie das abwärme-problem nicht hätten.
die cpu muss ja immerhin vergleichbar mit den bis dahin aktuellen cpu´s sein+eine halbwegs gescheite graka. und dafür wird wohl mind. 32nm benötigt.

mfg
 
@Berniyh
So wie ich die Architektur verstanden habe ist es gerade für Spieler interessant. Die 3D Rechenleistung der integrierten GPU ist hier ziemlich irrelevant, da dies dann die externe Grafikkarte übernimmt und das Bild über die integrierte Grafik quasi nur ausgegeben wird.
Im 2D Modus wird dann die Grafikkarte deaktiviert und es arbeitet lediglich die integrierte Grafik weiter....mit entsprechenden Folgen beim Energiebedarf und der Wärmeentwicklung.

Wie das Ganze dann auf übertakteten Sytemen arbeitet ist dann die Frage aber die sind aufgrund des nichteinhaltens irgendwelcher Spezifikationen ohnehin aussen vor.

@foenfrisur
Ich halte es ebenfalls bei den heutigen 65nm Produkten für möglich, allerdings bestehen dabei min. 2 Probleme.

1. Aufgrund der Grafikausgabe muss ein neuer Sockel her
2. Man brauch eine neue Northbridge auf dem Mainboard
 
Zuletzt bearbeitet:
cpuoverload schrieb:
Die Frage ist, für wen so ein Design überhaupt interessant wäre.

Die Antwort lautet: für die Hersteller von Motherboards und Laptops die bisher IGP verwendet haben.

Richtige Gamer werden [...]

Gamer sind erstmal Kunden und Kunden kaufen keine Designs (angefaultes Fallobst mit Goldkante und Designeraufschlag mal außen vor) sondern Leistungen. HomePCs mit IGP existieren. Laptops mit IGP existieren. FirmenPCs mit IGP existieren. Embedded Geräte mit IGP existieren. Gamer sind - entgegen deren eigener Vermutung - NICHT der Mittelpunkt des Universums und auch Leistungen die einem Gamer nicht einmal ein müdes Lächeln entlocken würden können anderswo noch _massenweise_ Käufer finden.
 
@Berniyh
So wie ich die Architektur verstanden habe ist es gerade für Spieler interessant. Die 3D Rechenleistung der integrierten GPU ist hier ziemlich irrelevant, da dies dann die externe Grafikkarte übernimmt und das Bild über die integrierte Grafik quasi nur ausgegeben wird.
Im 2D Modus wird dann die Grafikkarte deaktiviert und es arbeitet lediglich die integrierte Grafik weiter....mit entsprechenden Folgen beim Energiebedarf und der Wärmeentwicklung
Ja, im oberen Bild steht was von "High-End Grafikkarte", aber das glaube ich nicht so recht.
Ich seh den Anwendungszweck des Fusion eher, wie ich schon schrieb in Systemen, die
bisher immer auf IGP setzten.

Ob man das dann per Hybrid Crossfire als Spiele kombinieren möchte, um auch noch eine
gute Grafikleistung zu erzielen... möglich wäre es zumindest.
 
Na ja, das mit dem Highend würde ich vorsichtig betrachten, denn dort steht lediglich das es auf einer existierenden Highendgrafik basiert....ein recht schwammige Marketingformulierung.
Von welcher Grafikchiparchitektur stammt noch gleich die x1250 Grafik des AMD 690G Chipsatzes ab? ;)
 
Ich sehe die Zukunft des Fusion (oder wie auch immer es heißen mag) im Notebookbereich,
dort gab es ohnehin nie eine Unabhängigkeit der Komponenten.
Ansonsten ist das für Office Rechner in Firmen, wo man ja oftmals ohnehin auf Stable
Image Plattformen zurückgreifen will, interessant.
Klar, für Gamer spielt das Ding vermutlich keine Rolle.
Ja Notebooks sind ein geeignetes Einsatzgebiet dafür.
Firmenrechner jein. Kommt halt darauf an was die Firma möchte.

lg
__tom
 
Mensch, habt doch auch mal Visionen.

Wenn man irgendwann einen richtigen Table-PC hat in der größe A5.
Und der Leistung eines heutigen X2 mit 3D Desk.

Was manche hier so schreiben, da würden wir immer noch auf´n Baum sitzen.
 
Mensch, habt doch auch mal Visionen.

Wenn man irgendwann einen richtigen Table-PC hat in der größe A5.
Und der Leistung eines heutigen X2 mit 3D Desk.

Was manche hier so schreiben, da würden wir immer noch auf´n Baum sitzen.
AMD hat in den letzten Jahren so viele "Visionen" vorgestellt, was jedoch in der Praxis bislang kaum zu sehen war.

Ein in der Latenz verschlechterter K8 im G-Stepping ist nicht wirklich zum Furcht einflössen gegenüber Intel ... und Nvidia muss ziemlich erleichtert über den Start des ATI R600 gewesen sein (zu spät, zu langsam, zu heiss, zu teuer in der Herstellung der Karten).

Aggressive Vermarktung der RV610/RV630 und RV670 zu kleinen Preisen zusammen mit modernen Features und die Chipsätze zeigen ja, dass es auch anders gehen kann ... aber wohl erst dann, wenn das Verbraucherecho zurückschlägt ...

MFG Bobo(2007)
 
Laptoplogic redet hier übrigens explizit von Notebooks:
http://www.laptoplogic.com/news/detail.php?id=3978

Ich bin mal gespannt, ob AMD evtl. statt "nur" CPU oder GPU in Zukunft auch andere, evtl.
deutlich spezialisierte Einheiten in eine APU packt. Möglichkeiten gibt es da ja einige, zum
Beispiel eine Physikeinheit ("PPU"? ;)).
 
Zurück
Oben Unten