FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
Hey ich hab mal ne Frage.
Und ich hatte jetzt nicht unbedingt Lust und Zeit dazu mir das ganze Thema hier im Forum durchzulesen.
Geht es bei Fusion NUR darum eine GPU zu integrieren die anschließend auch NUR für Grafikanwendunngen verwendet wird, oder wird sie die CPU unterstützen ? (wie bei der News auf der Startseite)
Ansonsten hätte ja AMD die Möglichkeit locker zu Intel aufzuschließen da ja GPUs eine hohe Rechenleistung bieten, allerdings nicht so flexibel wie CPUs sind. (geschweige denn den x86er Befehlssatz verstehen)
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1221724936

Zur Unterstützung ist ein extra 'Accelerator' vorgesehen. (Physik-Effekte bei Spielen ? )

Wer hohe Rechenleistung benötigt der würde eh besser auf externe Grafikkarten setzen.

Letztlich ist Fusion und der ATI-Kauf von 2006 erfolgt aus der Notwendigkeit die immer kleineren Fertigungsverfahren noch sinnvoll mit Rechenpower zu füllen
Alles auf einem SOI-DIE ergibt durchaus die Möglichkeit ganz neue Taktraten bei der GPU zu verwenden.

Bei der 'Shrike' = TMSC Bulk-40nm Lösung hingegen reicht für die GPU ein Takt um rund 1++ GHz während die K10 CPUs bei 2++ GHz liegen sollten im Wettbewerb gegen Intel.

Fusion hingegen könnte bei der GPU auf 2++ und bei den CPUs auf 3++ GHz kommen.
 
Ja das ist mir klar.
Aber macht es Sinn eine leistungsstarke Graka mit dem Fusin Prozessor zu kombinieren ? Werden normale Anwendungen wie z.b. etwas entpacken besachleunigt ?
Der Accelerator scheint ja ganz interessant zu sein...
 
... Geht es bei Fusion NUR darum eine GPU zu integrieren die anschließend auch NUR für Grafikanwendunngen verwendet wird, oder wird sie die CPU unterstützen ? ...
Grundsätzlich will AMD die GPU integrieren, wie viele andere auch.

Gelingt dies, ohne dabei an modernen Features zu verlieren, ist dies ein Weg noch billigere Büro-PCs und Mobilgeräte auf den Markt zu bringen.

Parallel hat Microsoft aber mit Vista auch die Rechenleistung moderner Grafikchips "mitnehmen" wollen ... Und auch andere Hersteller (Videobearbeitung, Produktivumgebungen, [...] ) erkennen immer mehr, dass die aktuellen GPUs heutzutage bei bestimmten vektorisierbaren Aufgaben kleine Rechenmonster sind.

streaming-computing_braucht_software.jpg
Quelle #44

AMD nennt diesen Zusatznutzen "Accelerated"-Computing und will damit im Fahrwasser von Microft Vista und High-Definition Videomedien fahren (Blu ray, HD DVD, MPEG 4/H.264).

trend_gpu_gui-beschleunigung_2.jpg
Quelle #42

Tatsächlich wird die Grafikrechenpower von manchen Programmen tatsächlich genutzt (Beispiel Magix: Videoschnittbearbeitung, CyberLink Software für HD-Videomedien)... "natürlich" muss man als Konsument die aktuellen (und daher auch teuren) Softwareprodukte kaufen ... da deren Vorgänger diese Module zum "Accelerated"-Computing nicht nutzen.

MFG Bobo(2008 )
 
Zuletzt bearbeitet:
Tatsächlich wird die Grafikrechenpower von manchen Programmen tatsächlich genutzt (Beispiel Magix: Videoschnittbearbeitung, CyberLink Software für HD-Videomedien)... "natürlich" muss man als Konsument die aktuellen (und daher auch teuren) Softwareprodukte kaufen ... da deren Vorgänger diese Module zum "Accelerated"-Computing nicht nutzen.
Jo ums vielleicht noch anschaulicher zu sagen, dass ist ähnlich wie mit SSE1,2,3,4,5 davon hat(te) alte Software auch nichts ...

ciao

Alex
 
Jap...denke der SSE-Vergleich ist am schlüssigsten.

Die neue CS4 von Photoshop soll auch GPU-Beschleunigt laufen.
Der Trend geht wohl definitiv dahin und das wird auch dem Fusion helfen....
 
Grundsätzlich will AMD die GPU integrieren, wie viele andere auch.

Gelingt dies, ohne dabei an modernen Features zu verlieren, ist dies ein Weg noch billigere Büro-PCs und Mobilgeräte auf den Markt zu bringen.

Parallel hat Microsoft aber mit Vista auch die Rechenleistung moderner Grafikchips "mitnehmen" wollen ... Und auch andere Hersteller (Videobearbeitung, Produktivumgebungen, [...] ) erkennen immer mehr, dass die aktuellen GPUs heutzutage bei bestimmten vektorisierbaren Aufgaben kleine Rechenmonster sind.
'Billige' Computer ist schweischneidig, denn irgendwann wird nur noch sowas verkauft.

Und dann kommen die Hersteller nicht mehr über die finanziellen Runden.

Bei 45nm und kleiner lassen sich aber die Wafer nicht mehr sinnvoll allein mit CPU-Cores füllen. Die GPU ist da schon ein guter Schritt und aus den Erfahrungen mit der GPU läßt sich sicherlich ein 'Accelerator' bauen, der flexibler einsetzbar ist ohne gleich eine x86 CPU zu sein.

Ähnlich wie beim Erfolg von DirectX dürften aber genormte Schnittstellen extrem wichtig für die Akzeptanz sein. Vielleicht gehen bei einfachen Designs dann die Daten an den Accelerator, während in Systemen mit Grafikarten dann dort gerechnet wird.
 
Ähnlich wie beim Erfolg von DirectX dürften aber genormte Schnittstellen extrem wichtig für die Akzeptanz sein. Vielleicht gehen bei einfachen Designs dann die Daten an den Accelerator, während in Systemen mit Grafikarten dann dort gerechnet wird.

Da ja mit Direct X 11 die Unterstützung von Compute Shadern bei Grafikkarten eingeführt werden soll wäre es doch garnicht so abwegig wenn diese DX Version oder wohl eher spätere DX Versionen auch den AMD Fusion ansprechen würden. was meint ihr dazu?
 
Da wird es dann bestimmt eine spezielle API in DX12 oder später geben, nach welcher sich die Hersteller ähnlich wie bei D3D richten müssen.
Damit könnte dann nicht nur Fusion unterstützt werden, sondern auch die Integration Larrabees in die CPU und vielleicht auch eine mögliche x86-CPU von nV und ? .
 
Hi,
Fusion ab 2011...
... und erst in 32 nm.

TMSC hat gerade die 40nm gestartet und bis Mitte 2009 dürfte das Standard bei Chipsätzen mit int. GPU sein.

Besonders der Übergang 'Geneva' - 'Ontario' erscheint recht absurd, wenn quasi eh DDR3 vorliegt und alles weg. int- GPU wieder umgestrickt wird.

Hier hätte AMD per TMSC vieles einfacher haben können. Ebenso bedeuted 2011 ja erst der Start von 32nm und man kann Budget-Produkte nicht gleich nach dem Start erwarten.AMD hat hier die Farbe noch offen gelassenm auch 45nm bedeuten könnte oder doch noch 40nm bei TMSC (vielleicht je nach Marktlage ? )
 
Schade, dass AMD hier Intel das Feld schon so frueh ueberlaesst/ueberlassen muss.
Gerade bei der Integration von CPU und GPU haette ich AMD doch Vorteile zugesprochen - nicht zuletzt wegen der Kompetenz im Grafikbereich, die Intel einfach noch nicht so hat.
Wenn sich das nicht mal bitter raecht....
 
Hi,

Fusion wäre vermutlich schneller machbar - aber es würde derzeit kaum eine Daseinberechtigung haben da zu teuer und man im Desktopbereich mit onboard-Lösung derzeit gut aufgestellt ist. Es gibt schlicht in diesem Bereich zum jetzigen Zeitpunkt keinen Bedarf. Meiner Meinung nach wird sich das auch nicht so schnell ändern....8)

AMD hat viele Baustellen, die jetzt wichtiger sind....


Greetz
neax;)
 
Schade, dass AMD hier Intel das Feld schon so frueh ueberlaesst/ueberlassen muss ...
Also ich sehe hier für 2009/2010 noch Luft.

AMD sprach eine ganze Zeit lang beim "Fusion" von Integration auf einem Chipträger ... das ist eine Stufe vor der Integration auf einem gemeinsamen Dice. CPU + GPU = Fusion.

Auf der Roadmap sehe ich nur einzelne Chips, keine "Bastel-Produkte", die mit einem gemeinsamen Chipträger möglich sind.

Was ich hingegen sehe, das sind Produkte mit einem BGA-"Pinout". Das sind Chips/Prozessoreren, die direkt ohne einen Sockel auf Platinen - aber eben auch auf Chipträger verbaut werden können. Von daher ist solch eine BGA-CPU zusammen auf einem gemeinsamen "Plastik"-Chipträger mit einer kleinen ATI-GPU durchaus denkbar.

Ein "Vor"-Produkt ist der aktuelle Embedded-K8 für Kompakt-PCs, die in etwa in die "Atom-Klasse" von den vielen Eees/Winds und wie sie sonst noch so heissen. Also in diesem Sinne erzählen die Diagramme und Bilder zwar viel, aber da ist noch "Luft" für Spekulationen drin.

MFG Bobo(2008 )
 
Hi,

Fusion wäre vermutlich schneller machbar - aber es würde derzeit kaum eine Daseinberechtigung haben da zu teuer und man im Desktopbereich mit onboard-Lösung derzeit gut aufgestellt ist. Es gibt schlicht in diesem Bereich zum jetzigen Zeitpunkt keinen Bedarf.
'Fusion' im Desktop wird wohl erst nötig werden, wenn Intel hier massiv am Markt auftritt und es Kosteneinsparung bei den OEMs gibt.
Allerdings, was am Mainboard weniger an Kosten entsteht, dass wird Intel sicherlich als Zusatzgewinn einstreichen wollen.

Zeitkritisch erscheint mit der 'Netbook'-Markt, wo Intel Mitet 2009 schon höher integrieren will. Die Netbooks kosten Stückzahlen in anderen Bereichen, dafür wird recht wenig bei Intel damit verdient. Aber sie sind für AMD gefährlich bei der aktuellen Roadmap, die hier schwach ist.

Merkwürdig auch, dass AMD nicht Ein-Chip Designs für Chipsätze alternativ zu 'Fusion' bringt. Denn wenn nvidia bei der GPU-Leistung wieder nachziehen könnte wäre Ein-Chip dann massiv günstig für die Mainboardhersteller und könnte AMD wieder Marktanteile kosten.
 
Hi,

Fusion wäre vermutlich schneller machbar - aber es würde derzeit kaum eine Daseinberechtigung haben da zu teuer und man im Desktopbereich mit onboard-Lösung derzeit gut aufgestellt ist. Es gibt schlicht in diesem Bereich zum jetzigen Zeitpunkt keinen Bedarf. Meiner Meinung nach wird sich das auch nicht so schnell ändern....8)

AMD hat viele Baustellen, die jetzt wichtiger sind....


Greetz
neax;)

Sicher hat AMD viele Baustellen - z.B. im Mobilbereich oder bei den Nettops und genau hier waere eine solche CPU vielleicht Gold wert.
Intel plant schon 2009/H2 mit einem solchen Produkt (nicht fuer Nettops) den Markt zu bedienen...
 
hi,
also wenn ich nun 1,8TFlops höre, dann werd ich wieder hellwach...wie jetzt, das ist ja mehr als die schnellste GK macht (Radeon Hd4870 OC =~1,3TFlops)
selbst mit ner x2 oder Crossfire von 2 Karten kommt man theoretisch auf 2,6TFlops damit, praktisch aber wohl auch gerade so auf diesen Wert...........(naja vieleicht um 1,9TFlps+)................??
Das nun beigepackt ....hmmm
?? nu bin ich sprachlos.*noahnung*

grüße
mr
 
Zuletzt bearbeitet:
hi,
also wenn ich nun 1,8TFlops höre, dann werd ich wieder hellwach...wie jetzt, das ist ja mehr als die schnellste GK macht (Radeon Hd4870 OC =~1,3TFlops)
selbst mit ner x2 oder Crossfire von 2 Karten kommt man theoretisch auf 2,6TFlops damit, praktisch aber wohl auch gerade so auf diesen Wert...........(naja vieleicht um 1,9TFlps+)................??
Das nun beigepackt ....hmmm
?? nu bin ich sprachlos.*noahnung*

grüße
mr

Ich sehe zwar die Zahl 1.8TFlops nicht (blind???), allerdings kann es ja auch sein, dass die Leistung von GPU und CPU addiert wurde.
An eine integrierte GPU mit so viel Leistung, auch angesichts der Speicheranbindung, bei nur, sagen wir mal 40W Energiebedarf, glaube ich nicht.
Auch nicht durch die grüne Brille gesehen.
 
Das hört sich doch mal seeehr gut an:

AUSTIN, Texas, Nov 18, 2008
Cooperation based around PGI's x64+GPU compiler technology and AMD FireStream(TM) compute accelerators with an eye toward AMD Fusion

The Portland Group recently delivered a technology preview of the industry's first standard Fortran and C compilers that automatically offload computations from an x64 host program to a GPU. Until now, C and C++ developers targeting GPU accelerators have had to rely on language extensions or library-based solutions, and use of GPUs from Fortran applications has been extremely limited. The PGI(R) x64+GPU programming model enables programmers to accelerate applications simply by adding portable compiler directives, treated as comments by other compilers, to existing standard-compliant Fortran and C programs and recompiling with appropriate compiler options. This gives individual developers the power to incrementally use accelerator technology where appropriate in large existing applications, eliminating the need for expensive and difficult corporate-level platform migration or acquisition decisions.

"Until now, industry CIO's and government and university lab directors have encountered difficult decisions when evaluating accelerator technologies," said Douglas Miles, director, The Portland Group. "Which accelerators do I choose? How do I retrain developers to use accelerators? How much will I have to invest in new software technologies? Working together with AMD, we will work to make FireStream compute accelerators easily accessible to mainstream C and Fortran developers and unlock the power of these devices using PGI compilers that are already in use at most of the significant HPC centers and sites."
http://it.tmcnet.com/news/2008/11/18/3796116.htm
Wer braucht Larrabee ;D

Vor allem begeistert, dass das schon fertig ist, bis die Fusion Chips dann 2010 kommen, sollte das dann schon sehr gut laufen.

ciao

Alex
 
hi Alex, also Du meinst auch, das es aufwärts geht mit AMD?
 
Question: Fusion — the plan to combine a graphics chip and a microprocessor that was the impetus for the AMD-ATI merger — was being planned alongside this sweet spot strategy. Now the first Fusion chip has been delayed again until 2011.

Answer: We’re trying to broaden the definition of Fusion. We probably made an error two years ago when we said that Fusion is a combination of the GPU and the CPU (central processing unit) on the same chip. That’s just an implementation question. It may not make sense as we look for more and more diverse solutions of the GPU and CPU working together. There were challenges in doing it. When you start looking at more advanced manufacturing technologies, where you can shrink the size of each component more, it becomes easier to integrate them together.

Q: Will the 2011 product target a certain market?

A: We are going after mainstream clients and a Netbook market. That’s new for our strategy.
http://venturebeat.com/2008/11/26/q...n-fighting-nvidia-with-a-sweet-spot-strategy/

Kurz: Fusion MCM war Blödsinn ^^

ciao

Alex
 
A: We are going after mainstream clients and a Netbook market. That’s new for our strategy. ...
So so ... aber auf der Cebit 2008 mir noch sagen, dass sie keinen Markt und Perspektive in der "Atom/Silverthorne"-Klasse sehen ...

Klar ... wer keine Pläne in der Schublade hat, der sieht nun mal keine Perspektiven *klaro*

Jetzt wo allerorten die IT-Märkte zusammenbrechen ... da ist der einzige Wachstumssekor der HarzIV-Markt mit den Atom-Klonen.

MFG Bobo(2008 )
 
So so ... aber auf der Cebit 2008 mir noch sagen, dass sie keinen Markt und Perspektive in der "Atom/Silverthorne"-Klasse sehen ...

Klar ... wer keine Pläne in der Schublade hat, der sieht nun mal keine Perspektiven *klaro*
Naja, ab bobcat steht doch schon lange genug auf der Liste ... zumindest mal als Name ... aber vielleicht wusste das nichtmal das Standpersonal ^^

ciao

Alex
 
So so ... aber auf der Cebit 2008 mir noch sagen, dass sie keinen Markt und Perspektive in der "Atom/Silverthorne"-Klasse sehen ...

Klar ... wer keine Pläne in der Schublade hat, der sieht nun mal keine Perspektiven
http://de.wikipedia.org/wiki/Efficeon

Sowas auf SOI-65nm 'umgesetzt' und der Atom würde wakeln.

Da hat AMD geschlafen und auch die Gelegenheit verpasst damit die Geode-Baureihe zu modernisieren. Es mühen sich ja einige ab mit lahmen Geode-Design als Netbook-Alternative. Hier passierte AMD letztlich die Unterlassung. Die Geode-Line wurde nicht weiter verfolgt, was sonst automatisch etwas wie den 'Atom' gebracht hätte bzw. gleich ein Design mit int. GPU. AMD konnte allerdings nicht ahnen, dass Microsoft Windows XP für so eine Geräteklasse das Leben verlängert. Denn unter Vista wäre der Atom jämmerlich eingegangen bzw. eben Linux geblieben.
Ohne die Vista Restriktionen wäre ein 'Efficeon'-Core zzgl. Radeon (7000? ) GPU völlig ausreichend für Netbooks etc. geworden.

Natürlich ist diese Baureihe kaum einträglich. Allerdings hatte H.Ruiz per 50x15 schon vor Jahren den Riecher, dass low power & low budget in Zukunft Bedeutung bekommt.

---
AMD global notebook market share might drop below 10% next year due to netbooks

http://www.digitimes.com/news/a20081205PD205.html (aktuell noch abrufbar)

As Intel Atom processor shipments continue to increase, while AMD has yet to come up with an official netbook platform of its own, AMD's share of the global notebook market might drop from the current 12-13%, to below 10% next year, according to sources at PC vendors.

Although AMD has recently said its Yukon (Huron processor and RS690 chipset) and Congo (Conesus processor and RS780M chipset) platforms will mainly target the entry-level and mid-range notebook segments, the sources believe netbooks are AMD's real target.

But the additional costs to needed to develop for the new AMD platforms while Atom remains cost competitive mean it is unlikely first-tier vendors will give up on Atom and turn to use AMD's products, noted the sources.
Vorteil der 'Atom'-Plattform ist ihre Einheitlichkeit (incl. CPU-Taktrate) und damit minimale Entwicklungskosten.

Wenn AMD nun auftritt und die OEMs extra neue Designs entwerfen müssen dürfte sich dies nicht lohnen.
Außer AMD hätte eine 2-Chiplösung mit CPU-GPU Unit zzgl. Southbridge.

http://www.silicon.de/mobile/wirele...enkt+jetzt+auch+auf+den+netbook_markt+ein.htm

AMD sieht eher den 13'' Markt und vollwertige Dual-Core Designs.
Wobei dann die 1-Core Yukon Plattform wieder nicht ins Bild paßt.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten