Fusion als Heilsbringer für AMD?

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.371
Renomée
9.696
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Geht es nach Michael Hara, Vice President Investor Relations bei NVIDIA , so setzt AMD mit dem Fusion "Haus und Hof aufs Spiel". Gleichzeitig wird der neue Prozessor aber sowohl bei NVIDIA, als auch Intel gefürchtet.

Durch die Integration einer Grafikeinheit könnte Fusion nämlich ein ganzes Marktsegment, in dem günstige integrierte Grafiklösungen gefragt sind für sich gewinnen.

Momentan ist aber noch nicht recht klar, wie der Chip genau aussehen soll, den AMD im Jahr 2009 vorstellen will. Fraglich ist zum Beispiel mit welchem Speicher der integrierte Memory-Kontroller der CPU zusammenarbeiten soll, außerdem dürfte die Integration der Grafik eine Offenlegung der Treiber erforderlich machen, damit Softwareentwickler Optimierungen für den Fusion programmieren können.

<b>Quelle:</b> <a href="http://www.silicon.de/enid/client_server_host/29116" target="b">Noch viele Fragen bei AMDs Fusion</a>
 
hohes Risiko anscheinend, aber wenn's dann funktioniert haben sie anscheinend im wichtigen Mainstreamsegment eine sehr starke Waffe...
 
Wenn das denn alles so klappt wie AMD sich das ausmalt, dann haben sie die Hardware für Millionen von Bürorechnern. Das wäre mal ein gigantischer Markt, da verblasst der bis jetzt so hoch gelobte Servermarkt ziemlich.
 
Also den einzigen Vorteil, den ich bei der Integration des Grafikprozessors in den Hauptprozessor sehen würde, wäre dass dieser besser in das Virtualisierungskonzept passen würde.

Man munkelt ja auch, dass Sun etwas ähnliches ins einem UltraSPARC T2 haben könnte. Vermutlich wegen der Virtualisierung. Aus diesem Grund hat man schließlich auch die beiden Netzwerkanschlüße in den Prozessor verlagert. Das wäre dann auch der nächste logische Schritt für AMD:
Golem schrieb:
Noch dünner sind die Informationen zu einer Grafikeinheit, die ebenfalls in jedem T2-Kern steckt. Ob Sun damit nur einen erweiterten Befehlssatz meint, der als Prä-Prozessor für einen externen Grafik-Chip dient, lässt sich derzeit nur vermuten.
Quelle: http://www.golem.de/0708/54029-2.html

Den Vorteil den er durch die engere Anbindung ohne Umwege über den HyperTransport Link an den Hauptspeicher hätte, wären wohl bei der Leistungsklasse zu vernachlässigen.

Ebenso wird man wohl auch keinen nennenswerten Kostenvorteil haben. Sogar das Gegenteil könnte der Fall sein.
 
Zuletzt bearbeitet:
Also den einzigen Vorteil, den ich bei der Integration des Grafikprozessors in den Hauptprozessor sehen würde, wäre dass dieser besser in das Virtualisierungskonzept passen würde.

Eine Standardgrafikkarte, die in jedem PC vorzufinden ist, hätte den Vorteil, dass man die dicken 3D Brecher, die man so kaufen kann, eher als Addonkarten sehen könnte.

Die könnte dann beim Office ausgeschaltet sein und beim Zocken wird die interne Karte halt ganz einfach zur Physikberechnung oder so benutzt.
 
wenn auch noch nix genaues bekannt ist wie die beiden doch in der Fertigung sehr unterschiedlichen Teile denn effektiv zusammengedengelt werden sollen. Allerdings sollte AMD das technisch solide und zu den avisierten Preisen gereiht bekommen, steht im Bereich der ich-schreib-mal-eben-einen-Brief-an-den-Hausverwalter-und -buch-zwei Bahntickets-im-Internet-Rechner ein echter Kracher an ! Und wer weiss vielleicht kommt ja im zweiten Schritt eins der Dinger rum von denen ich des nächtens träume ein 14 Zoll notebook das so bei 1,2GHZ läuft - kein Performancegigant - aber mit etwa drei Pfund gute 8 Stunden dabei ist . Dazu wärs nötig das Ding auf Genügsamkeit zu trimmen,aber nachdem was ich gelesen habe scheint das durchaus möglich...:) :)
Gut wäre dann noch ne SSD und dank 8GB USB Sticks könnte man sogar auf ein optisches Laufwerk verzichten --- hey da sind wir doch schon im Bereich von 1200 -1300 Grämmern und das ganze nach möglichst um die 700 -800 (nach Ausstattung) Ocken

*träum*

Mmoe
 
Ich denke auch, dass AMD damit absolut auf die reinen Büro- und Arbeitsrechner und auf die Mini-, Sub- und Ultra-Subnotebooks abzielt. Mit so einer Lösung könnte man aber auch blendend in den "Wohnzimmer-PC"-Bereich einschlagen. einfach ein Home-PC, mit den Formaten eines DIN A4-Blatts und der niedrigen Höhe eines DVD-Players/Sat-Receivers.

Auch find ich die Idee von basto recht gut mit dem Zusatzgrafikkarten-Prinzip. "Richtige" Grafikkarte wird komplett vom Strom genommen wenn man nicht spielt und wenn man zocken will, wird sie aktiviert und die OnBoard-Karte verrichtet anderen Kram (sofern realisierbar, bezüglich der wieder-aktivierung im laufenden Betrieb ohne große Reaktivierungszeit. Das die OnBoard-Karte andere Aufgaben erledigt ist ja lediglich eine Frage der Treiber)
 
Es war doch schon immer so das die Bauteile verkleinert werden und dann auf
die CPU kommen.
2 MB Speicher auf der CPU war füher mal der Hauptspeicher des Rechners!

Es ist wohl auch an der Zeit das man von dem ATX Standart endlich wegkommt.
Das die Entwicklung wieder im Fordergrund steht. Auch wenn Microsoft jammert.
 
vorallem nimmt das auch wieder Komplexiblität aus den dicken Karten. Man verlagert den kompletten 2D Teil und die Anschlüsse in CPU (wohl zusammen mit mini 3d für Compiz und Aero) und Motherboard. Dann kann man sich bei der externen Karte komplett auf 3D spezialisieren, was dann auch wieder die Herstellungskosten etwas drücken dürfte.
 
Ich frage mich wo der große Unterschied ist, ob die integrierte Grafik in der CPU oder im Chipsatz steckt. Ich sehe da keinen offensichtlichen Vorteil. Kann mir das mal wer erklären?

Die ganzen Sachen die hier angesprochen wurden (3D Karte abschalten im 2D, kein 2D mehr auf Zusatzkarte nötig, etc.) sind doch auch mit im Chipsatz integrierter Grafik möglich (Stichwort Griffin).
 
Es ist wohl auch an der Zeit das man von dem ATX Standart endlich wegkommt.
Das die Entwicklung wieder im Fordergrund steht. Auch wenn Microsoft jammert.

Was hat MS mit dem ATX Standard zu tun? Und was hat der Fusion mit dem ATX Standard zu tun?
 
Seh ich das richtig, dass der Chip dann wirklich ne vollständige Grafikkarte ersetzen soll wie es z.b. ne onboard-grafikkarte tut? Oder wird es "nur" n 3D Unterstützungschip sein, der konventionelle Grafikkarten zusätzlichen Speed geben soll?
Oder ist "Momentan ist aber noch nicht recht klar, wie der Chip genau aussehen soll" damit gemeint, dass man das detail noch gar nicht weiß?
 
Kann mir jemand erzählen was daran eigentlich an der Silicon.de News so neues ist?

Fusion macht seit letzten Jahr seine Runde.

Bei der aktuellen Tech Day Vostellung ging AMD/ATI auf die "Vorteile" von Fusion ein. Offenbar hat Microsoft ein Interesse daran 3D-Beschleunigung noch mehr für Betriebssysteme zu berücksichtigen. Das hatte sich schon zur Cebit 2007 angedeutet ...
trend_gpu_gui-beschleunigung_2.jpg

Quelle

Also warum macht Silicon.de eine Meldung, um das Wort "News" zu vermeiden?

MFG Bobo(2007)
 
Ich denke auch, dass AMD damit absolut auf die reinen Büro- und Arbeitsrechner und auf die Mini-, Sub- und Ultra-Subnotebooks abzielt.
Ich hoffe ja nicht, obwohl ich es befürchte .... ich meinte jedoch gerade ein komfortableres Format -- warum sind eigendlich 14 Zoll bei Laptops aus der Mode gekommen ?? ??? ??? ??
Bei 12 abwärts ist wieder die Tastatur so fusselig und beim Display fehlen einem auch ständig 3cm in der Diagonalen und jeder Dreck muss mit superteuren Spezialteilen gelöst werden.... Ne ne ne , ich meinte schon 13,5 bis 15 Zoll aber halt leicht, so 1200 - 1600 Gramm, wenns 1800 sind solls mir auch recht sein und es soll halt mit einer Akkuladung gut 8 Stunden Divx-Filme abspielen können .... ich könnte dann auch locker mit leben wenn weder Stalker noch Aero drauf laufen...

Mit so einer Lösung könnte man aber auch blendend in den "Wohnzimmer-PC"-Bereich einschlagen. einfach ein Home-PC, mit den Formaten eines DIN A4-Blatts und der niedrigen Höhe eines DVD-Players/Sat-Receivers..

Muss ich sagen, frag ich mich schon seit Jahren !! Was hätten die Nasen die Geode NX Reihe unters Volk klatschen können.... abgepektes Mobo, NX1500 ( 9 Watt ) drauf, bisken an den Ecken gefeilt und schon wäre im PAL Bereich alles klar gewesen....mit nem System das wahrscheinlich unter 25 Watt läuft.... Eventuell noch nen DSP-Proz von TI einheiraten lassen, denne würde es wahrscheinlich auch für HD reichen (wers denn unbedingt brauch ....) und immer noch unter vierzig Watt liegen.... Ich glaub gar nicht dass es da die Graphikintegration braucht... wenn wir mal zurückdenken was Videotechnisch schon alles mit nem AthlonXP 2200+ und einer MX440 bei 256MB Ram ging kann man vage abschätzen wie es aussieht wenn man da zweckoptimiert rangeht ( kleines OS und ein paar Spezialchips zur Unterstützung)

Auch find ich die Idee von basto recht gut mit dem Zusatzgrafikkarten-Prinzip. "Richtige" Grafikkarte wird komplett vom Strom genommen wenn man nicht spielt und wenn man zocken will, wird sie aktiviert und die OnBoard-Karte verrichtet anderen Kram (sofern realisierbar, bezüglich der wieder-aktivierung im laufenden Betrieb ohne große Reaktivierungszeit. Das die OnBoard-Karte andere Aufgaben erledigt ist ja lediglich eine Frage der Treiber)

Da hätte wirklich mal einer drauf kommen können find ich ehrlich gesagt viel praktischer als SLI !! Hab mir vor kurzem ne neue Graka geholt (meine 5200er hatte kein DVI für mein LuxusTFT..;D ) hatte schon die 7600GS von MSI (Passiv gekühlt) in der Hand, hab sie aber bei der Bemerkung :" Ich hätte gern ein 400 Watt-Netzteil " grad wieder zurückgelegt. Ich zock hin und wieder mal ein halbes Stündchen in ungraden Schaltjahren auch mal ein ganzes oder anderthalb, allerdings sehe ich nicht ein, dass das Ding wärend ich Emails, oder wie hier viel zu langathmige Forenbeiträge schreibe in Langeweile 80 Watt saugt.....Es wurde dann eine 6200er ......
Bei einer GraKa die man im Betrieb einfach so wegklemmen kann käm ich allerdings ins Grübeln ! :D


Mmoe
 
Kommt das nicht schon viel früher in einem der neuen ATI Chipsätze mit integrierter Grafik? Hatte das so in Erinnerung...
 
Mich kann das auch nicht überzeugen, dann werden die Cpu auch nur mehr aufgebläht.
Eventuell dann noch schneller neue Steppings weil sie mal wieder ein paar Fehler mehr mit "integriert" haben usw.
Muss irgendwie an Nvidia Chipsätze denken, immer mehr integriert was außer einem exorbitanten Stromverbrauch nicht wirklich was bringt.
Na will ich mal hoffen das es dann nicht auch noch ne Firewall "Cpu inside" geben wird, mal so an Nvidia denk.
Auch diese NX-Bit Geschichte hat auch durchaus zu Problemen geführt.
Soll man davon jetzt immer mehr Fehler/Problemquellen in die Cpu reinbekommen?
 
Wenn die integrierte GPU dazu genutzt wird, den "2D"-Bildschirm von Linux/Windows zu unterhalten und für Spiele dann auf 1000W Hai-End umgeschaltet wird, dann ist das mehr als gut!

Auch diese NX-Bit Geschichte hat auch durchaus zu Problemen geführt.

Bei den Softwareherstellern, weil sie endlich mal aufgezeigt bekommen haben, was sie für nen Mist gemacht haben?
 
Hi,

ich bin ein bisschen skeptisch ob der Markt wirklich so lukrativ ist. Die OnBoard Grafik Chips sind auch nicht gerade teuer. Und ob die Händler und Geschäftskunden wegen ein paar Dollar billiger ohne bessere Performance von Intel zu AMD wechseln bezweifele ich.

Da gab es Zeiten da war AMD sowohl günstiger und besser und im Mainstreammarkt hat AMD zwar zugelegt aber noch ziemlich moderat. Warum sollte das dann anders sein nur weil sie günstiger sind aber nicht besser?

Außerdem dürfte die CPU ziemlich groß werden, das bedeutet AMD baggert sich seine knappe Lieferkapazität mit einem LowCost = LowMargin Produkt zu.

Der Fusion passt eher zu Intel, in dem Marktsegment eh schon eine Macht und Fertigungskapazität ohne Ende. AMD kriegt damit nur Probleme fürchte ich.

Ciao Jens
 
um wiviel würde ein fusion cpu den stromverbrauch drücken ?!
 
Hi,

wenn AMD Fusion hat, hat Intel bestimmt ein Gegenpart. Ich denke, die Sache macht Sinn und natürlich sollte sich eine externe GPU bei Bedarf zuschalten lassen. Dennoch muss Fusion klar besser sein als die derzeitigen onboard Lösungen. Will man Erfolg haben, stehen 2008 Vista und kleinere 3D Fähigkeiten usw. im Pflichtenheft.

Vielleicht kann man sich das auch so vorstellen(vereinfacht) ein Teil - R700 mit auf dem Die. Bei Bedarf werden andere R700 extern zugeschaltet... Das könnte natürlich bedeuten, dass man mit Fusion auf AMD GPUs "beschränkt" ist.

Greetz
neax;)
 
Zuletzt bearbeitet:
Durch die Integration einer Grafikeinheit könnte Fusion nämlich ein ganzes Marktsegment, in dem günstige integrierte Grafiklösungen gefragt sind für sich gewinnen.

Momentan ist aber noch nicht recht klar, wie der Chip genau aussehen soll, den AMD im Jahr 2009 vorstellen will. Fraglich ist zum Beispiel mit welchem Speicher der integrierte Memory-Kontroller der CPU zusammenarbeiten soll, außerdem dürfte die Integration der Grafik eine Offenlegung der Treiber erforderlich machen, damit Softwareentwickler Optimierungen für den Fusion programmieren können.
Preiswerte GPU-Lösungen, die AMD Geld bringen können ?

Wo Fusion einmal drin sein wird, da verkauft AMD/ATI eine Northbridge mit GPU-Core oder einen Budget-Grafikchip weniger.

Wieso neue Treiber ist mir ebenso nicht klar, denn der Speicherzugriff ist ja nur ein randthema der 3D-Performance.

Einziger Sinn des Fusion-Konzeptes ist es die letztlich die für viele CPUs überflüssige Performance von DDR-3 der GPU zur Verfügun zu stellen.
Allerdings kann eine performante Northbridge im Intel-Design dies ebenso gut.

Bleibt als einziger 'Joker' ZRAM oder EDRAM, was lokal Daten weit jenseits von DDR-3 Riegel handhaben könnte und wir dann bei Fusion eine (späte) Umsetzung von Konsolengrafik erleben würden.
Wenn man dann eh schon in die SOI-Fertigung (ZRAM und eDRAM sind darauf ausgelegt) geht, dann kann man eigentlich gleich die FPU-Einheiten hochtakten und per SMT-Technik mehrfach für die langsameren GPU-Basiseinheiten wie Shader nutzen.
Das kostet zwar mehr Strom im Zocker-Einsatz als bei vielen Einzel-Einheiten, dafür preiswerter in der Herstellung, mit dem CPU-Kühler (der bei 45W CPU eh unterfordert ist) gut auf niedrigen Temperaturlevel zu halten und im IDLE per C'n'Q sehr sparsam da eben weniger Hardware so vor sich hin taktet. So etwas schafft natürlich auch zusätzlich Mobilität wenn im Notebokk nur Internet & Office betrieben wird.

Im Prinzip ist 'Fusion' also ein interessantes Konzept, aber bisher hat AMD/ATI gerade bzgl. eDRAM und SMT bei FPU/SSE nicht verlauten lassen.
 
Was sollen sie den großartigen verlauten lassen, wenn das Ding erst in 2Jahren kommen soll?!
Der Fusion existiert vermutlich z.Zt. zu 90% nur aufm Papier...
 
Preiswerte GPU-Lösungen, die AMD Geld bringen können ?

Wo Fusion einmal drin sein wird, da verkauft AMD/ATI eine Northbridge mit GPU-Core oder einen Budget-Grafikchip weniger.
Falsch! Wo der Fusion eingesetzt wird, da entfällt wohl eher allgemein die integrierte Grafik des Chipsatzes, wodurch sich dieser kompakter gestalten lassen kann und der HT Link wird auch noch entlastet.
Das ziel des Fusions Projektes ist wohl weniger eine Spielkonsole zu basteln, sondern vielmehr die Alltagsgrafik damit realisieren zu können. einen kleinen Framepuffer von vielleicht 8-16MB halte ich als Entlastung für den Speichercontroller sogar für warscheinlich und das was darüber geht wird in den Arbeitsspeicher ausgelagert. Für Zocker dürfte wohl eher ebendso wenig geeignet sein wie die derzeitigen integrierten Grafiken, da es schlicht und ergreifend auch nicht das Ziel sein wird aber die Variante mit einer zuschaltbaren separaten 3D Karte würde gleich 4 Fliegen mit einer Klappe schlagen.
1.) sie frisst nicht unnötig Strom im Desktop Betrieb
2.) bei der derzeitigen Shader Entwicklung wäre es denkbar das diese für zusätzliche Rechenleistung misbraucht werden kann
3.) man kann sich bei der Grafikkartenentwicklung auf das 3D Gebiet und damit beispielsweise auf die Shaderleistung konzentrieren und etwas Waferfläche einsparen.
4.) man kann mit einem Design für jedes Anwendungsgebiet die optimale Lösung zur verfügung stellen.

AMD hätte durch den Kauf von ATI die nötige Technologie für eine solche Plattform und kann damit auch noch massig Marktanteile im Grafikkartenmarkt gewinnen, denn jeder verkaufte Prozessor fließt schließlich auch in diese Statistik mit ein.
 
Zurück
Oben Unten