FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.

neax

Grand Admiral Special
Mitglied seit
30.03.2004
Beiträge
3.352
Renomée
69
Standort
Ruhrgebiet
Hi,

Warum hat AMD ATI gekauft*noahnung* Dafür gab es mehrere Motive....

Ein Motiv war sicherlich die Absicht eine neue Klasse von x86er-Prozessoren
zu schaffen, nämlich einem Chip, der CPU und GPU kombiniert.
Damit soll u.a. vor der Stromverbrauch der Systeme gesenkt und
natürlich wird es auch Kostenvorteile geben.

Unter dem Codenamen "Fusion"
arbeitet AMD an einem solchem CPU-GPU-Chip.

0


Zum zweiten will AMD will aber auch weiterhin auf eine offene Plattform
setzen und andere Anbieter können, weitere Co-Prozessor-Lösungen
für spezifische Rechenaufgaben zu entwickeln.

Da es noch keinen Thread zum Thema "FUSION" gibt....habe
ich diesen hier eröffnet.

Greetz
neax;)
 
http://www.planet3dnow.de/vbulletin/showthread.php?p=3067594#post3067594

Die Zukunft mit 270 Watt ?

'Fusion' ist ein wichtiger Teil zur Verminderung des Energiebedarfes kommender Computer. Die Performance einer 'R600' kann man vielleicht für 2010 als notwendiger Teil einer Fusion-GCPU ansetzen, was auch in SOI-45nm eher nach BTX-Kühler 'riecht'.

Der CPU-Teil dazu wird mit hoher Wahrscheinlichkeit Dual-Core sein, da hier vielleicht 70-90 mm2 inc. aller Caches ausreichen.
Aber eine R600 wäre auch in 45nm noch gigantisch groß und vielen Transistoren ausgestattet, die ber der Fertigung fehlerhaft sein könnten.

Daher erscheint mir die komplizierteste Aufgabe eine Performance einer R600 mit deutlich weniger Transitoren und weniger Strombedarf zu erstellen.
Im Prinzip per hochgetakteten Rechenunits, die aber shared von virtuellen Units genutzt werden könnten. Ich tippe mal, daß Intel bei seinen neuen HighEnd-Grafiklösungen ebenso schnelle Schaltkreise durch shared-designs analog zu HT nutzen wird.

Wichtig für Fusion ist die Ausnutzung der Vorteile der relativ schnellen Schaltungen in CPU-Designs. Nur so lohnt sich die Verwendung der HighTech Fabs aus der CPU-Welt, ansonsten ist eine Lösung per Northbridge sinniger.

Nur schnelle Grafik spült auch Geld ein, bei heutigen GPUs in der Northbridge dürften man +$5 ansetzen bei grob 1 cm2 mehr an DIE-Fläche. Sowas ist in der Fab36 o. Fab38 nicht wirtschaftlich machbar, die Waferfläche muss dort mehr Geld einbringen.
Also Power rein und höhere zweistellige Dollar mehr je DIE erlösen, dann rechnet sich die Sache.
Oder gleich HighEnd Cores für diskrete GPUs, da wären vielleicht $200-$500 noch machbar.
 
Hi,

Fusion Zeitplan...


Das Fusion IDEE und Entwicklung wurde direkt nach dem Kauf von ATI bekanntgeben.

Der erste Fusion CPU-GPU-Chip sollte 2008 erscheinen - ein ambitionierter Zeitplan - zu ambitioniert. Die erste Hardware in Form des CPU-GPU-Chips ist nun für 2009 angepeilt.


Fusion ZIEL....

Die CPU-GPU-Chip soll mehr Leistung pro Watt bringen und natürlich auch Kostenvorteile. Für viele Anwendungsfälle würde eine LOW End GPU im CPU-GPU-Chip ausreichen. Eine Erweiterung durch einen diskrete GPU sollte weiterhin möglich sein.

Erste Zielmarkt dürfte der Mobile-Sektor sein, um dort eventuell Intels Vorherrschaft auf diesem Marktsegment anzugreifen.

amd_fusion_3.png


Greetz
neax;)
 
denke auch, dass es vollkommen ausreicht, wenn man etwas integriert was es erlaubt die 3d Oberflächen der verschiedenen Betriebssysteme zu betreiben. Ein reiner 2d Kern ist deswegen ja nicht sinnvoll. Für Windows Aero reicht eine 7300gs dicke aus, bei Quarz und AIGLX reicht sogar die i915 meines Notebooks. Die sollten ja dann in <=45nm nicht besonders viel Platz wegnehmen.

Kenn mich mit GPUs nicht so aus, aber bekommt man da nicht auch Vorteile, wenn nur der 3d Kern verbaut wird?
 
Hmm also Highend GPU mit CPU kombinieren gäbe echt keinen Sinn, die Speicherbandbreite ist dafür einfach zu gering.

Ich denke Notebooks und vieleicht server wären ein Markt für solche Chips.

In servern könnte man damit die onboard Grafik sparen und die CPU auch mit hoher float performance unterstützen.

Inwieweit unterscheiden sich den die Schaltungen von CPUs und GPUs da könnte man doch sicher einiges teilen.

Nich hauen wenn ich mist erzähl bin erst 19 und arbeite mich gerade in das Thema ein.
 
Man nehme die Grafikeinheit aus der Northbridge (Gerüchten zu Folge ja eh schon fast komplett in der CPU ;)), packe sie in die CPU und verkaufe es als Geniestreich...

Nichts weiter als ganz normale Evolution, nichts bahnbrechendes, nichts überraschendes.
 
Hmm also Highend GPU mit CPU kombinieren gäbe echt keinen Sinn, die Speicherbandbreite ist dafür einfach zu gering.

Ich denke Notebooks und vieleicht server wären ein Markt für solche Chips.

Inwieweit unterscheiden sich den die Schaltungen von CPUs und GPUs da könnte man doch sicher einiges teilen.
Sind gute Ideen.

Man sollte nur definieren, was HighEnd bedeutet. Bisher rutschte die Performance aktueller HighEnd innerhalb von 2-3 Jahren auf Einsteiger-Designs herunter.

Wenn 'Fusion' kommt wird DDR3 Standard sein auch im Einsteigerbereich (DDR1/2/3) unterscheiden sich ja kaum im internen Takt der DRAMs. dafür aber der Speicherzellendichte und der Vcc. Nur die exterene Kommunikation ist besser und es werden so die eh vorhandenen vielen gleichzeitig im DRAM ausgelesenen Daten schneller übertragen.
Integriert AMD bei Fusion local Speicher per ZRAM (s. ca. 16/32 MB) kann ähnlich den Konsolen extern mit DDR3 gut gearbeitet werden. Die Konsolentechnik dürfte sicherlich Referenz für AMD sein, denn sonst wird ein PC schnell vs. Konsole in Zukunft verlieren und seine Position als Spieleplattform einbüßen.

Shared sollten die SSE u.ä. Units in Zukunfts sein, denn ein Vista-Nachfolger (2010 ? ) wird eher 3D-Effekte häufig nutzen als die 4* SSE Units in einem X2-Budget-Core des Typs K10 (= Einsteigerdesign in ca. 2009 )
4* SSE bedeutet 4*4 = 16 Rechenwerke für FloatingPoint langweilen sich heute, während die onboardGrafik bei Vista teils überfordert wird. SSE - s.z.B. http://www.heise.de/ct/00/05/016/
 
Nun ja, es wird dann wirklich interessant, wenn die CPU die Ausführungseinheiten des GPU-Teils für grafikfremde Berechnungen mit verwursten kann (ohne daß die Software dafür extra speziell geschrieben werden muß wie z.B. beim Einsatz von X1900-Grafikkarten für SETI@Home), schließlich kann man schon auf kleinen Grafikchips bestimmte Berechnungen wesentlich schneller als auf den schnellsten CPUs durchführen. Also sozusagen nach der x87-FPU die nächste Stufe der Integration, muß ja nicht so wie der Cell sein (d.h. kleiner CPU-Anteil und haufenweise Streamingprozessoren), sondern eben etwas konservativer mit mehr Gewicht auf den normalen CPU-Kernen.

Sowas kann man dann nicht nur für Notebooks nutzen, sondern auch in Mehr-Sockel-Servern sehr nutzbringend verwenden, weil es dann eben nicht mehr nur eine normale CPU mit angeklebtem Mainboardchipsatz ist.
 
http://uk.theinquirer.net/?article=37548

Intel 'erfindet' die GPU neu - per x86 Mini-Core mit 4 threads per core und davon vielen auf dem DIE.

So ein Design deutet auf hohen Takt jener x86 Mini-Cores hin, die aber für die Programmierung jeweils 4 logische Cores zur Verfügung stellen.

Wie ich schon erwähnte, die Transitoren müssen intensiver als heute genutzt werden, damit ihre Anzahl nicht Monster-Chips ergeben. Dafür aber höher getaktet werden und zur einfacheren Umsetzung von 3D-Algorithmen virtuelle / SMT Cores aufweisen.

Für Fusion müßte so etwas ähnlches her, den ein typ. x86-64 / SSE Core takten deutlich jenseits von 2 GHz, während Software das nicht eff. nutzen kann.
 
Hi,

OBrian: Sowas kann man dann nicht nur für Notebooks nutzen, sondern auch in
Mehr-Sockel-Servern sehr nutzbringend verwenden, weil es dann eben nicht mehr nur
eine normale CPU mit angeklebtem Mainboardchipsatz ist.

Ja, das denke ich auch. Wenngleich das Einsatzgebiet erst einmal der Mobilesektor sein wird.

Der Ansatz von AMD soll grundsätzlich in vielen Bereichen zum Einsatz kommen:

FUSION - Systeme kann auch mit diskreten GPU und Physik-Beschleunigern erweitert werden.
FUSION soll kein Spezialprozessor werden: AMD möchte das FUSION Konzept
in allen Bereichen zum Einsatz bringen: in Notebooks, Desktops, Workstations und auch in
Servern und Lösungen für die Unterhaltungsindustrie.

Greetz
neax;)
 
FUSION - Systeme kann auch mit diskreten GPU und Physik-Beschleunigern erweitert werden.
FUSION soll kein Spezialprozessor werden: AMD möchte das FUSION Konzept in allen Bereichen zum Einsatz bringen: in Notebooks, Desktops, Workstations und auch in Servern und Lösungen für die Unterhaltungsindustrie.
Das spricht dann wieder für den Co-Prozessor... Ansonsten wären 4 Grafikkerne in einem 4-Sockel-System einfach nur unnötige Stromverbraucher. Und das passt jawohl gar nicht in die Philosophie von AMD...
 
Das spricht dann wieder für den Co-Prozessor... Ansonsten wären 4 Grafikkerne in einem 4-Sockel-System einfach nur unnötige Stromverbraucher. Und das passt jawohl gar nicht in die Philosophie von AMD...
Siehe Plattformkonzept im ersten Beitrag......vorstellbar ist doch eine Variante mit- und ohne Grafikkern, oder?
Letzteres ist wohl eher für Multi CPU Systeme.
 
Wenn es, wie wohl zu erwarten ist, 2 Versionen ( mit und ohne Grafikkern ) geben wird, dann wäre doch auch ein Mixed-System vorstellbar. Pro System könnte man dann einen Prozessor mit Grafikkern einsetzen und den Rest mit ohne füllen
 
Also ne Version ohne Grafikkern fänd ich jetzt irgendwie witzlos. Das wär dann doch ne ganz normale CPU.

In einem mehr Prozessor System in dem nur eine Grafikeinheit gebraucht wird könnte man ja die anderen deaktivieren oder für andere Aufgaben verwenden.
 
http://www.heise.de/newsticker/meldung/85119

Intels 80-Core in 65nm / 275 mm2 als Demo auf der ISSCC.

Wird als Experimental-Chip bezeichnet, ist aber schon sehr komplex aufgebaut (s. Schlaftransistoren). Die typ 3-4 GHz sind für GPUs zu schnell, bei SMT-Technik aber wiederum realistisch.
Auch erinnern die single precision floeting point eher an Grafiklösungen, als an Supercomputer.
 
vielleicht ein vorgänger von *noahnung* deren Grafiklösung?
Über das Wort 'Vorgänger' kann man streiten.

Die Verbindung der Cores untereinander ist nicht typ. für GPUs.
Allerdings sind die verwendeten Cores eher für 3D-Aufgaben geeignet, als für wissenschaftliche Berechnungen.
Intel könnte aber auch nur Pentium 1/2 oder Pentium pro Cores als Muster genommen haben um den Chip zu fertigen. Bei jener x86 Generation war der Core kompakt und ein L2-Cache noch nicht elementar auf dem DIE integriert.

Ein Pentium 1 (P54C) hatte in 0,35 um Fertigung 83 mm2, also auf 0,065 um umgerechnet knapp 3 mm2 - http://de.wikipedia.org/wiki/Pentium. Bei 80 Cores also 200-240 mm2, dazu noch Router etc.
 
Zuletzt bearbeitet:
hmm wenn man die Performance runterrechnet auf einen Pentium I 200 Mhz wären das ~0,78 GFlops pro Core

realistisch ?
 
ja hast nen denkfehler gemacht es handelt sich um eine Fläche daher musst du das ganze quadratisch nehmen.

dann kommt tatsächlich ~2.86mm² raus
 
Also Deine Rechnung ist irgendwie ZU optimistisch für mich:
0,35 / 0,065 = 5,38
83 / 5,38 = 15,4 mm2

Oder unterliege ich da einem Denkfehler?
Komprimiert sich grob in beide Dimensionen, d.h. 5* feinere Linien ergibt 5*5=25 fach kleinere DIEs.

Hier jetzt die Cores im Detail: http://www.tecchannel.de/news/themen/technologie/461722/

Sieht aber doch wenig nach Pentium oder x86 aus.

Hier gehts weiter im Detail:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3070288#post3070288 und
http://www.computerbase.de/news/har...ar/intel_polaris_80_kerne_1_teraflop_62_watt/
 
Zuletzt bearbeitet:
Verstehe, danke für die Aufklärung

3mm2 ist dann ganz gut, wahnsinnig wie groß die heutigen cpu's dagegen sind......

lg
__tom
 
Über das Wort 'Vorgänger' kann man streiten.

Die Verbindung der Cores untereinander ist nicht typ. für GPUs.
Allerdings sind die verwendeten Cores eher für 3D-Aufgaben geeignet, als für wissenschaftliche Berechnungen.
Intel könnte aber auch nur Pentium 1/2 oder Pentium pro Cores als Muster genommen haben um den Chip zu fertigen. Bei jener x86 Generation war der Core kompakt und ein L2-Cache noch nicht elementar auf dem DIE integriert.

Ein Pentium 1 (P54C) hatte in 0,35 um Fertigung 83 mm2, also auf 0,065 um umgerechnet knapp 3 mm2 - http://de.wikipedia.org/wiki/Pentium. Bei 80 Cores also 200-240 mm2, dazu noch Router etc.

Na ja, ein experimentalchip/prototyp ebend.....es heißt ja auch das sie ne GPU basierend auf x86er core`s herstellen wollen.
Zu den 80 cores bei 65W.....ich find das zwar leider nicht mehr wieder aber der chip soll bei ca. 1,8 Tflop (etwas über 5GHz und mehr Spannung) über 250W verbraten....

Edit: grad bei Computerbase gelesen....
Bei 5,7 GHz erzielt Intel eine Leistung von 1,81 Teraflops, wobei allerdings auch die Leistungsaufnahme auf 265 Watt (bei 1,35 Volt) steigt.
 
Na ja, ein experimentalchip/prototyp ebend.....es heißt ja auch das sie ne GPU basierend auf x86er core`s herstellen wollen.
Zu den 80 cores bei 65W.....ich find das zwar leider nicht mehr wieder aber der chip soll bei ca. 1,8 Tflop (etwas über 5GHz und mehr Spannung) über 250W verbraten....
Wäre nun interessant die eff. Auslastung bei 3D-Chips zu kennen.

Es könnte durchaus sein, daß nicht immer alle gleichzeitig benötigt werden und wenn doch, würde einfach Vcc und Takt gedrosselt werden.
 
Abwarten und tee trinken ebend. ;)
Aber prinzipiell macht für mich ein 3D chip mit x86er cores im vergleich zu den Spezialchips herzlich wenig sinn, es sein denn die sind stark modifiziert undob man sie dann noch als x86er bezeichten kann...?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten