FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
1-10Watt ich vermute mal das die Diskussion genauso endet wie bei Fusion wo 100 Watt CPU und nochmal 25 für die GPU errechnet wurden. Immer schön die maximal Werte ;-)

250 mW steht da auch für den Idle zumindest Tablets&Co sollten möglich sein, ob das einer damit fertigen will ist eine andere Baustelle. Ich sehe auch die größten Probleme im Mobil Bereich weil da immer mehr Produkte verkauft werden. Allerdings eher im Marketing als Technisch.
 
Es gibt doch schon lange grobe Bereiche für den Strombedarf. Und das liegt deutlich über ARM-Designs und auch Intels Atom - zumindest für SMT-Single-Core
Und 40nm läßt sich bzgl. Strombedarf doch PI mal Daumen schon jetzt gut abschätzen wenn man einfach einen 45 nm Single-Core K10.5 zum 2* 40nm Bobcat ähnlich bzgl. TDP ansetzt. Und die verwendete GPU auf heutigen IGP-Northbridge Level ansetzt.


Zudem setzt AMD per Ontario per DirectX 11 GPU schon eine performante und nicht gerade einfache = stromsparende Technik ein.

AMD hat beim Netbook noch ungläubig den Kopf geschüttelt und der Bereich TabletPC ist außerhalb des AMD-Fokus.

(...)

AMD hängt beim Ontario zwischen den wohl gut optimierten K10.5 SOI-Cores wie LIano und den effizienten ARM/Atom Designs der Konkurrenz.
Ich sehe den Bobcat eher als Versuch über die Bulk-Fertigung die etablierte IGP-Northbridge um CPU-Cores zu ergänzen und im low performance Bereich Produkte anbieten zu können.
Hier zu erwarten das in Jahrzehnten hochoptimierte ARM-Design zu ersetzen ist eher Marketing als machbare Realität.
Zumindest sollte AMD schleunigst Bulk-28nm auffahren um nicht völlig von Bulk-28nm ARM Designs der GF-Dresden unter gebuttert zu werden.

Außerhalb des Fokus kann ja nicht stimmen:

Derrick Meyer schrieb:
"We’ve talked in the past about our Bobcat core. That’s the brand new x86 micro architecture which first appears in the Ontario product which we talked about in the analyst conference. The Ontario product is really focused on I’ll call it value PC’s and netbooks, but the Bobcat technology and other technologies that we have in house are appropriate to lower power envelopes such as are appropriate for Pads, and you’ll see Bobcat based products show up the following year appropriate to that market segment."
Quelle

Slide110.JPG


Außerdem soll doch Bobcat vollständig synthetisierbar sein. Mann kann also ähnlich ARM schnell neue Designs erstellen.

http://www.heise.de/ct/artikel/Prozessorgefluester-862083.html
 
Ach komm rkinet, jetzt mal nicht so pessimistisch. An den Erfolg der Grafikkarten und der Fusion mit ATI hat auch keiner geglaubt und jetzt?
Auch bei den Prozzis hat AMD mit dem Thuban eine attraktive CPU rausgebracht mit einen Takt, den keiner für möglich gehalten hat. Also ich denk schon, dass die noch bissle was in der Hinterhand haben, keine Sorge.
AMD wird wohl den Thuban in Teilen beim Mobil-Quad-Champlain noch verwerten.

Das sind aber alles TDP-Bereiche weit oberhalb jener der TabletPCs.
.
EDIT :
.

Außerdem soll doch Bobcat vollständig synthetisierbar sein. Man kann also ähnlich ARM schnell neue Designs erstellen.

http://www.heise.de/ct/artikel/Prozessorgefluester-862083.html
Damals sprach man noch von 32nm und GF-DD- jetzt von 40nm und TSMC.

Und für 1 Watt wurde auch nicht entschieden bzgl. 40nm, 32nm, 28 nm oder erst 22nm.

Und DirectX11 ist auch nicht gerade sparsam. Und jüngst hat sich Microsoft vom TablettPC per Windows verabschiedet. Allein deshalb läuft der Ontario hier schon ins Leere bzgl. neuen kleinen Designs.
Ihm bleibt natürlich der Bereich Thin Clients und kompakte Netbooks - 11''6 ?!

AMD hat bei SoC bisher eher mäßige Erfolge gehabt: http://de.wikipedia.org/wiki/AMD_Geode
Auch deshalb sollte und darf man nicht zuviel erwarten vom nächsten Versuch.
 
@rkinet
1 oder 2 Watt ist nicht das Problem, sondern eben der Rest alias iGPU & Southbridge usw.

Das Problem beim Atom ist nicht der Kern, sondern der Rest der ein x-faches an mehr Strom verbraucht.
Allein da hat AMD den riesen Vorteile, mit ihrer DX11-GPU-Technologie ein deutlich effizienteres GPU-Design auf Bobcat-SoC zu knallen.

Wir wissen nur etwas vom Core, aber eben nichts vom Rest. Deshalb ist die Diskussion über Bobcat ziemlich nutzlos.
 
...Damals sprach man noch von 32nm und GF-DD- jetzt von 40nm und TSMC.

Und für 1 Watt wurde auch nicht entschieden bzgl. 40nm, 32nm, 28 nm oder erst 22nm.

Und DirectX11 ist auch nicht gerade sparsam. Und jüngst hat sich Microsoft vom TablettPC per Windows verabschiedet. Allein deshalb läuft der Ontario hier schon ins Leere bzgl. neuen kleinen Designs.
Ihm bleibt natürlich der Bereich Thin Clients und kompakte Netbooks - 11''6 ?!

AMD hat bei SoC bisher eher mäßige Erfolge gehabt: http://de.wikipedia.org/wiki/AMD_Geode
Auch deshalb sollte und darf man nicht zuviel erwarten vom nächsten Versuch.

Gerade weil Bobcat "synthetisierbar" sein soll, macht es für Bobcat wohl sehr viel Sinn, dass AMD diesen nicht nur für 28nm-HKMG bei Globalfoundries, sondern eben auch für 40nm bei GF und 40nm bei TSMC anbietet. Später wird es dann sicher auch ein Design für 28nm bei TSMC geben. Erst auf diese Weise wird Bobcat für viele Kunden interessant, ähnlich ARM.
 
Die Sache ist wohl unter meinem Radar durchgeflogen:

http://labs.trolltech.com/blogs/2010/04/07/using-opencl-with-qt/

Embedded Devices

Right now, QtOpenCL works very well with desktop OpenCL implementations, like that from NVIDIA (we’ve tested it under Linux, Mac, and Windows). Embedded devices are currently another matter - OpenCL implementations are still very basic in that space. The performance improvements on embedded CPU’s are only slightly better than using ARM/NEON instructions for example. And embedded GPU’s are usually hard-wired for GLSL/ES, lacking many of the features that makes OpenCL really sing. But like everything in the embedded space, things are likely to change very quickly. By releasing QtOpenCL, hopefully we can stimulate the embedded vendors to accelerate development by giving them something to test with. Be the first embedded device on the block to get the mandelbrot demo running at 10fps, or 20fps, or 60fps!
 
Gerade weil Bobcat "synthetisierbar" sein soll, macht es für Bobcat wohl sehr viel Sinn, dass AMD diesen nicht nur für 28nm-HKMG bei Globalfoundries, sondern eben auch für 40nm bei GF und 40nm bei TSMC anbietet. Später wird es dann sicher auch ein Design für 28nm bei TSMC geben. Erst auf diese Weise wird Bobcat für viele Kunden interessant, ähnlich ARM.
Theoretisch schon.

Aber die ARM-Designs sind das Ergebnis aus Jahrzehnten Arbeit was selbst Intel nicht kompensieren konnte.

Und den Glauben an Wunder-CPUs habe ich schon lange abgelegt. 8)

Außerdem liegt es nahe dass AMD per Ontario die Historie der x86 IGPs übernehmen will bei gleichzeitig Performance etwas über low budget Athlon / Sempron und etwas reduzierter TDP.
Das läge aber über Intel Atom bei Performance & TDP und damit auch über den jetzt verfolgten Linie für TablettPCs.
Als AMD plante da war ja noch Windows für Tablet und Handy konkrete Erwartung. Heute nur noch Vergangenheit.
 
Wow, jetzt gehts aber los, erste APU Optimierungen für AMDs OpenCL Stack:
What’s New in v2.1

  • Support for openSUSE™ 11.2 and Red Hat® Enterprise Linux® 5.4.
  • Support for OpenCL™ / OpenGL® interoperability.
  • Support for OpenCL™ byte addressable stores3,4.
  • Support for OpenCL™ images3.
  • Extension: Support for double-precision floating point basic arithmetic in OpenCL™ C kernels.
  • Extension: Support for AMD media operations in OpenCL™.
  • Extension: Support for device fission in OpenCL™ 4.
  • Extension: Support for device attribute queries in OpenCL™.
  • Preview Feature: Support for binary OpenCL™ kernels.
  • Additional OpenCL™ samples:
    • HistogramAtomics
    • MatrixMulDouble (under cpp_cl)
    • MatrixMulImage
    • SimpleGL
    • SimpleImage
    • SobelFilterImage (under cpp_cl)
    • URNGNoiseGL
  • Stream KernelAnalyzer 1.5 installer now bundled with the ATI Stream SDK v2.1.
  • Various OpenCL™ compiler and runtime fixes and enhancements (see developer release notes for more details).
  • Support for new hardware:
    • ATI Radeon™ HD 5830 GPU
    • ATI Radeon™ HD 5450 GPU
    • ATI FirePro™ V8800 GPU
    • ATI FirePro™ V7800 GPU
    • ATI FirePro™ V5800 GPU
    • ATI FirePro™ V4800 GPU
    • ATI FirePro™ V3800 GPU
    • ATI Mobility Radeon™ HD 5800 Series GPUs
    • ATI Mobility Radeon™ HD 5700 Series GPUs
    • ATI Mobility Radeon™ HD 5600 Series GPUs
    • ATI Mobility Radeon™ HD 5400 Series GPUs
    • ATI FirePro M7820™ GPU
    • ATI FirePro M5800™ GPU
http://developer.amd.com/gpu/ATIStreamSDK/Pages/default.aspx

Soll noch einer sagen, AMD würde schlafen ..

ciao

Alex
 
Danke für den Hinweis. Ja, scheint sich echt was zu tun, bei AMDs Software- und Treiberabteilung.
cool: Support for device fission in OpenCL™ 4. :D Eigentlich sind die doch erst bei 1.1.......
Ist das ein Schreibfehler oder bedeutet es etwas anderes als ich denke?
 
@isigrim
Da steht nicht OpenCL 4.0 sonder OpenCL mit einem hochgestellten 4.
Das ist ein Copy-Past-Fehler.
4 ... Support available on x86 CPU w/ SSE3 or later.

@Selbstgespräch
Endlich ist Double-Precise mit OpenCL möglich.

Aber kann wer mir bitte erklären, was das andere Zeug ist und wie wichtig das ist??

Und wems interressiert
For more information, see section 2.2 of the ATI Stream SDK Installation Notes .
http://developer.amd.com/gpu/ATIStreamSDK/assets/ATI_Stream_SDK_Installation_Notes.pdf


PS: Letztens hat jemand so eine Liste gepostet, was SDK 2.0 alles im OpenCL unterschützt und was nicht.
Das das wieder wer machen.
Vorallem, wäre es interessant, was alles neu supportet wird und was noch fehlt
 
Zuletzt bearbeitet:
PS: Letztens hat jemand so eine Liste gepostet, was SDK 2.0 alles im OpenCL unterschützt und was nicht.
Das das wieder wer machen.
Vorallem, wäre es interessant, was alles neu supportet wird und was noch fehlt

Na da gabs doch eine News von mir und anderen Usern :)

ATI Stream Software Development Kit (SDK) v2.01

News von Crashtest:

ATI Stream Software Development Kit (SDK) v2.0 mit OpenCL - RTM

News von pipin:

ATI Stream Software Development Kit (SDK) v2.0

News von Opteron:

AMD veröffentlicht Stream SDK Beta v2.0 mit OpenCL Unterstützung

Und die aktuelle muss ich noch schreiben. Das kann aber noch dauern. Also Morgen sollte sie dann online stehen. :-X
 
Dieses Jahr soll OpenCL 1.1 noch finalisiert werden.
Mit OpenCL 2.0 ist 2012 zu rechnen. -> Stream SDK 3.0

2.0 --> 22.12.2009
2.01 --> 13.02.2010
2.1 --> 03.05.2010

alle drei Monate ein neuer Release.

16. How often can I expect to get ATI Stream SDK updates?

Developers can expect that the ATI Stream SDK will be updated, on average, once per quarter. Actual release intervals may vary depending on available new features and product updates. AMD is committed to providing developers with regular updates to allow them to take advantage of the latest developments in ATI Stream technology.
Quelle
 
RD-RAM keinesfalls, das ist uralte Technik, die Rambus selber weiterentwickelte bis hin zu XDR2.

Aber es ist ja nicht so, dass AMD Rambus meidet. Sie haben ein Patentabkommen, und das hat dem kleinen x86-Giganten sicherlich Prozesskosten auf die eine und andere Art eingespart.

So wie dort der XDR-Speicher eingesetzt wird erinnert mich das eher an eine schnelle Variante von Flash und/oder SDRAM für Embedded-Systeme:
... Lower-power memory is obvious a concept, and to that end Rambus was showing off its Mobile XDR, which the company says is both faster (allowing transfer of up to 17GB per second in a four-channel configuration) and more power efficient, using such 2.2 milliwatts-per-Gb-per-second speed. This architecture uses one-third of the pin count of other designs. The company says this could increase battery life in a netbook by up to an hour. ...
Quelle

XDR-RAM wird auch heutzutage in einigen Stellen eingesetzt. Rambus ist also nach wie vor am Markt, obgleich sich der Speicher- und High-Speed-Interconnect Meister sich das einstmals mit RD-RAM und Intel irgendwie anders ausgemalt hatte.

Sollte das tatsächlich noch RD-RAM sein, dann erinnert mich das eher nach Abverkauf von günstigen Lagerbeständen. Aber interessant ist das schon.

XDR schlug nicht ganz so gut ein, wie einstmals erhofft mit dem Cell.

ibm_cellbblade_xdr-ram_cell_southbridge.jpg
Quelle Im Bild IBMs erste Cell-Blades. Die erste Generation von Cell-Blades ist bei IBM Geschichte und wurde später ersetzt durch ein PowerXCell 8i mit DDR2-Interface.

Aber immerhin ist die PS3 noch damit ausgestattet. Und auchToshiba setzt XDR-RAM zusammen mit dem Spar-Cell "SpursEngine" nach wie vor in embedded-TV-CE-Elektronik ein.

toshiba_45nm-cell_440.jpg
Quelle Im Bild ein SpursEngine Cell zusammen mit XDR-RAM montiert auf einer kleinen Platine für HD-Videobeschleunigung.

Wie gesagt ... sehr interessant ... und falls die zweite Generation von High-Speed GDDR5 sich nicht so weit treiben lässt und/oder AMD/ATI nicht absehen können, was nach GDDR5 kommt ... wer weiss? Immerhin war ATI mit ganz vorne dabei GDDR5 so zu machen, wie er nun auf dem Markt ist.
Falls Rambus tatsächlich aber seine XDR2-Lösung anbieten kann in großen Mengen, dann muss die Entwicklung von GDDR5 nicht ganz so laufen wie AMD/ATI es mal geplant hatten. Aber bis dahin ist auch ein Llano schon sehr vergilbt.

Abgesehen davon, reicht auch ein Standard-Interface mit DDR3 für den Llano. Der Llano ist Stangenware für den PC-Markt - nicht CE-Elektronik, wo wirklich sich gar nichts mehr erweitern lässt.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Vor ein paar Tagen hieß es das diese Xbox 360 Slim womöglich einen neuen Grafikprozessor bekommen könnte oder würde.

Da ich um die große wirtschaftliche Bedeutung für AMDs Grafiksparte in Bezug auf die Lizenzsgebühren weiß,wollte ich mal herausbekommen was denn wohl für ein Ersatz dieses Chips in Frage kommen könnte.

Auf der Wiki-Seite kann man dann erfahren das es sich nicht einfach nur um einen Grafik-Chip handelt.Wäre es eigentlich denkbar das zuerst in der Xbox ein Fusion-Derivat eingesetzt wird?

Ist die Southbridge eigentlich auch integriert?

Interessant im übrigen ist das AMD der Wechsel von 90nm auf 65nm bei diesem Chip scheinbar keine Einbußen bei den Einnahmen gebracht hat,im Gegensatz dazu Nvidia bei der PS3 schon.
 
Zuletzt bearbeitet:
... Ist die Southbridge eigentlich auch integriert?
Ich meine nein.

Die hatte einstmals SiS glaube ich gestellt. Das kann sich in den verschiedenen Revisionen geändert haben.

Hier ist noch mal eine High-Tech Erklärung zur ersten Xbox 360. Da wird auch deutlich, dass so mal eben kein Wechsel von dem Power-Prozessor Xenon zu einem x86-SoC möglich ist. Also möglich schon, aber das bedeutet nun mal auch eine kompletten Prozessorarchitekturwechsel.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Würde ein Llano-Ableger nicht passen wie eine "Faust aufs Auge"?

Es heißt immer x86 für alles.Im Server-Bereich,jetzt auch laut Berichten stark zunehmend im Embedded-Segment. Für die Programmierer wäre es vielleicht auch sehr zu begrüßen wenn sie es mit einer zukünftigen Xbox praktisch mit einem "normalen" PC zu tun hätten. Man könnte sich parallele Arbeiten bei Hard- und Software erleichtern oder gar ersparen.

Fragt sich nur ob ein Llano in einer Xbox eigentlich für AMD so gut wäre.Das Geschäftsmodell über Lizenzgebühren ist für sie scheinbar sehr komfortabel und gewinnträchtig. Beim Verkauf von Chips an Microsoft dagegen hätte man sicher Nachteile.Mehr als $25 bezahlen die Borg sicher nicht.
 
... Fragt sich nur ob ein Llano in einer Xbox eigentlich für AMD so gut wäre.Das Geschäftsmodell über Lizenzgebühren ist für sie scheinbar sehr komfortabel und gewinnträchtig. Beim Verkauf von Chips an Microsoft dagegen hätte man sicher Nachteile.Mehr als $25 bezahlen die Borg sicher nicht.
Wenn Microsoft damals anfangs über 100 Dollar alleine für den Prozessor gezahlt hatte, warum sollte es beim Nachfolger anders sein?

Ob und wie der Softwaregigant aus Redmond von Power nach x86 wechseln will, das ist meiner Meinung nach immer noch hochspekulativ. Aber unmöglich ist das natürlich nicht.
Eine Fusion von GPU mit CPU ist ja naheliegend und hat da im gewissen Sinne einen Vorläufer mit der Kombination von Xbox 360 Prozessor und Grafikchip, jedenfalls wen man das Programmiermodell der Xbox 360 mit dem lokalen Speicher betrachtet. Da wird der L2-Cache des Hauptprozessors tatsächlich auch mitunter zum lokalen RAM für die GPU - erstaunlich ...

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Wenn Microsoft damals anfangs über 100 Dollar alleine für den Prozessor gezahlt hatte, warum sollte es beim Nachfolger anders sein?
Weil die Borg nicht dauerhaft draufzahlen wollen,zumindest nicht zuviel.
Was iSupplies damalige Schätzung betrifft: Wie passt das ins heutige Bild.ATI bekam damals schon mutmaßlich kein Geld pro verkauften Chip sondern auch schon Lizenzgebühren.In den letzten verfügbaren Quartalsberichten wurde nicht genau beschrieben von wem die eigenommenen Lizenzsgebühren eigentlich stammen.Es kamen ja einige Geschäftsbereiche in Betracht.

Später, nach der Übernahme jedenfalls, wurde deutlich das AMD sicher nicht $145 pro Chip bekommen würde.Das hätte man schlicht auch als Einäugiger in den Bilanzen wiederfinden können.Schon eine Million Chips a $100 hätten die Grafik-Bilanz nach oben katapultiert.Tatsächlich werden sich die Gebühren in einer Spanne von 3-5 Dollar bewegen die AMD pro verkaufter Konsole erhält.Es gab dort offensichtlich in den letzten Jahren eine Preiserhöhung zugunsten AMDs.

Ich halte bei aller Bescheidenheit iSupplies Schätzung für vollkommen absurd.

Dann noch ein anderer Aspekt.Gewisse Firmen,darunter MS und auch AMD,hatten sich doch vor geraumer Zeit zu einem "Verein" zusammengeschlossen, dessen Ziel es sein sollte den PC als Spiele-Plattform am Leben zu erhalten,besser noch in wieder zu fördern.Je ähnlicher sich beide Plattformen sind oder werden,umso besser für Soft- und Hardware-Hersteller.
 
Zuletzt bearbeitet:
Microsoft hat die Dinger doch selbst fertigen lassen (OK, das klingt etwas blöd, aber ich glaube es wird verstanden :P ). Das Geld ist daher nicht komplett ATI / AMD angekommen, sondern eben nur die Lizenzbeiträge. Hingegen waren die Kosten für MS sicherlich viel höher.
 
Gab es nicht vor kurzem erst Spekulationen das die Wii2 mit Fusion laufen soll?
Wenn AMD nur die Hälfte dieser Spekulationen macht (Wii,Xbox,Apple) bleibt wohl kaum was übrig für Notebooks geschweige von der Idee damit den Desktop zu beliefern^^.

Ich vermute das Fusion für Konsolen sich hervorragend eigenen wird, aber ich sag mal: Nichts wird so heiß gegessen wie gekocht.
 
Microsoft hat die Dinger doch selbst fertigen lassen (OK, das klingt etwas blöd, aber ich glaube es wird verstanden :P ). Das Geld ist daher nicht komplett ATI / AMD angekommen, sondern eben nur die Lizenzbeiträge. Hingegen waren die Kosten für MS sicherlich viel höher.

So ist es. Und was die Borg für dessen Herstellung zahlen bleibt sicher ein gut gehütetes Geheimnis.
 
Whitepaper von AMD zu den Fusion Produkten:

AMD Fusion Family of APUs: Enabling a Superior, Immersive PC Experience

daraus:

Although the APU’s scalar x86 cores and SIMD engines share a common path to system memory, AMD’s first generation implementations divide that memory into regions managed by the operating system running on the x86 cores and other regions managed by software running on the SIMD engines. AMD provides high speed block transfer engines that move data between the x86 and SIMD memory partitions. Unlike transfers between an external frame buffer and system memory, these transfers never hit the system’s external bus. Clever software developers can overlap the loading and unloading of blocks in the SIMD memory with execution involving data in other blocks. Insight 64 anticipates that future APU architectures will evolve towards a more seamless memory management model that allows even higher levels of balanced performance scaling.

...

Many of these improvements stem from AMD’s ability to fit the CPU cores, GPU cores and North Bridge (the part of the chip where the memory controller and PCI-express interfaces reside) onto a single piece of silicon.

MfG @
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten