App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
FUSION AMD's neue Klasse von x86er
- Ersteller neax
- Erstellt am
- Status
- Für weitere Antworten geschlossen.
1-10Watt ich vermute mal das die Diskussion genauso endet wie bei Fusion wo 100 Watt CPU und nochmal 25 für die GPU errechnet wurden. Immer schön die maximal Werte
250 mW steht da auch für den Idle zumindest Tablets&Co sollten möglich sein, ob das einer damit fertigen will ist eine andere Baustelle. Ich sehe auch die größten Probleme im Mobil Bereich weil da immer mehr Produkte verkauft werden. Allerdings eher im Marketing als Technisch.
250 mW steht da auch für den Idle zumindest Tablets&Co sollten möglich sein, ob das einer damit fertigen will ist eine andere Baustelle. Ich sehe auch die größten Probleme im Mobil Bereich weil da immer mehr Produkte verkauft werden. Allerdings eher im Marketing als Technisch.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Es gibt doch schon lange grobe Bereiche für den Strombedarf. Und das liegt deutlich über ARM-Designs und auch Intels Atom - zumindest für SMT-Single-Core
Und 40nm läßt sich bzgl. Strombedarf doch PI mal Daumen schon jetzt gut abschätzen wenn man einfach einen 45 nm Single-Core K10.5 zum 2* 40nm Bobcat ähnlich bzgl. TDP ansetzt. Und die verwendete GPU auf heutigen IGP-Northbridge Level ansetzt.
Zudem setzt AMD per Ontario per DirectX 11 GPU schon eine performante und nicht gerade einfache = stromsparende Technik ein.
AMD hat beim Netbook noch ungläubig den Kopf geschüttelt und der Bereich TabletPC ist außerhalb des AMD-Fokus.
(...)
AMD hängt beim Ontario zwischen den wohl gut optimierten K10.5 SOI-Cores wie LIano und den effizienten ARM/Atom Designs der Konkurrenz.
Ich sehe den Bobcat eher als Versuch über die Bulk-Fertigung die etablierte IGP-Northbridge um CPU-Cores zu ergänzen und im low performance Bereich Produkte anbieten zu können.
Hier zu erwarten das in Jahrzehnten hochoptimierte ARM-Design zu ersetzen ist eher Marketing als machbare Realität.
Zumindest sollte AMD schleunigst Bulk-28nm auffahren um nicht völlig von Bulk-28nm ARM Designs der GF-Dresden unter gebuttert zu werden.
Außerhalb des Fokus kann ja nicht stimmen:
QuelleDerrick Meyer schrieb:"We’ve talked in the past about our Bobcat core. That’s the brand new x86 micro architecture which first appears in the Ontario product which we talked about in the analyst conference. The Ontario product is really focused on I’ll call it value PC’s and netbooks, but the Bobcat technology and other technologies that we have in house are appropriate to lower power envelopes such as are appropriate for Pads, and you’ll see Bobcat based products show up the following year appropriate to that market segment."
Außerdem soll doch Bobcat vollständig synthetisierbar sein. Mann kann also ähnlich ARM schnell neue Designs erstellen.
http://www.heise.de/ct/artikel/Prozessorgefluester-862083.html
rkinet
Grand Admiral Special
AMD wird wohl den Thuban in Teilen beim Mobil-Quad-Champlain noch verwerten.Ach komm rkinet, jetzt mal nicht so pessimistisch. An den Erfolg der Grafikkarten und der Fusion mit ATI hat auch keiner geglaubt und jetzt?
Auch bei den Prozzis hat AMD mit dem Thuban eine attraktive CPU rausgebracht mit einen Takt, den keiner für möglich gehalten hat. Also ich denk schon, dass die noch bissle was in der Hinterhand haben, keine Sorge.
Das sind aber alles TDP-Bereiche weit oberhalb jener der TabletPCs.
.
EDIT :
.
Damals sprach man noch von 32nm und GF-DD- jetzt von 40nm und TSMC.Außerdem soll doch Bobcat vollständig synthetisierbar sein. Man kann also ähnlich ARM schnell neue Designs erstellen.
http://www.heise.de/ct/artikel/Prozessorgefluester-862083.html
Und für 1 Watt wurde auch nicht entschieden bzgl. 40nm, 32nm, 28 nm oder erst 22nm.
Und DirectX11 ist auch nicht gerade sparsam. Und jüngst hat sich Microsoft vom TablettPC per Windows verabschiedet. Allein deshalb läuft der Ontario hier schon ins Leere bzgl. neuen kleinen Designs.
Ihm bleibt natürlich der Bereich Thin Clients und kompakte Netbooks - 11''6 ?!
AMD hat bei SoC bisher eher mäßige Erfolge gehabt: http://de.wikipedia.org/wiki/AMD_Geode
Auch deshalb sollte und darf man nicht zuviel erwarten vom nächsten Versuch.
@rkinet
1 oder 2 Watt ist nicht das Problem, sondern eben der Rest alias iGPU & Southbridge usw.
Das Problem beim Atom ist nicht der Kern, sondern der Rest der ein x-faches an mehr Strom verbraucht.
Allein da hat AMD den riesen Vorteile, mit ihrer DX11-GPU-Technologie ein deutlich effizienteres GPU-Design auf Bobcat-SoC zu knallen.
Wir wissen nur etwas vom Core, aber eben nichts vom Rest. Deshalb ist die Diskussion über Bobcat ziemlich nutzlos.
1 oder 2 Watt ist nicht das Problem, sondern eben der Rest alias iGPU & Southbridge usw.
Das Problem beim Atom ist nicht der Kern, sondern der Rest der ein x-faches an mehr Strom verbraucht.
Allein da hat AMD den riesen Vorteile, mit ihrer DX11-GPU-Technologie ein deutlich effizienteres GPU-Design auf Bobcat-SoC zu knallen.
Wir wissen nur etwas vom Core, aber eben nichts vom Rest. Deshalb ist die Diskussion über Bobcat ziemlich nutzlos.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
...Damals sprach man noch von 32nm und GF-DD- jetzt von 40nm und TSMC.
Und für 1 Watt wurde auch nicht entschieden bzgl. 40nm, 32nm, 28 nm oder erst 22nm.
Und DirectX11 ist auch nicht gerade sparsam. Und jüngst hat sich Microsoft vom TablettPC per Windows verabschiedet. Allein deshalb läuft der Ontario hier schon ins Leere bzgl. neuen kleinen Designs.
Ihm bleibt natürlich der Bereich Thin Clients und kompakte Netbooks - 11''6 ?!
AMD hat bei SoC bisher eher mäßige Erfolge gehabt: http://de.wikipedia.org/wiki/AMD_Geode
Auch deshalb sollte und darf man nicht zuviel erwarten vom nächsten Versuch.
Gerade weil Bobcat "synthetisierbar" sein soll, macht es für Bobcat wohl sehr viel Sinn, dass AMD diesen nicht nur für 28nm-HKMG bei Globalfoundries, sondern eben auch für 40nm bei GF und 40nm bei TSMC anbietet. Später wird es dann sicher auch ein Design für 28nm bei TSMC geben. Erst auf diese Weise wird Bobcat für viele Kunden interessant, ähnlich ARM.
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Die Sache ist wohl unter meinem Radar durchgeflogen:
http://labs.trolltech.com/blogs/2010/04/07/using-opencl-with-qt/
http://labs.trolltech.com/blogs/2010/04/07/using-opencl-with-qt/
Embedded Devices
Right now, QtOpenCL works very well with desktop OpenCL implementations, like that from NVIDIA (we’ve tested it under Linux, Mac, and Windows). Embedded devices are currently another matter - OpenCL implementations are still very basic in that space. The performance improvements on embedded CPU’s are only slightly better than using ARM/NEON instructions for example. And embedded GPU’s are usually hard-wired for GLSL/ES, lacking many of the features that makes OpenCL really sing. But like everything in the embedded space, things are likely to change very quickly. By releasing QtOpenCL, hopefully we can stimulate the embedded vendors to accelerate development by giving them something to test with. Be the first embedded device on the block to get the mandelbrot demo running at 10fps, or 20fps, or 60fps!
rkinet
Grand Admiral Special
Theoretisch schon.Gerade weil Bobcat "synthetisierbar" sein soll, macht es für Bobcat wohl sehr viel Sinn, dass AMD diesen nicht nur für 28nm-HKMG bei Globalfoundries, sondern eben auch für 40nm bei GF und 40nm bei TSMC anbietet. Später wird es dann sicher auch ein Design für 28nm bei TSMC geben. Erst auf diese Weise wird Bobcat für viele Kunden interessant, ähnlich ARM.
Aber die ARM-Designs sind das Ergebnis aus Jahrzehnten Arbeit was selbst Intel nicht kompensieren konnte.
Und den Glauben an Wunder-CPUs habe ich schon lange abgelegt. 8)
Außerdem liegt es nahe dass AMD per Ontario die Historie der x86 IGPs übernehmen will bei gleichzeitig Performance etwas über low budget Athlon / Sempron und etwas reduzierter TDP.
Das läge aber über Intel Atom bei Performance & TDP und damit auch über den jetzt verfolgten Linie für TablettPCs.
Als AMD plante da war ja noch Windows für Tablet und Handy konkrete Erwartung. Heute nur noch Vergangenheit.
Opteron
Redaktion
☆☆☆☆☆☆
Wow, jetzt gehts aber los, erste APU Optimierungen für AMDs OpenCL Stack:
Soll noch einer sagen, AMD würde schlafen ..
ciao
Alex
http://developer.amd.com/gpu/ATIStreamSDK/Pages/default.aspxWhat’s New in v2.1
- Support for openSUSE™ 11.2 and Red Hat® Enterprise Linux® 5.4.
- Support for OpenCL™ / OpenGL® interoperability.
- Please see chapter 9, section 12 of the OpenCL™ 1.0 specificationfor more information about this extension.
- Support for OpenCL™ byte addressable stores3,4.
- Please see chapter 9, section 9 of the OpenCL™ 1.0 specification for more information about this extension.
- Support for OpenCL™ images3.
- Please see the OpenCL™ 1.0 specification for more information about this feature.
- Extension: Support for double-precision floating point basic arithmetic in OpenCL™ C kernels.
- Please see this knowledge base article for more information about this extension.
- Extension: Support for AMD media operations in OpenCL™.
- Please see chapter A, section 8 of the ATI Stream SDK OpenCL™ Programming Guide for more information about this extension.
- Extension: Support for device fission in OpenCL™ 4.
- Please see the "Extension Specifications" section of the Khronos® OpenCL™ API Registry for more information about this extension.
- Extension: Support for device attribute queries in OpenCL™.
- Please see chapter A, section 8 of the ATI Stream SDK OpenCL™ Programming Guide for more information about this extension.
- Preview Feature: Support for binary OpenCL™ kernels.
- Please see this knowledge base article for more information about this extension.
- Additional OpenCL™ samples:
- HistogramAtomics
- MatrixMulDouble (under cpp_cl)
- MatrixMulImage
- SimpleGL
- SimpleImage
- SobelFilterImage (under cpp_cl)
- URNGNoiseGL
- Stream KernelAnalyzer 1.5 installer now bundled with the ATI Stream SDK v2.1.
- Various OpenCL™ compiler and runtime fixes and enhancements (see developer release notes for more details).
- Support for new hardware:
- ATI Radeon™ HD 5830 GPU
- ATI Radeon™ HD 5450 GPU
- ATI FirePro™ V8800 GPU
- ATI FirePro™ V7800 GPU
- ATI FirePro™ V5800 GPU
- ATI FirePro™ V4800 GPU
- ATI FirePro™ V3800 GPU
- ATI Mobility Radeon™ HD 5800 Series GPUs
- ATI Mobility Radeon™ HD 5700 Series GPUs
- ATI Mobility Radeon™ HD 5600 Series GPUs
- ATI Mobility Radeon™ HD 5400 Series GPUs
- ATI FirePro M7820™ GPU
- ATI FirePro M5800™ GPU
Soll noch einer sagen, AMD würde schlafen ..
ciao
Alex
Danke für den Hinweis. Ja, scheint sich echt was zu tun, bei AMDs Software- und Treiberabteilung.
cool: Support for device fission in OpenCL™ 4. Eigentlich sind die doch erst bei 1.1.......
Ist das ein Schreibfehler oder bedeutet es etwas anderes als ich denke?
cool: Support for device fission in OpenCL™ 4. Eigentlich sind die doch erst bei 1.1.......
Ist das ein Schreibfehler oder bedeutet es etwas anderes als ich denke?
@isigrim
Da steht nicht OpenCL 4.0 sonder OpenCL mit einem hochgestellten 4.
Das ist ein Copy-Past-Fehler.
4 ... Support available on x86 CPU w/ SSE3 or later.
@Selbstgespräch
Endlich ist Double-Precise mit OpenCL möglich.
Aber kann wer mir bitte erklären, was das andere Zeug ist und wie wichtig das ist??
Und wems interressiert
For more information, see section 2.2 of the ATI Stream SDK Installation Notes .
http://developer.amd.com/gpu/ATIStreamSDK/assets/ATI_Stream_SDK_Installation_Notes.pdf
PS: Letztens hat jemand so eine Liste gepostet, was SDK 2.0 alles im OpenCL unterschützt und was nicht.
Das das wieder wer machen.
Vorallem, wäre es interessant, was alles neu supportet wird und was noch fehlt
Da steht nicht OpenCL 4.0 sonder OpenCL mit einem hochgestellten 4.
Das ist ein Copy-Past-Fehler.
4 ... Support available on x86 CPU w/ SSE3 or later.
@Selbstgespräch
Endlich ist Double-Precise mit OpenCL möglich.
Aber kann wer mir bitte erklären, was das andere Zeug ist und wie wichtig das ist??
Und wems interressiert
For more information, see section 2.2 of the ATI Stream SDK Installation Notes .
http://developer.amd.com/gpu/ATIStreamSDK/assets/ATI_Stream_SDK_Installation_Notes.pdf
PS: Letztens hat jemand so eine Liste gepostet, was SDK 2.0 alles im OpenCL unterschützt und was nicht.
Das das wieder wer machen.
Vorallem, wäre es interessant, was alles neu supportet wird und was noch fehlt
Zuletzt bearbeitet:
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
PS: Letztens hat jemand so eine Liste gepostet, was SDK 2.0 alles im OpenCL unterschützt und was nicht.
Das das wieder wer machen.
Vorallem, wäre es interessant, was alles neu supportet wird und was noch fehlt
Na da gabs doch eine News von mir und anderen Usern
ATI Stream Software Development Kit (SDK) v2.01
News von Crashtest:
ATI Stream Software Development Kit (SDK) v2.0 mit OpenCL - RTM
News von pipin:
ATI Stream Software Development Kit (SDK) v2.0
News von Opteron:
AMD veröffentlicht Stream SDK Beta v2.0 mit OpenCL Unterstützung
Und die aktuelle muss ich noch schreiben. Das kann aber noch dauern. Also Morgen sollte sie dann online stehen.
Ja, mich interessierts.Und wems interressiert
For more information, see section 2.2 of the ATI Stream SDK Installation Notes
http://developer.amd.com/gpu/ATIStreamSDK/assets/ATI_Stream_SDK_Installation_Notes.pdf
SDK 2.1 kam so 5,5 Monate nach SDK 2.0
Fusion kommt ca. in 8 Monaten, wo sich SDK 3.0? vor SDK 2.2 in 4 Monaten? ausgehen könnte.
SDK 1.0 - ATI Stream
SDK 2.0 - OpenCL
SDK 3.0 - APU? (mit OpenCL)
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Dieses Jahr soll OpenCL 1.1 noch finalisiert werden.
Mit OpenCL 2.0 ist 2012 zu rechnen. -> Stream SDK 3.0
2.0 --> 22.12.2009
2.01 --> 13.02.2010
2.1 --> 03.05.2010
alle drei Monate ein neuer Release.
Mit OpenCL 2.0 ist 2012 zu rechnen. -> Stream SDK 3.0
2.0 --> 22.12.2009
2.01 --> 13.02.2010
2.1 --> 03.05.2010
alle drei Monate ein neuer Release.
Quelle16. How often can I expect to get ATI Stream SDK updates?
Developers can expect that the ATI Stream SDK will be updated, on average, once per quarter. Actual release intervals may vary depending on available new features and product updates. AMD is committed to providing developers with regular updates to allow them to take advantage of the latest developments in ATI Stream technology.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Setzt AMD bei Fusion womöglich auf RDRam von Rambus?
Siehe hier: http://www.brightsideofnews.com/new...ers-the-gpu-arena-with-amd-firepro-rg220.aspx
Siehe hier: http://www.brightsideofnews.com/new...ers-the-gpu-arena-with-amd-firepro-rg220.aspx
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
RD-RAM keinesfalls, das ist uralte Technik, die Rambus selber weiterentwickelte bis hin zu XDR2.Setzt AMD bei Fusion womöglich auf RDRam von Rambus?
Siehe hier: http://www.brightsideofnews.com/new...ers-the-gpu-arena-with-amd-firepro-rg220.aspx
Aber es ist ja nicht so, dass AMD Rambus meidet. Sie haben ein Patentabkommen, und das hat dem kleinen x86-Giganten sicherlich Prozesskosten auf die eine und andere Art eingespart.
So wie dort der XDR-Speicher eingesetzt wird erinnert mich das eher an eine schnelle Variante von Flash und/oder SDRAM für Embedded-Systeme:
Quelle... Lower-power memory is obvious a concept, and to that end Rambus was showing off its Mobile XDR, which the company says is both faster (allowing transfer of up to 17GB per second in a four-channel configuration) and more power efficient, using such 2.2 milliwatts-per-Gb-per-second speed. This architecture uses one-third of the pin count of other designs. The company says this could increase battery life in a netbook by up to an hour. ...
XDR-RAM wird auch heutzutage in einigen Stellen eingesetzt. Rambus ist also nach wie vor am Markt, obgleich sich der Speicher- und High-Speed-Interconnect Meister sich das einstmals mit RD-RAM und Intel irgendwie anders ausgemalt hatte.
Sollte das tatsächlich noch RD-RAM sein, dann erinnert mich das eher nach Abverkauf von günstigen Lagerbeständen. Aber interessant ist das schon.
XDR schlug nicht ganz so gut ein, wie einstmals erhofft mit dem Cell.
Aber immerhin ist die PS3 noch damit ausgestattet. Und auchToshiba setzt XDR-RAM zusammen mit dem Spar-Cell "SpursEngine" nach wie vor in embedded-TV-CE-Elektronik ein.
Wie gesagt ... sehr interessant ... und falls die zweite Generation von High-Speed GDDR5 sich nicht so weit treiben lässt und/oder AMD/ATI nicht absehen können, was nach GDDR5 kommt ... wer weiss? Immerhin war ATI mit ganz vorne dabei GDDR5 so zu machen, wie er nun auf dem Markt ist.
Falls Rambus tatsächlich aber seine XDR2-Lösung anbieten kann in großen Mengen, dann muss die Entwicklung von GDDR5 nicht ganz so laufen wie AMD/ATI es mal geplant hatten. Aber bis dahin ist auch ein Llano schon sehr vergilbt.
Abgesehen davon, reicht auch ein Standard-Interface mit DDR3 für den Llano. Der Llano ist Stangenware für den PC-Markt - nicht CE-Elektronik, wo wirklich sich gar nichts mehr erweitern lässt.
MFG Bobo(2010)
Zuletzt bearbeitet:
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Vor ein paar Tagen hieß es das diese Xbox 360 Slim womöglich einen neuen Grafikprozessor bekommen könnte oder würde.
Da ich um die große wirtschaftliche Bedeutung für AMDs Grafiksparte in Bezug auf die Lizenzsgebühren weiß,wollte ich mal herausbekommen was denn wohl für ein Ersatz dieses Chips in Frage kommen könnte.
Auf der Wiki-Seite kann man dann erfahren das es sich nicht einfach nur um einen Grafik-Chip handelt.Wäre es eigentlich denkbar das zuerst in der Xbox ein Fusion-Derivat eingesetzt wird?
Ist die Southbridge eigentlich auch integriert?
Interessant im übrigen ist das AMD der Wechsel von 90nm auf 65nm bei diesem Chip scheinbar keine Einbußen bei den Einnahmen gebracht hat,im Gegensatz dazu Nvidia bei der PS3 schon.
Da ich um die große wirtschaftliche Bedeutung für AMDs Grafiksparte in Bezug auf die Lizenzsgebühren weiß,wollte ich mal herausbekommen was denn wohl für ein Ersatz dieses Chips in Frage kommen könnte.
Auf der Wiki-Seite kann man dann erfahren das es sich nicht einfach nur um einen Grafik-Chip handelt.Wäre es eigentlich denkbar das zuerst in der Xbox ein Fusion-Derivat eingesetzt wird?
Ist die Southbridge eigentlich auch integriert?
Interessant im übrigen ist das AMD der Wechsel von 90nm auf 65nm bei diesem Chip scheinbar keine Einbußen bei den Einnahmen gebracht hat,im Gegensatz dazu Nvidia bei der PS3 schon.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ich meine nein.... Ist die Southbridge eigentlich auch integriert?
Die hatte einstmals SiS glaube ich gestellt. Das kann sich in den verschiedenen Revisionen geändert haben.
Hier ist noch mal eine High-Tech Erklärung zur ersten Xbox 360. Da wird auch deutlich, dass so mal eben kein Wechsel von dem Power-Prozessor Xenon zu einem x86-SoC möglich ist. Also möglich schon, aber das bedeutet nun mal auch eine kompletten Prozessorarchitekturwechsel.
MFG Bobo(2010)
Zuletzt bearbeitet:
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Würde ein Llano-Ableger nicht passen wie eine "Faust aufs Auge"?
Es heißt immer x86 für alles.Im Server-Bereich,jetzt auch laut Berichten stark zunehmend im Embedded-Segment. Für die Programmierer wäre es vielleicht auch sehr zu begrüßen wenn sie es mit einer zukünftigen Xbox praktisch mit einem "normalen" PC zu tun hätten. Man könnte sich parallele Arbeiten bei Hard- und Software erleichtern oder gar ersparen.
Fragt sich nur ob ein Llano in einer Xbox eigentlich für AMD so gut wäre.Das Geschäftsmodell über Lizenzgebühren ist für sie scheinbar sehr komfortabel und gewinnträchtig. Beim Verkauf von Chips an Microsoft dagegen hätte man sicher Nachteile.Mehr als $25 bezahlen die Borg sicher nicht.
Es heißt immer x86 für alles.Im Server-Bereich,jetzt auch laut Berichten stark zunehmend im Embedded-Segment. Für die Programmierer wäre es vielleicht auch sehr zu begrüßen wenn sie es mit einer zukünftigen Xbox praktisch mit einem "normalen" PC zu tun hätten. Man könnte sich parallele Arbeiten bei Hard- und Software erleichtern oder gar ersparen.
Fragt sich nur ob ein Llano in einer Xbox eigentlich für AMD so gut wäre.Das Geschäftsmodell über Lizenzgebühren ist für sie scheinbar sehr komfortabel und gewinnträchtig. Beim Verkauf von Chips an Microsoft dagegen hätte man sicher Nachteile.Mehr als $25 bezahlen die Borg sicher nicht.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Wenn Microsoft damals anfangs über 100 Dollar alleine für den Prozessor gezahlt hatte, warum sollte es beim Nachfolger anders sein?... Fragt sich nur ob ein Llano in einer Xbox eigentlich für AMD so gut wäre.Das Geschäftsmodell über Lizenzgebühren ist für sie scheinbar sehr komfortabel und gewinnträchtig. Beim Verkauf von Chips an Microsoft dagegen hätte man sicher Nachteile.Mehr als $25 bezahlen die Borg sicher nicht.
Ob und wie der Softwaregigant aus Redmond von Power nach x86 wechseln will, das ist meiner Meinung nach immer noch hochspekulativ. Aber unmöglich ist das natürlich nicht.
Eine Fusion von GPU mit CPU ist ja naheliegend und hat da im gewissen Sinne einen Vorläufer mit der Kombination von Xbox 360 Prozessor und Grafikchip, jedenfalls wen man das Programmiermodell der Xbox 360 mit dem lokalen Speicher betrachtet. Da wird der L2-Cache des Hauptprozessors tatsächlich auch mitunter zum lokalen RAM für die GPU - erstaunlich ...
MFG Bobo(2010)
Zuletzt bearbeitet:
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Weil die Borg nicht dauerhaft draufzahlen wollen,zumindest nicht zuviel.Wenn Microsoft damals anfangs über 100 Dollar alleine für den Prozessor gezahlt hatte, warum sollte es beim Nachfolger anders sein?
Was iSupplies damalige Schätzung betrifft: Wie passt das ins heutige Bild.ATI bekam damals schon mutmaßlich kein Geld pro verkauften Chip sondern auch schon Lizenzgebühren.In den letzten verfügbaren Quartalsberichten wurde nicht genau beschrieben von wem die eigenommenen Lizenzsgebühren eigentlich stammen.Es kamen ja einige Geschäftsbereiche in Betracht.
Später, nach der Übernahme jedenfalls, wurde deutlich das AMD sicher nicht $145 pro Chip bekommen würde.Das hätte man schlicht auch als Einäugiger in den Bilanzen wiederfinden können.Schon eine Million Chips a $100 hätten die Grafik-Bilanz nach oben katapultiert.Tatsächlich werden sich die Gebühren in einer Spanne von 3-5 Dollar bewegen die AMD pro verkaufter Konsole erhält.Es gab dort offensichtlich in den letzten Jahren eine Preiserhöhung zugunsten AMDs.
Ich halte bei aller Bescheidenheit iSupplies Schätzung für vollkommen absurd.
Dann noch ein anderer Aspekt.Gewisse Firmen,darunter MS und auch AMD,hatten sich doch vor geraumer Zeit zu einem "Verein" zusammengeschlossen, dessen Ziel es sein sollte den PC als Spiele-Plattform am Leben zu erhalten,besser noch in wieder zu fördern.Je ähnlicher sich beide Plattformen sind oder werden,umso besser für Soft- und Hardware-Hersteller.
Zuletzt bearbeitet:
Microsoft hat die Dinger doch selbst fertigen lassen (OK, das klingt etwas blöd, aber ich glaube es wird verstanden ). Das Geld ist daher nicht komplett ATI / AMD angekommen, sondern eben nur die Lizenzbeiträge. Hingegen waren die Kosten für MS sicherlich viel höher.
Gab es nicht vor kurzem erst Spekulationen das die Wii2 mit Fusion laufen soll?
Wenn AMD nur die Hälfte dieser Spekulationen macht (Wii,Xbox,Apple) bleibt wohl kaum was übrig für Notebooks geschweige von der Idee damit den Desktop zu beliefern^^.
Ich vermute das Fusion für Konsolen sich hervorragend eigenen wird, aber ich sag mal: Nichts wird so heiß gegessen wie gekocht.
Wenn AMD nur die Hälfte dieser Spekulationen macht (Wii,Xbox,Apple) bleibt wohl kaum was übrig für Notebooks geschweige von der Idee damit den Desktop zu beliefern^^.
Ich vermute das Fusion für Konsolen sich hervorragend eigenen wird, aber ich sag mal: Nichts wird so heiß gegessen wie gekocht.
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Microsoft hat die Dinger doch selbst fertigen lassen (OK, das klingt etwas blöd, aber ich glaube es wird verstanden ). Das Geld ist daher nicht komplett ATI / AMD angekommen, sondern eben nur die Lizenzbeiträge. Hingegen waren die Kosten für MS sicherlich viel höher.
So ist es. Und was die Borg für dessen Herstellung zahlen bleibt sicher ein gut gehütetes Geheimnis.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Whitepaper von AMD zu den Fusion Produkten:
AMD Fusion Family of APUs: Enabling a Superior, Immersive PC Experience
daraus:
MfG @
AMD Fusion Family of APUs: Enabling a Superior, Immersive PC Experience
daraus:
Although the APU’s scalar x86 cores and SIMD engines share a common path to system memory, AMD’s first generation implementations divide that memory into regions managed by the operating system running on the x86 cores and other regions managed by software running on the SIMD engines. AMD provides high speed block transfer engines that move data between the x86 and SIMD memory partitions. Unlike transfers between an external frame buffer and system memory, these transfers never hit the system’s external bus. Clever software developers can overlap the loading and unloading of blocks in the SIMD memory with execution involving data in other blocks. Insight 64 anticipates that future APU architectures will evolve towards a more seamless memory management model that allows even higher levels of balanced performance scaling.
...
Many of these improvements stem from AMD’s ability to fit the CPU cores, GPU cores and North Bridge (the part of the chip where the memory controller and PCI-express interfaces reside) onto a single piece of silicon.
MfG @
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 399
- Antworten
- 0
- Aufrufe
- 5K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 714
- Antworten
- 0
- Aufrufe
- 928