App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Erste APU auf dem Markt
- Ersteller sciing
- Erstellt am
nicht von AMD, aber bei Globalfoundries gefertigt:
http://arstechnica.com/gaming/news/...ket-with-cpugpu-combo-chip.ars?utm_source=rss
Wurde vorher glaube ich schon mal angedeutet, aber jetzt offiziell von Microsoft auf der Hotchips bestätigt.
http://arstechnica.com/gaming/news/...ket-with-cpugpu-combo-chip.ars?utm_source=rss
Wurde vorher glaube ich schon mal angedeutet, aber jetzt offiziell von Microsoft auf der Hotchips bestätigt.
Dresdenboy
Redaktion
☆☆☆☆☆☆
Ich kenne da auch jemanden, der mit entsprechenden Wafern zu tun hatte.
rkinet
Grand Admiral Special
Interessant - die 10 MB EDRAM sind als 2. DIE ausgeführt.nicht von AMD, aber bei Globalfoundries gefertigt:
http://arstechnica.com/gaming/news/...ket-with-cpugpu-combo-chip.ars?utm_source=rss
Wurde vorher glaube ich schon mal angedeutet, aber jetzt offiziell von Microsoft auf der Hotchips bestätigt.
nicht von AMD, aber bei Globalfoundries gefertigt:
http://arstechnica.com/gaming/news/...ket-with-cpugpu-combo-chip.ars?utm_source=rss.
In dem Text steht allerdings nicht explizit drin das der Chip bei GF gefertigt wird. Falls doch, ist es auf jeden Fall interessant das IBM bei GF fertigen lässt.
P.S.: Kennt jemand den Yield vom Power-7 ?
Zuletzt bearbeitet:
Dresdenboy
Redaktion
☆☆☆☆☆☆
Das mit GF stimmt schon. Siehe mein Kommentar oben.
Hier gibts noch mehr Slides und selbst erstellte Darstellungen von Hiroshige Goto:
http://pc.watch.impress.co.jp/docs/column/kaigai/20100825_389002.html
Hier gibts noch mehr Slides und selbst erstellte Darstellungen von Hiroshige Goto:
http://pc.watch.impress.co.jp/docs/column/kaigai/20100825_389002.html
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Habe ich mitte Juni schon so erwähnt:
http://www.planet3dnow.de/vbulletin/showthread.php?p=4242363#post4242363
http://www.planet3dnow.de/vbulletin/showthread.php?p=4242363#post4242363
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ja und ist von so einigen als "unmöglich" beschrieben worden 8)Habe ich mitte Juni schon so erwähnt:
http://www.planet3dnow.de/vbulletin/showthread.php?p=4242363#post4242363
Übrigens gehört Chartered auch zur GlobalFoundries-Familie. Wenn Microsoft aber von mehreren Foundries spricht, wie kann das interpretiert werden? Auch UMC, TSMC, Samsung, IBM?
Oder doch "nur" Fertigung in Singapur (Chartered Fab) und Dresden?
MFG Bobo(2010)
rkinet
Grand Admiral Special
http://www.heise.de/newsticker/meld...laeren-neuen-Xbox-Chip-im-Detail-1066043.html
Nettes Bild zu den beiden DIEs 8)
Zitat: 8)
http://www.computerbase.de/news/hardware/prozessoren/2010/august/xbox-soc_ibm_intel_amd/
IBM & Konsole mal wieder technologischer Vorreiter.
Auch bei Präsentation der ersten XBox360 war die Performance im Vergleich zur PC-Welt vorne.
Nettes Bild zu den beiden DIEs 8)
Zitat: 8)
Der neue Chip durfte aus Konsistenzgründen auf keinen Fall schneller arbeiten als das alte Gespann.
http://www.computerbase.de/news/hardware/prozessoren/2010/august/xbox-soc_ibm_intel_amd/
IBM & Konsole mal wieder technologischer Vorreiter.
Auch bei Präsentation der ersten XBox360 war die Performance im Vergleich zur PC-Welt vorne.
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
nicht von AMD, aber bei Globalfoundries gefertigt:
http://arstechnica.com/gaming/news/...ket-with-cpugpu-combo-chip.ars?utm_source=rss
"Produced on the IBM/GlobalFoundries 45nm process"
Das ist eine andere Aussage als die die Du da hinein interpretierst. Wahrscheinlichkeit dafür das Du richtig liegst aber trotzdem gegeben.
.
EDIT :
.
Und eine APU ist das ebensowenig wie die Grafikeinheit in der CPU des Ipad. Das eine Grafikeinheit bezogen auf 3D leistungsfähig ist macht sie noch lange nicht zur APU.
.
EDIT :
.
IBM & Konsole mal wieder technologischer Vorreiter.
Worin? Weder die Integration einer GPU in ein SoC noch die Fertigung von Strukturen in 45nm ist neu.
Zuletzt bearbeitet:
Ja natürlich nicht bestätigt,"Produced on the IBM/GlobalFoundries 45nm process"
Das ist eine andere Aussage als die die Du da hinein interpretierst. Wahrscheinlichkeit dafür das Du richtig liegst aber trotzdem gegeben.
1. Es gab ja schonmal eine Meldung mit Gerüchtem zu Chartered/Globalfoundries.
2. Warum wird Globalfoundries betont, wenn man nur bei IBM fertigen würde.
3. Erklärt es, warum kein eDRAM drauf ist.
Das Wort APU fällt in der verlinkten Meldung. Wobei Du mir jetzt aber den gewaltigen Unterschied zwischen dem Chip und einem Llano oder Ontario (gilt ja auch als APU) erklären musst.Und eine APU ist das ebensowenig wie die Grafikeinheit in der CPU des Ipad. Das eine Grafikeinheit bezogen auf 3D leistungsfähig ist macht sie noch lange nicht zur APU.
heikosch
Grand Admiral Special
Also ich weiß nicht, ob es stimmt, aber soweit ich weiß, steckt doch in der Xbox 360 eine ATi-Grafikeinheit. Sie basierte als erster Chip für den Massenmarkt auf der Unified-Shader-Basis. Deswegen denke ich, dass AMD hier auch involviert war in die Einarbeitung in den neuen Chip. Zwar kann man hierfür eine Lizenz nehmen und bestimmt auch machen, was man möchte, aber ich denke mir schon, dass man hier kooperiert hat.
Ich stand heute vor der neuen Slim und muss sagen, ja, sie ist leiser, aber nicht kühler.
Ich stand heute vor der neuen Slim und muss sagen, ja, sie ist leiser, aber nicht kühler.
rkinet
Grand Admiral Special
http://www.computerbase.de/news/hardware/prozessoren/ibm/2010/august/ibm-cpu-offeriert-5-20-ghz/
IBM hat sich auch bei neuen Produkten auf die SOI-45nm begrenzt. AMD bzw. GF sind somit eher Einzelkämpfer für SOI-32nm ?!
Und dazu noch eDRAM als L3 (24 MB) mit etwa 3-facher Packungsdichte vs. SRAM-L2 (4* 1,5 MB = 6 MB)
http://www.overoll.com/Content/IBMs-zEnterprise-196-CPU-Cache-is-king-/2010/7/23/294077.news
IBM hat sich auch bei neuen Produkten auf die SOI-45nm begrenzt. AMD bzw. GF sind somit eher Einzelkämpfer für SOI-32nm ?!
Und dazu noch eDRAM als L3 (24 MB) mit etwa 3-facher Packungsdichte vs. SRAM-L2 (4* 1,5 MB = 6 MB)
http://www.overoll.com/Content/IBMs-zEnterprise-196-CPU-Cache-is-king-/2010/7/23/294077.news
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Es ist schon Tradition, dass IBM bei dem mit Partnern entwickelten Prozessen immer etwas später auf kleinere Strukturgrößen umsteigt, als beispielsweise AMD/GF.
Das learning bei IBM dauert immer etwas länger, da sie mMn immer Wafer mit sehr wenigen Defekten produzieren müssen, um bei den Die-Monstern, welche diese Prozessoren sind, immer noch relative gute Yieldraten zu erhalten.
Das learning bei IBM dauert immer etwas länger, da sie mMn immer Wafer mit sehr wenigen Defekten produzieren müssen, um bei den Die-Monstern, welche diese Prozessoren sind, immer noch relative gute Yieldraten zu erhalten.
Markus Everson
Grand Admiral Special
Das Wort APU fällt in der verlinkten Meldung. Wobei Du mir jetzt aber den gewaltigen Unterschied zwischen dem Chip und einem Llano oder Ontario (gilt ja auch als APU) erklären musst.
Wie könnte ich das, dazu ist über den Aufbau von GPU und CPU zur APU bisher zu wenig bekannt.
Aber fangen wir doch mal von unten an. Bezeichnest Du den Cyrix MediaGX als APU?
Wenn nein - warum nicht?
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Aber fangen wir doch mal von unten an. Bezeichnest Du den Cyrix MediaGX als APU?
Wenn nein - warum nicht?
Nein, weil der dort integrierte Grafikprozessor kein Stream-out kennt, es also keinerlei Möglichkeit gibt vom Grafikprozessor bearbeitete Daten der CPU wieder zur Verfügung zu stellen. Die GPU im nun vorgestellten XBox SoC hat diese Möglichkeit aber mit sehr großer Wahrscheinlichkeit (Unified-Shader Design). Aus diesem Grund würde ich hier schon von einer APU sprechen.
Markus Everson
Grand Admiral Special
Nein, weil der dort integrierte Grafikprozessor kein Stream-out kennt, es also keinerlei Möglichkeit gibt vom Grafikprozessor bearbeitete Daten der CPU wieder zur Verfügung zu stellen.
Die CPU kann Daten aus dem Grafikspeicher auslesen, die GPU kann Daten im Grafikspeicher ablegen.
Die GPU im nun vorgestellten XBox SoC hat diese Möglichkeit aber mit sehr großer Wahrscheinlichkeit
Also ist Deiner Meinung nach der XBOX-Prozessor die wahrscheinlich erste APU auf dem Markt?
Aus diesem Grund würde ich hier schon von einer APU sprechen.
Aufgrund der Wahrscheinlichkeit?
Nach und neben dem von Cyrix gibt es weitere SoC mit integrierter Grafikeinheit. Wenn eine einzige von denen einen einzigen Befehl hätte dessen Ergebnis zurückgeliefert werden kann - würdest Du dann die Einschätzung als "erste APU auf dem Markt" widerrufen?
(Ich habe kein derartiges Beispiel gefunden, mir gehts nur um den Belastungstest Deiner Aussage)
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Diese alten GPUs haben keinerlei Möglichkeit die Pipeline zu beeinflussen. Hinten kommen dort immer nur Daten raus, die durch alle Stufen gegangen sind. Die für GPGPU kontraproduktive Rasterstufe inklusive. Außerdem lassen sich dort keine freien Programme in den Rechenwerken der GPU ausführen. Damit ist die Möglichkeit die GPU zu Beschleunigung paralleler Aufgaben zu nutzen gestorben. -> Nein, ein MediaGX oder jedes andere SoC ohne frei programmierbare Pipeline ist keine APU.Die CPU kann Daten aus dem Grafikspeicher auslesen, die GPU kann Daten im Grafikspeicher ablegen.
Jap.Also ist Deiner Meinung nach der XBOX-Prozessor die wahrscheinlich erste APU auf dem Markt?
Aufgrund der Wahrscheinlichkeit?
Nach und neben dem von Cyrix gibt es weitere SoC mit integrierter Grafikeinheit. Wenn eine einzige von denen einen einzigen Befehl hätte dessen Ergebnis zurückgeliefert werden kann - würdest Du dann die Einschätzung als "erste APU auf dem Markt" widerrufen?
(Ich habe kein derartiges Beispiel gefunden, mir gehts nur um den Belastungstest Deiner Aussage)
Ja, da Microsoft immer wieder verkündet hat, dass die in der XBox verbaute GPU als erste das Unfied-Shader Design implementiert. Damit ist die frei programmierbare Pipeline gegeben. Es gab nie eine gegenteilige Aussage, von daher denke ich kann man das in dieser Betrachtung schon als gegeben annehmen.
Und ja: Wenn es ein einziges SoC auf dem Markt gibt, das eine GPU mit frei programmierbarer Pipeline und der Möglichkeit Daten an jeder Stufe der Pipeline abzugreifen und der CPU zur Verfügung zu stellen gibt, revidiere ich meine Aussage, dass der XBox Chip die erste APU auf dem Markt ist.
Markus Everson
Grand Admiral Special
Und ja: Wenn es ein einziges SoC auf dem Markt gibt, das eine GPU mit frei programmierbarer Pipeline und der Möglichkeit Daten an jeder Stufe der Pipeline abzugreifen und der CPU zur Verfügung zu stellen gibt, revidiere ich meine Aussage, dass der XBox Chip die erste APU auf dem Markt ist.
Ok. Warum aber die Einschränkung auf jede Stufe der Pipeline? Und warum die Einschränkung auf frei programmierbar? Ist dir bewußt das schon bei einer handverlesenen Auswahl Directx8 GPUn einige wenige Videoschnittprogramme eine noch geringere Anzahl von Filter angeblich auf der GPU ausführten und das Ergebnis auch wieder zurück speicherten? Würde also eine Dx8-klasse GPU in der CPU schon zu einer APU reichen?
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
An jeder Stufe der Pipeline:
Weil die Rasterstufe, wie ich vorhin schon schrieb, für GPGPU kontraproduktiv ist. Es erschwert die Programmierung erheblich, wenn man die fertigen Daten nicht vor dieser Stufe abgreifen kann. Es verhindert den Einsatz als GPGPU zwar nicht, ist aber ein ziemlich schwerer Klotz am Bein.
Frei programmierbar:
Nur durch frei programmierbare Pipelines lohnt es sich überhaupt irgendetwas auf der GPU auszuführen. Und ja du hast recht, das Prinzip der freien Programmierbarkeit wurde schon mit DX8 eingeführt. Aber erst mit DX10 gab es keine Einschränkungen bezüglich Befehlskombination, Programmlänge und Sprüngen mehr. Erst damit wird eine sinnvolle Programmierbarkeit gewährleistet.
Sicherlich gab es einige GPGPU Versuche mit DX8 - habe ich selber auch gemacht. Die Programmfreiheit war aber unterirdisch und würde wohl auch keinen Programmierer der bei klarem Verstand ist und evtl auch noch betriebswirtschaftlich denken muss dazu anregen auf so etwas wirklich produktiv programmieren zu wollen.
Technisch würde eine DX8 GPU zusammen mit einer CPU in einem SoC schon für die Bezeichnung als APU reichen, wegen mangelnder Flexibilität wäre das aber wahrscheinlich alles andere als erfolgreich.
Weil die Rasterstufe, wie ich vorhin schon schrieb, für GPGPU kontraproduktiv ist. Es erschwert die Programmierung erheblich, wenn man die fertigen Daten nicht vor dieser Stufe abgreifen kann. Es verhindert den Einsatz als GPGPU zwar nicht, ist aber ein ziemlich schwerer Klotz am Bein.
Frei programmierbar:
Nur durch frei programmierbare Pipelines lohnt es sich überhaupt irgendetwas auf der GPU auszuführen. Und ja du hast recht, das Prinzip der freien Programmierbarkeit wurde schon mit DX8 eingeführt. Aber erst mit DX10 gab es keine Einschränkungen bezüglich Befehlskombination, Programmlänge und Sprüngen mehr. Erst damit wird eine sinnvolle Programmierbarkeit gewährleistet.
Sicherlich gab es einige GPGPU Versuche mit DX8 - habe ich selber auch gemacht. Die Programmfreiheit war aber unterirdisch und würde wohl auch keinen Programmierer der bei klarem Verstand ist und evtl auch noch betriebswirtschaftlich denken muss dazu anregen auf so etwas wirklich produktiv programmieren zu wollen.
Technisch würde eine DX8 GPU zusammen mit einer CPU in einem SoC schon für die Bezeichnung als APU reichen, wegen mangelnder Flexibilität wäre das aber wahrscheinlich alles andere als erfolgreich.
Kuroiban
Admiral Special
- Mitglied seit
- 31.05.2008
- Beiträge
- 1.625
- Renomée
- 23
- Mein Laptop
- Asus Nexus 7 2013
- Prozessor
- AMD Phenom II X6 1090T
- Mainboard
- ZOTAC 890GX-ITX WiFi
- Kühlung
- Corsiar H80+ 2x120mm Nanoxia FX-1250
- Speicher
- 2x 4GB A-Data PC-6400
- Grafikprozessor
- XFX AMD Radeon HD6850 1GB DDR5
- Display
- 21" Iiyama ProLite B2206WS
- SSD
- Curcial M500 250GB
- HDD
- WesternDigital CavierBlack 640GB
- Soundkarte
- M-Audio Fast Track Pro
- Gehäuse
- Bitfenix Prodigy + 140mm Nanoxia FX-1000
- Netzteil
- Antech TruePower New 550W
- Betriebssystem
- Windows 8.1
- Webbrowser
- Chrome
Die Frage die ich mir stelle ist aber: "Was bringt diese APU". Ich habe den potenziellen Nutzen von APUs immer im Bereich professioneller und komplexer Software gesehen wo spezielle gut paralleliesierbare Aufgaben von der eingebettete GPU übernommen werden. Aber in einer Konsole sehe ich diesen Nutzen nur eingeschränkt. Vorallem in anbetracht des Alters der Xbox 360. Viele Studios haben schon laufende Engines und ich sehe nicht wie der APU-Ansatzt zu einer großen Veränderung in diesen führen wird für eine Konsole die noch 2 Jahre auf dem Markt sein wird. Hört sich für mich nett auf dem Papier an, aber mehr auch nicht.
Dresdenboy
Redaktion
☆☆☆☆☆☆
@Bayushi:
Niedrigere Herstellungskosten für Chiphersteller und Systemhersteller bei gleicher oder gar besserer Leistung.
Niedrigere Herstellungskosten für Chiphersteller und Systemhersteller bei gleicher oder gar besserer Leistung.
Green_Ranger
Fleet Captain Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 344
- Renomée
- 7
"Was bringt diese APU".
In diesem Falle:
- Kosteneinsparungen
- Energieeinsparungen
- Erfahrungen sammeln
Idioten Bauen Maschinen ist ja kein kleiner Fisch, und liefern fern ab des Bereiches PC Produkte die sich gewaschen haben. GPUs eignen sich ja für einige Teilgebiete von Rechnungen deutlich besser als CPUs, dass IBM Erfahrungen mit solchen Architekturen sammelt kann nichts schlimmes sein. Es hat sicherlich einen positiven Effekt auf die Entwickelung der nächsten Spielekonsolen Generation, könnte neue Bereiche für IBM erschließen, und sicherlich einige Quadros ablösen in einigen Jahren.
Markus Everson
Grand Admiral Special
Die Frage die ich mir stelle ist aber: "Was bringt diese APU".
Gegenüber der vorher vorhandenen externen GPU? Einzig und allein Kostenersparnis.
Gegenüber einer GPU die nicht "frei" programmierbar ist: Die Möglichkeit der PPU-Beschleunigung. Ob die dann genutzt wird steht auf einem anderen Blatt.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Gegenüber der vorher vorhandenen externen GPU? Einzig und allein Kostenersparnis.
Gegenüber einer GPU die nicht "frei" programmierbar ist: Die Möglichkeit der PPU-Beschleunigung. Ob die dann genutzt wird steht auf einem anderen Blatt.
So siehts aus. Ok, das Ding ist vom Prinzip her dem Fusion-Chips ähnlich und daher der erste seiner Art. Großes Aber, mal das Software-Grundgerüst vorausgesetzt, ob sich die GPU auch in gleichem Sinne als APU verwenden ließe wie das bei den AMD-Designs geplant ist, steht doch auf einem ganz anderen Blatt. Für OpenCL wird ja erst richtig ab der 4000er Serie entwickelt.
Vor allem sollte man hier nicht vergessen, dass die GPU schon mehrere Jahre auf dem Buckel hat (Prä-R600). Trotz eDRAM ist in aktuellen Spielen teilweise nicht mal mehr MSAA aktiviert bzw die Auflösung muss wegen fehlender Power reduziert werden. In der Praxis wird sich
Ich bin allerdings gespannt, ob in der nachfolgenden Generation nicht vielleicht schon ein SoC-Design von Anfang an kommt.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Man kann das auch als direkten Wegbereiter hin zum R600 und deren Nachfolger sehen. Von daher reicht die Beschreibung "Prä-R600" leider nicht aus. Es ist "Der Prä-R600".... Vor allem sollte man hier nicht vergessen, dass die GPU schon mehrere Jahre auf dem Buckel hat (Prä-R600). ...
Derzeit ist selbst bei dieser Version der eDRAM nach wie vor ein eigenständiger Chip.Trotz eDRAM ist in aktuellen Spielen teilweise nicht mal mehr MSAA aktiviert ...
Was kann Microsoft dafür, dass du nur damit Tetris spielst?In der Praxis wird sich dieses Design doch höchstens bei Spielen mit der grafischen Komplexität von Tetris einsetzen lassen. ...
Diese ATI-GPU bzw. APU wird von Microsofts SDK für Spieleentwickler mit einem Featureset von DirectX-9 und DirectX-10 unterstützt. Immerhin ist dort die erste Tesselationseinheit der Spieleindustrie darin implementiert, die tatsächlich sogar von einer Spiele DirectX-SDK unterstützt wird.
MFG Bobo(2010)
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 383
- Antworten
- 69
- Aufrufe
- 4K
- Antworten
- 731
- Aufrufe
- 50K