App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Erste APU auf dem Markt
- Ersteller sciing
- Erstellt am
Kuroiban
Admiral Special
- Mitglied seit
- 31.05.2008
- Beiträge
- 1.625
- Renomée
- 23
- Mein Laptop
- Asus Nexus 7 2013
- Prozessor
- AMD Phenom II X6 1090T
- Mainboard
- ZOTAC 890GX-ITX WiFi
- Kühlung
- Corsiar H80+ 2x120mm Nanoxia FX-1250
- Speicher
- 2x 4GB A-Data PC-6400
- Grafikprozessor
- XFX AMD Radeon HD6850 1GB DDR5
- Display
- 21" Iiyama ProLite B2206WS
- SSD
- Curcial M500 250GB
- HDD
- WesternDigital CavierBlack 640GB
- Soundkarte
- M-Audio Fast Track Pro
- Gehäuse
- Bitfenix Prodigy + 140mm Nanoxia FX-1000
- Netzteil
- Antech TruePower New 550W
- Betriebssystem
- Windows 8.1
- Webbrowser
- Chrome
In diesem Falle:
- Kosteneinsparungen
- Energieeinsparungen
- Erfahrungen sammeln
Absolut richtig, ich wollte aber eher auf den Software nutzen dieser APU ein gehen. Für mich ist das ein wichtiges Feature einer APU wie sie von AMD bisher beschrieben wurde. Die intigierte GPU sollte aus diesem Chip eben mehr als nur ein Verbund von CPU und GPU, da ein Mehrnutzen für Software vorhanden ist. Wie viel bringt einem der Name APU bei diesen Chip wenn man das nicht wirklich nutz. Daher kam meine Frage.
In der Praxis wird sich dieses Design als APU für GPGPU z.B. für Physik-Effekte doch höchstens bei Spielen mit der grafischen Komplexität von Tetris einsetzen lassen.
Ich bin allerdings gespannt, ob in der nachfolgenden Generation nicht vielleicht schon ein SoC-Design von Anfang an kommt.
Genau das ist das Ding. Für die moderne Grafikpracht reicht es nicht mal mehr, was will man dann darauf berechnen?
Und da mir es nicht darum geht mit mein Frage gegen jemanden zu wettern sondern Antworten zu bekommen mache ich mir auch selber gedanken:
Microsoft will mit Kinetic die XBox auch Richtung Multimedicenter erweitern und auch ein Videoportal einführen. Upscaling wäre da doch eine mögliche Anwendung oder? Würde ja Sinn mach über das Internet komprimierte Videos zu verschicken und an den Konsolen Upscaling zu betreiben, damit entlastet man die Serverstruktur und spar Bares Geld beim bereit stellen eines solchen Service.
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Warum erwartet immer jeder, dass neue Technologien wie eine Bombe einschlagen müssen? Fusion wird meiner Meinung nach auch nicht sofort ein Paukenschlag.
Aber dadurch das brauchbare und einsatzfähige Hardware vorhanden ist, auch wenn sie noch relativ langsam ist, bringt man Entwickler dazu für diese Technologien zu programmieren. SSE wurde auch nicht sofort genutzt. Da es aber inzwischen weit verbreitet ist optimieren viele Softwareschmieden ihre Programme darauf. Damit haben wir als Endnutzer immer noch große Vorteile davon, auch wenn es nicht direkt genutzt wurde, als die erste Prozessorgeneration mit SSE erschien.
Microsoft macht es hier genau richtig. Sie haben ein relativ simples Testvehikel, da die Grundarchitektur schon da war, mussten das Ganze also nur auf einem Chip verschmelzen. Damit zeigen sie aber den Entwicklern: "Schaut her, das ist die Richtung in die es zukünftig geht, in der nächsten Generation wird dieses Prinzip noch viel leistungsfähiger". Sie geben damit den Softwareherstellern Zeit sich mit der Technik zu befassen, bevor sie in der nächsten Generation der XBox produktiv eingesetzt wird. Und als positiven Nebeneffekt haben sie gleich noch niedrigere Produktionskosten für die aktuelle Konsole.
Aber dadurch das brauchbare und einsatzfähige Hardware vorhanden ist, auch wenn sie noch relativ langsam ist, bringt man Entwickler dazu für diese Technologien zu programmieren. SSE wurde auch nicht sofort genutzt. Da es aber inzwischen weit verbreitet ist optimieren viele Softwareschmieden ihre Programme darauf. Damit haben wir als Endnutzer immer noch große Vorteile davon, auch wenn es nicht direkt genutzt wurde, als die erste Prozessorgeneration mit SSE erschien.
Microsoft macht es hier genau richtig. Sie haben ein relativ simples Testvehikel, da die Grundarchitektur schon da war, mussten das Ganze also nur auf einem Chip verschmelzen. Damit zeigen sie aber den Entwicklern: "Schaut her, das ist die Richtung in die es zukünftig geht, in der nächsten Generation wird dieses Prinzip noch viel leistungsfähiger". Sie geben damit den Softwareherstellern Zeit sich mit der Technik zu befassen, bevor sie in der nächsten Generation der XBox produktiv eingesetzt wird. Und als positiven Nebeneffekt haben sie gleich noch niedrigere Produktionskosten für die aktuelle Konsole.
Kuroiban
Admiral Special
- Mitglied seit
- 31.05.2008
- Beiträge
- 1.625
- Renomée
- 23
- Mein Laptop
- Asus Nexus 7 2013
- Prozessor
- AMD Phenom II X6 1090T
- Mainboard
- ZOTAC 890GX-ITX WiFi
- Kühlung
- Corsiar H80+ 2x120mm Nanoxia FX-1250
- Speicher
- 2x 4GB A-Data PC-6400
- Grafikprozessor
- XFX AMD Radeon HD6850 1GB DDR5
- Display
- 21" Iiyama ProLite B2206WS
- SSD
- Curcial M500 250GB
- HDD
- WesternDigital CavierBlack 640GB
- Soundkarte
- M-Audio Fast Track Pro
- Gehäuse
- Bitfenix Prodigy + 140mm Nanoxia FX-1000
- Netzteil
- Antech TruePower New 550W
- Betriebssystem
- Windows 8.1
- Webbrowser
- Chrome
Warum erwartet immer jeder, dass neue Technologien wie eine Bombe einschlagen müssen? Fusion wird meiner Meinung nach auch nicht sofort ein Paukenschlag.
Darum geht es mir doch gar nicht, mir geht es um das Potenzial das dahinter steckt. Immerhin kostet die Entwicklung eines solchen Chips auch Geld, und zwar mehr Geld als ein einfach Shrink der vorhanden Hardware. Mit diesem hätte man wohl auch eine XBox Slim raus bringen können und das mit weniger Aufwand. Mircosoft gibt doch keinen Chipentwicklung in Auftrag weil die Konsole intern so toll sein soll, sondern weil es nach Außen etwas bringt. Und genau da nach frage ich.
Markus Everson
Grand Admiral Special
Absolut richtig, ich wollte aber eher auf den Software nutzen dieser APU ein gehen.
Der ist der gleiche wie seit vier Jahren der Nutzen der GPU. Nicht mehr und nicht weniger.
Natürlich kannst Du diese zwei Sätze gerne noch fünfmal wiederkäuen, sie von allen Seiten intensiv betrachten, die einzelnen Buchstaben darin beleuchten, nach Häufigkeit und Kombination gruppieren und hübsche Statistiken über das Ergebnis führen. Allein, es ändert nichts so wie sich am Nutzen der APU nichts geändert hat.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
@Bayushi
Ja, klar ist der Aufwand der Entwicklung größer, aber im Gegenzug ist auch das Einsparpotential größer. Du hast nur noch 2 Dies (SoC + eDRAM) dadurch sparst du Kosten beim Package und kommst mit ner simpleren Hauptplatine aus. Das sind alles vielleicht nur wenige Dollar Vorteil.
Und warum das Ganze? Weil dies meiner Meinung nach der letzte Shrink dieser Generation sein wird. Die Xbox-Slim muss bis zum Ende der Lebensdauer 2015 durchhalten.
Technisch darf sie intern sogar nix neues können. War ja verlinkt, dass der Chip über den FSB-Replacement künstlich gebremst wird, um die Kompatibilität zu wahren.
Ja, klar ist der Aufwand der Entwicklung größer, aber im Gegenzug ist auch das Einsparpotential größer. Du hast nur noch 2 Dies (SoC + eDRAM) dadurch sparst du Kosten beim Package und kommst mit ner simpleren Hauptplatine aus. Das sind alles vielleicht nur wenige Dollar Vorteil.
Und warum das Ganze? Weil dies meiner Meinung nach der letzte Shrink dieser Generation sein wird. Die Xbox-Slim muss bis zum Ende der Lebensdauer 2015 durchhalten.
Technisch darf sie intern sogar nix neues können. War ja verlinkt, dass der Chip über den FSB-Replacement künstlich gebremst wird, um die Kompatibilität zu wahren.
Wie könnte ich das, dazu ist über den Aufbau von GPU und CPU zur APU bisher zu wenig bekannt.
Aber fangen wir doch mal von unten an. Bezeichnest Du den Cyrix MediaGX als APU?
Wenn nein - warum nicht?
Ich habe schon geschrieben, das ich die News nur "zitiert" habe. Da ich den Media GX bisher nicht kannte, und ich auch nicht weiss ob APU nur ein Marketingbashwort ist, kann/will ich mich an der Disskussion nicht beteiligen.
Meine Frage hast Du trotzdem nicht beantwortet, also nochmal direkt, ist Llano/Ontario Deiner Meinung die erste APU? Wenn ja, was ist der Unterschied zum xBox-Chip? Wenn nein, wäre es auch ganz interessant zu wissen warum?
Wenn Dir aber das ganze APU-Gehype auf den Geist geht, dann benutzt nicht mich als Zielscheibe, sondern schreibs einfach hin!
Comguard
Admiral Special
- Mitglied seit
- 10.07.2009
- Beiträge
- 1.114
- Renomée
- 9
- Mein Laptop
- Thinkpad X230t
- Prozessor
- Intel i5 3450
- Mainboard
- Gigabyte GA-H77-DS3H
- Kühlung
- Scythe Mine 2
- Speicher
- 2x4GB Kingston LoVo DDR3-1600
- Grafikprozessor
- HIS IceQ Turbo 7850
- Display
- 23" Samsung SyncMaster P2350
- HDD
- Samsung 830
- Optisches Laufwerk
- Sony
- Soundkarte
- Asus Xonar DGX
- Gehäuse
- Corsair Carbide 500R
- Netzteil
- BeQuiet Straight Power E9 450 W
- Betriebssystem
- Windows 7 Professional
- Webbrowser
- Chrome
Aber wenn vorher Microsoft die CPU von IBM und die GPU von ATI kauft.
Und jetzt plötzlich nur noch von IBM bezieht.
Wo ist dann ATI? Die müssen ja irgendwie daran beteiligt sein.
Und wieviel kann man bei einem solchen Vorgehen denn sparen? Die Stromersparnis scheint ganz ordentlich zu sein, meine Ur-Box zieht anscheinend doppelt soviel.
Wegen Upscaling: meines Wissens beherrscht die Xbox das schon recht gut. Deshalb hatte sie ja laut MS ursprünglich kein HDMI, da man sich zwischen HDMI und guten Upscaling-Fähigkeiten entscheiden muss. Diese Info klaube ich jetzt aber nur aus meiner Erinnerung zusammen, keine Gewähr.
Und jetzt plötzlich nur noch von IBM bezieht.
Wo ist dann ATI? Die müssen ja irgendwie daran beteiligt sein.
Und wieviel kann man bei einem solchen Vorgehen denn sparen? Die Stromersparnis scheint ganz ordentlich zu sein, meine Ur-Box zieht anscheinend doppelt soviel.
Wegen Upscaling: meines Wissens beherrscht die Xbox das schon recht gut. Deshalb hatte sie ja laut MS ursprünglich kein HDMI, da man sich zwischen HDMI und guten Upscaling-Fähigkeiten entscheiden muss. Diese Info klaube ich jetzt aber nur aus meiner Erinnerung zusammen, keine Gewähr.
Cordelier
Commodore Special
- Mitglied seit
- 04.03.2008
- Beiträge
- 390
- Renomée
- 66
Nach meinem Verständnis und der Beschäftigung mit dem Thema Royalties funktioniert das Geschäft folgendermaßen:
Der Konsolenhersteller(hier Microsoft) vergibt einen Auftrag des Entwurfs und der Entwicklung einer GPU(AMD/ATI) oder CPU(IBM) an die genannten Unternehmen.
Die Entwicklung bekommen die Unternehmen als sogenannte NRE(Non-Recurring Engineering) bezahlt.Danach vergibt der Konsolenhersteller den Auftrag der Herstellung der Chips an einen Fertiger(z.B. Chartered Semiconductor) und zahlt dann pro abverkaufte Konsole eine Lizenzgebühr(Royalty) an die CPU/GPU-Entwickler für die Nutzung deren Know-How.
Hier bei der neuen Xbox stellte sich daher auch die Frage wer wohl die Fusion bewerkstelligen würde.Dachte sogar eine Zeitlang das vielleicht sogar schon ein AMD-Fusion eingesetzt werden könnte.
Jedenfalls wird IBM demnach Geld für die "Verschmelzung" bekommen und Lizenzgebühren nachwievor an beide,AMD und IBM, gezahlt werden müssen.
Der Konsolenhersteller(hier Microsoft) vergibt einen Auftrag des Entwurfs und der Entwicklung einer GPU(AMD/ATI) oder CPU(IBM) an die genannten Unternehmen.
Die Entwicklung bekommen die Unternehmen als sogenannte NRE(Non-Recurring Engineering) bezahlt.Danach vergibt der Konsolenhersteller den Auftrag der Herstellung der Chips an einen Fertiger(z.B. Chartered Semiconductor) und zahlt dann pro abverkaufte Konsole eine Lizenzgebühr(Royalty) an die CPU/GPU-Entwickler für die Nutzung deren Know-How.
Hier bei der neuen Xbox stellte sich daher auch die Frage wer wohl die Fusion bewerkstelligen würde.Dachte sogar eine Zeitlang das vielleicht sogar schon ein AMD-Fusion eingesetzt werden könnte.
Jedenfalls wird IBM demnach Geld für die "Verschmelzung" bekommen und Lizenzgebühren nachwievor an beide,AMD und IBM, gezahlt werden müssen.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
ich an AMDs stelle würde Microsoft bischen drohen "wenn ihr unsere CPU nicht verbaut bekommt ihr auch keine ATI" das gilt für alle!
Seit wann ist es üblich seinen Kunden zu drohen?! Bisher dachte ich man gewährt ihnen Rabatte, sonder Leistungen um die zu halten.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Und schwupps ist Nvidia wieder an Bord.ich an AMDs stelle würde Microsoft bischen drohen "wenn ihr unsere CPU nicht verbaut bekommt ihr auch keine ATI" das gilt für alle!
Wäre ziemlich selten dämlich von AMD den Softwarekonzern Microsoft für deren Spielekonsole zu zwingen einen AMD-Prozessorkern zu implementieren. Das muss der Riese aus Redmond schon selber wollen.
Darüber hinaus bietet die Power-Architektur den Vorteil, das das von einem breiteren Konsortium verwaltet wird. Da wird die Fortentwicklung der Power ISA (Instruktion Set Architecture) mit allen Mitgliedern zeitnah geteilt und und kooperativ gepflegt.
Das ist bei x86 nach wie vor allem Intel. In wie weit die Kartellprozesse daraus die wenigen Mitglieder Gleiche unter Gleiche macht ist mir noch völlig unklar. Noch unklarer ist der Beitritt von Neumitgliedern.
Bei der Power-Architektur gibt es keine politischen Beitrittschranken. Wer da mitmachen will, ist herzlich eingeladen.
Microsoft hatte schon gute Gründe die Power-Architektur zu wählen. Alternativen wären da sicherlich noch SPARC und ARM gewesen.
MFG Bobo(2010)
Markus Everson
Grand Admiral Special
Wenn Dir aber das ganze APU-Gehype auf den Geist geht, dann benutzt nicht mich als Zielscheibe, sondern schreibs einfach hin!
Sorry, ich hatte gar nicht wahrgenommen und auch nicht beabsichtigt Dich als Zielscheibe zu mißbrauchen. Ich habe schlicht eine ausgeprägte Abneigung gegen Marketinggeblubber und versuche mich durch ständigen Widerspruch selbst "wach" zu halten. Und das meist ohne das ich zu beginn einer Diskussion weiß wo ich am Ende stehe.
Also nochmal: Sorry, das ging und geht ganz sicher nicht gegen Dich.
.
EDIT :
.
Aber wenn vorher Microsoft die CPU von IBM und die GPU von ATI kauft.
Und jetzt plötzlich nur noch von IBM bezieht.
Wo ist dann ATI? Die müssen ja irgendwie daran beteiligt sein.
ATI (bzw. die GPU-Sparte von AMD) ist wahrscheinlich dort beteiligt wo Schecks in Empfang genommen werden. Ich glaube nicht, das die das Design an MS verkauft, eher das sie es lizenziert haben.
Mit einiger Wahrscheinlichkeit würde ich auch annehmen das die CPU-Sparte von AMD ebenfalls beteiligt ist. Wissen über die schnelle Kopplung von CPU und GPU dürfte dort im Moment verfügbar sein
Und wieviel kann man bei einem solchen Vorgehen denn sparen? Die Stromersparnis scheint ganz ordentlich zu sein, meine Ur-Box zieht anscheinend doppelt soviel.
Die Integration selbst sehe ich da weniger als Ursache, die dürfte sich nur auf die Herstellungskosten auswirken. Der Durst wird eher über Strukturgröße und Details in der Fertigungstechnik (LowK? SI?)
gesenkt.
Wegen Upscaling: meines Wissens beherrscht die Xbox das schon recht gut. Deshalb hatte sie ja laut MS ursprünglich kein HDMI, da man sich zwischen HDMI und guten Upscaling-Fähigkeiten entscheiden muss.
So wie mein Auto keine Metalliclackierung hat? Ich mußte zwischen Metalliclackierung und ABS wählen.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Da wie ich gelesen habe, die GPU für die CPU praktisch auch als Northbridge (Verbindung zum Rest des System und zum gemeinsam genutzten GDDR-RAM) dient, muss das nicht mal unbedingt sein. Ich traue da IBM durchaus zu das alleine zu bewerkstelligen.ATI (bzw. die GPU-Sparte von AMD) ist wahrscheinlich dort beteiligt wo Schecks in Empfang genommen werden. Ich glaube nicht, das die das Design an MS verkauft, eher das sie es lizenziert haben.
Mit einiger Wahrscheinlichkeit würde ich auch annehmen das die CPU-Sparte von AMD ebenfalls beteiligt ist. Wissen über die schnelle Kopplung von CPU und GPU dürfte dort im Moment verfügbar sein
Ich gehe auch von Lizenzfertigung aus. Ich hatte bezüglich der ROD-Probleme gelesen, dass MS Geld sparen wollte und ATI beim praktischen Design außen vor lies. Erst später habe man sie dazu geholt, um die Kohlen aus dem Feuer zu holen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 383
- Antworten
- 69
- Aufrufe
- 4K
- Antworten
- 728
- Aufrufe
- 50K