App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Warum hat AMD diese technischen Lösungen noch nicht umgesetzt?
- Ersteller Suxxess
- Erstellt am
Unterstützt Llano die "PowerXPress 4.0" Technik? Und wenn nicht, warum nicht?
Die Technik würde doch gerade dort Sinn machen da jeder Llano einen Grafikkern hätte.
Da viele Systeme meistens im Idlemodus betrieben werden, könnte man dort eine Menge Strom einsparen. (Beim Idlestromverbrauch größerer Grafikkarten)
Einfach auf die APU interne GPU umschalten und den PCI Express Bus
stromfrei schalten ( Laut Wikipedia ist PCI Express "hotpluggedfähig" )
Eventuell noch einen zweiten Lüfterstecker auf dem Mainboard für die Grafikkarte montieren, damit könnte das Mainboard den PCI Express Slot stromfrei schalten,
den Idleverbrauch der Grafikkarte auf 0 bringen und den Lüfter noch 30 Sekunden
weiter laufen lassen um die Temperatur der Grafikkarte zu senken bevor der Lüfter der dedizierten Grafikkarte ganz gestoppt wird.
Dann habe ich noch eine zweite Idee wie AMD ein Alleinstellungsmerkmal auf dem Notebookmarkt bekommen könnte.
Stichwort "ATi XGP"
Eine externe Grafiklösung für Notebooks ist so simpel wie genial, warum hat AMD diese Idee fallen gelassen?
Die XGP Lösung hatte allerdings einen gravierenden Nachteil,
man brauchte immer einen externen Monitor.
Neue AMD Notebooks müssten daher einen DVI / Displayport Eingang haben.
AMD bräuchte dann noch eine sehr schnelle externe Schnittstelle, es bietet sich hier extern PCI Express oder 2 - 4 "Thunderbolt" Schnittstellen an.
Dann sollte man ein externes Gehäuse kaufen können indem man eine schnelle Grafikkarte einbauen könnte.
Heutige Gamingnotebooks kosten um die 1.500 € und sind den Desktopmodellen trotzdem deutlich unterlegen.
Wenn es auch ein 700 € Notebook + 300 € externe Grafiklösung täte, dann könnten Käufer Geld sparen und bei AMD bliebe mehr hängen.
Beziehungsweise man könnte dies als Alleinstellungsmerkmal nutzen um Intel auszustechen.
Oder man kassiert von Intel ein nettes Sümmchen für die Lizensierung der Technik und langt für die nötigen externen Gehäuse nochmal hin.
Bei den dann nur passenden ATI Karten wird dann nochmal hingelangt..
Dann hätte man in Zukunft die Wahl ob man sich ein schweres Gameingnotebook kauft, dass nach einer Stunde im mobilen Betrieb aufgibt,
oder ob man ein mittleres Modell kauft, bei dem man das "Gamingmodule" nur bei Bedarf dazustecken muss
um auch anspruchsvollere Titel spielen zu können.
Wenn dann Nvidiakarten Aufgrund der "Treiberproblematik" nicht passen würden, dann wäre das ja auch nicht sonderlich schlimm.
Wo ist mein Denkfehler? Irgendwo muss er ja sein, denn ansonsten hätte AMD das ja längst umgesetzt. Ist die externe PCI Express Verbindung zu teuer?
Ist die 2x Thunderboldschnittstelle unrealistisch. (Wegen der nötigen Bandbreite reicht 1x nicht aus) Laut Intel soll die Schnittstelle ja allen Entwicklern kostenfrei zur Verfügung stehen...
Die Technik würde doch gerade dort Sinn machen da jeder Llano einen Grafikkern hätte.
Da viele Systeme meistens im Idlemodus betrieben werden, könnte man dort eine Menge Strom einsparen. (Beim Idlestromverbrauch größerer Grafikkarten)
Einfach auf die APU interne GPU umschalten und den PCI Express Bus
stromfrei schalten ( Laut Wikipedia ist PCI Express "hotpluggedfähig" )
Eventuell noch einen zweiten Lüfterstecker auf dem Mainboard für die Grafikkarte montieren, damit könnte das Mainboard den PCI Express Slot stromfrei schalten,
den Idleverbrauch der Grafikkarte auf 0 bringen und den Lüfter noch 30 Sekunden
weiter laufen lassen um die Temperatur der Grafikkarte zu senken bevor der Lüfter der dedizierten Grafikkarte ganz gestoppt wird.
Dann habe ich noch eine zweite Idee wie AMD ein Alleinstellungsmerkmal auf dem Notebookmarkt bekommen könnte.
Stichwort "ATi XGP"
Eine externe Grafiklösung für Notebooks ist so simpel wie genial, warum hat AMD diese Idee fallen gelassen?
Die XGP Lösung hatte allerdings einen gravierenden Nachteil,
man brauchte immer einen externen Monitor.
Neue AMD Notebooks müssten daher einen DVI / Displayport Eingang haben.
AMD bräuchte dann noch eine sehr schnelle externe Schnittstelle, es bietet sich hier extern PCI Express oder 2 - 4 "Thunderbolt" Schnittstellen an.
Dann sollte man ein externes Gehäuse kaufen können indem man eine schnelle Grafikkarte einbauen könnte.
Heutige Gamingnotebooks kosten um die 1.500 € und sind den Desktopmodellen trotzdem deutlich unterlegen.
Wenn es auch ein 700 € Notebook + 300 € externe Grafiklösung täte, dann könnten Käufer Geld sparen und bei AMD bliebe mehr hängen.
Beziehungsweise man könnte dies als Alleinstellungsmerkmal nutzen um Intel auszustechen.
Oder man kassiert von Intel ein nettes Sümmchen für die Lizensierung der Technik und langt für die nötigen externen Gehäuse nochmal hin.
Bei den dann nur passenden ATI Karten wird dann nochmal hingelangt..
Dann hätte man in Zukunft die Wahl ob man sich ein schweres Gameingnotebook kauft, dass nach einer Stunde im mobilen Betrieb aufgibt,
oder ob man ein mittleres Modell kauft, bei dem man das "Gamingmodule" nur bei Bedarf dazustecken muss
um auch anspruchsvollere Titel spielen zu können.
Wenn dann Nvidiakarten Aufgrund der "Treiberproblematik" nicht passen würden, dann wäre das ja auch nicht sonderlich schlimm.
Wo ist mein Denkfehler? Irgendwo muss er ja sein, denn ansonsten hätte AMD das ja längst umgesetzt. Ist die externe PCI Express Verbindung zu teuer?
Ist die 2x Thunderboldschnittstelle unrealistisch. (Wegen der nötigen Bandbreite reicht 1x nicht aus) Laut Intel soll die Schnittstelle ja allen Entwicklern kostenfrei zur Verfügung stehen...
heikosch
Grand Admiral Special
Nachteil der externen Grafikkarten war bis jetzt immer die Rückführung des Bildsignals auf den internen Monitor. Bei den Lösungen von HP, Fujitsu und ASUS (die sind mir spontan im Kopf) war immer ein Extra-Monitor notwendig. Die Verbindung ging über einen internen PCI-Express-Slot, der meist nur mit einfacher Geschwindigkeit angebunden war. Die Technik bzw. Schaltung ist einfach immer noch nicht so weit, diese Probleme zu lösen und ich denke, daran wird sich so schnell nichts ändern.
PowerXPress 4.0... habe ich gerade keine Idee.
PowerXPress 4.0... habe ich gerade keine Idee.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Also laut diverser Artikel soll sich ja bei Llano einiges getan haben bzgl. diverser Stromspartechniken. Wenn der endlich gelauncht wird (dürfte ja nicht mehr so lange dauern), wird man sicher genaueres erfahren.
Aber letztlich wird man abwarten müssen, wie das Notebookhersteller umsetzen, wenn die sich keine Mühe geben, dann funktioniert es eben nicht.
Aber letztlich wird man abwarten müssen, wie das Notebookhersteller umsetzen, wenn die sich keine Mühe geben, dann funktioniert es eben nicht.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Llano ist nur ein Lückenbüßer bis Trinity fertig ist, ich glaube kaum dass sie da gleich ultimative Stromspartechniken integriert haben. Den K10-Kernen Powergating beizubringen war schon Aufwand genug, die GPU auf SOI umzubauen dürfte auch einiges an Arbeit verschlungen haben, dazu Anpassungen an Northbridge, PCIEx-Controller usw.
Das ist schon einiges zu tun, daher glaube ich nicht dass man sich auf solche Experimente bei der ersten Mainstream-APU eingelassen hat. Das kann dann Trinity oder ihr Nachfolger machen.
Llano sollte erstmal die Plattform schaffen und verdeutlichen was eine APU überhaupt ist. Der REst kommt hinterher.
Das Problem bei extrenen Grafikkarten ist die Bandbreite der Anbindung. Selbst Thunderbolt ist zu langsam und mehrfach ausgelegt auch noch recht teuer, dazu sind die Latenzen vergleichsweise hoch. Ist also alles nicht so "mal eben" aus dem Ärmel zu schütteln.
Wenns so einfach ginge, hätte NV das auch längst fabriziert, nur um ein Alleinstellungsmerkmal zu erhalten.
Dazu ist noch der Punkt, dass du als Gamer/Endkunde ja garnicht aufrüsten sollst, sondern gefälligst brav alle paar Jahre wieder löhnen für die neue Technik...
Welcher OEM würde sich sowas ans Bein binden?
Das ist schon einiges zu tun, daher glaube ich nicht dass man sich auf solche Experimente bei der ersten Mainstream-APU eingelassen hat. Das kann dann Trinity oder ihr Nachfolger machen.
Llano sollte erstmal die Plattform schaffen und verdeutlichen was eine APU überhaupt ist. Der REst kommt hinterher.
Das Problem bei extrenen Grafikkarten ist die Bandbreite der Anbindung. Selbst Thunderbolt ist zu langsam und mehrfach ausgelegt auch noch recht teuer, dazu sind die Latenzen vergleichsweise hoch. Ist also alles nicht so "mal eben" aus dem Ärmel zu schütteln.
Wenns so einfach ginge, hätte NV das auch längst fabriziert, nur um ein Alleinstellungsmerkmal zu erhalten.
Dazu ist noch der Punkt, dass du als Gamer/Endkunde ja garnicht aufrüsten sollst, sondern gefälligst brav alle paar Jahre wieder löhnen für die neue Technik...
Welcher OEM würde sich sowas ans Bein binden?
@PowerXPress 4.0
Ich bezog mich jetzt explizit auf den Desktop.
Beim Notebook ist das sicherlich einfacher zu realisieren, aber beim Desktop würde das auch nochmal ordentlich was bringen.
Und zu extern PCI Express, vermutlich wird dort einfach die Bandbreite zu gering sein.
Wobei das "ATi XGP" damals ja lief, da müssen sie mit einer speziellen Schnittstelle auch die nötige Bandbreite geschafft haben... .
Ich als Laie stelle mit das mit dem DVI Eingang am Notebook wohl zu einfach vor. Warum sollte ein Notebookdisplay anders funktionieren als ein normaler Monitor? Wobei das schon interessant ist:
heise.de/ct/meldung/PCI-Express-4-0-und-schnelle-externe-PCIe-Verbindungen-in-Arbeit-1268034.html .
Vielleicht kommt ja bald die externe Gaminglösung.
Und AMD würde damit wohl so oder so mehr verkaufen. Es ist ja auch nicht so, dass sich die Käufer dann jedes Jahr ein neues Gamingnotebook kaufen würden. Dann wird wohl eher mal die Grafiklösung aufgerüstet anstelle sich häufiger ein neues Notebook zu kaufen. Da die meisten Notebooks im Moment von Intel verkauft werden, würde AMD mehr Grafikaufrüstlösungen verkaufen und Intel weniger Notebooks. Ich sehe da jetzt kein wirkliches Problem für AMD... .
Ganz im Gegenteil, dies könnte ein entscheidender Punkt in Richtung mehr Umsatz und Marktanteil werden.
Intel Gamingnotebook mit ATI Lösung => 1.500 € , sagen wir mal 200 € Umsatz für AMD. (Wird wahrscheinlich schon zu viel sein)
AMD Mainstream Notebook 700 € + externe Grafiklösung 300 € => 1.000 € Umsatz für AMD. Der Umsatz könnte daher dort verfünfacht werden pro Gerät.
Ich bezog mich jetzt explizit auf den Desktop.
Beim Notebook ist das sicherlich einfacher zu realisieren, aber beim Desktop würde das auch nochmal ordentlich was bringen.
Und zu extern PCI Express, vermutlich wird dort einfach die Bandbreite zu gering sein.
Wobei das "ATi XGP" damals ja lief, da müssen sie mit einer speziellen Schnittstelle auch die nötige Bandbreite geschafft haben... .
Ich als Laie stelle mit das mit dem DVI Eingang am Notebook wohl zu einfach vor. Warum sollte ein Notebookdisplay anders funktionieren als ein normaler Monitor? Wobei das schon interessant ist:
heise.de/ct/meldung/PCI-Express-4-0-und-schnelle-externe-PCIe-Verbindungen-in-Arbeit-1268034.html .
Vielleicht kommt ja bald die externe Gaminglösung.
Und AMD würde damit wohl so oder so mehr verkaufen. Es ist ja auch nicht so, dass sich die Käufer dann jedes Jahr ein neues Gamingnotebook kaufen würden. Dann wird wohl eher mal die Grafiklösung aufgerüstet anstelle sich häufiger ein neues Notebook zu kaufen. Da die meisten Notebooks im Moment von Intel verkauft werden, würde AMD mehr Grafikaufrüstlösungen verkaufen und Intel weniger Notebooks. Ich sehe da jetzt kein wirkliches Problem für AMD... .
Ganz im Gegenteil, dies könnte ein entscheidender Punkt in Richtung mehr Umsatz und Marktanteil werden.
Intel Gamingnotebook mit ATI Lösung => 1.500 € , sagen wir mal 200 € Umsatz für AMD. (Wird wahrscheinlich schon zu viel sein)
AMD Mainstream Notebook 700 € + externe Grafiklösung 300 € => 1.000 € Umsatz für AMD. Der Umsatz könnte daher dort verfünfacht werden pro Gerät.
Zuletzt bearbeitet:
G
Gast30082015
Guest
Seit wann bekommen Intel oder AMD bitte den kompletten Kaufpreis der Notebooks angerechnet?@PowerXPress 4.0
Intel Gamingnotebook mit ATI Lösung => 1.500 € , sagen wir mal 200 € Umsatz für AMD. (Wird wahrscheinlich schon zu viel sein)
AMD Mainstream Notebook 700 € + externe Grafiklösung 300 € => 1.000 € Umsatz für AMD. Der Umsatz könnte daher dort verfünfacht werden pro Gerät.
Der Umsatz für das verkaufte Nb geht erstmal in die Bücher des OEM. Da wird AMD (oder aber halt Intel) längst Geld für die eigene Hardware gesehen haben und der Betrag liegt sicher nicht auf Höhe des Verkaufspreises vom Notebook. Da könnte AMD die Dinger ja gleich selbst vertreiben.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Genau das ist der Punkt...
Ich kaufe kein Notebook von AMD sondern eines von HP, DELL oder Acer...
Und denen liegt mal überhaupt nicht daran dass ich möglichst lange Grafikkarten nachrüsten kann und andere davon profitieren, sondern die wollen Notebooks verkaufen.
Also selbst wenn AMD sowas anbieten würde, wäre es schwer einen OEM dafür zu begeistern...
Der Support wäre auch noch so ne Geschichte... Die "umschaltung" des externen signals müsste Treiberseitig irgendwie bewerkstelligt werden, dafür sind die Notebooks aber recht spezifisch... zudem seh ich den ersten Kunden rumjammern der eine Geforce ins externe Gehäuse schraubt und sich beschwert dass es nicht funktioniert mit der Umschaltung auf die interne Radeon...
Es gibt da verflucht viele Variablen, und der Nutzen sit eher beschränkt. Die paar Gamer...
ATI XGP war ein Experiment... aber auch da war die externe Anbindung zu schmal... damals war das nur noch nicht so tragisch...
Langfristig brauchen wir wohl einfach Grafikkarten mit sehr feingranularem Powermanagement und hoher effizienz...
Ich kaufe kein Notebook von AMD sondern eines von HP, DELL oder Acer...
Und denen liegt mal überhaupt nicht daran dass ich möglichst lange Grafikkarten nachrüsten kann und andere davon profitieren, sondern die wollen Notebooks verkaufen.
Also selbst wenn AMD sowas anbieten würde, wäre es schwer einen OEM dafür zu begeistern...
Der Support wäre auch noch so ne Geschichte... Die "umschaltung" des externen signals müsste Treiberseitig irgendwie bewerkstelligt werden, dafür sind die Notebooks aber recht spezifisch... zudem seh ich den ersten Kunden rumjammern der eine Geforce ins externe Gehäuse schraubt und sich beschwert dass es nicht funktioniert mit der Umschaltung auf die interne Radeon...
Es gibt da verflucht viele Variablen, und der Nutzen sit eher beschränkt. Die paar Gamer...
ATI XGP war ein Experiment... aber auch da war die externe Anbindung zu schmal... damals war das nur noch nicht so tragisch...
Langfristig brauchen wir wohl einfach Grafikkarten mit sehr feingranularem Powermanagement und hoher effizienz...
G
Gast30082015
Guest
Man muss allerdings sagen, dass auch die größeren Grafikkarten zwischenzeitlich im Idle-Bereich schon sparsamer geworden sind. AMD geht hoffentlich mit der nächsten Gk-Generation den - im Vergleich zu nVidia - zu hohen Verbrauch beim "Filme schauen" und "Multimonitorbetrieb" an. Wäre zumindest ein weiterer logischer Schritt in die richtige Richtung.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Ich dachte der hohe verbrauch der radeons dabei rührt in erster Linie vom Speicher her... war das nicht so?
Aber stimmt, die Punkte sollten angegangen werden... genau wie das Texturflimmern, das im Moment noch den perfekten AF versaut...
Aber stimmt, die Punkte sollten angegangen werden... genau wie das Texturflimmern, das im Moment noch den perfekten AF versaut...
G
Gast30082015
Guest
Naja, der Punkt ist doch: wenn der Konkurrent in der Lage ist Grafikkarten zu bauen, die nicht unnötig Saft verbraten, sollte man selbst es eigentlich auch hin bekommen.Ich dachte der hohe verbrauch der radeons dabei rührt in erster Linie vom Speicher her... war das nicht so?
Aber stimmt, die Punkte sollten angegangen werden... genau wie das Texturflimmern, das im Moment noch den perfekten AF versaut...
Geht ja nicht, das man - damals zu Zeiten der HD5-Reihe - nVidia vorhält, sie würden nur Strom verschwenden, egal ob Idle, Teil- oder Voll-Last und jetzt im Grunde die gleichen Fehler macht.
Was die Quali-Einstellungen angeht; da bin ich auf die neue Serie gespannt, da sie dort ja das Design umgestellt haben. Vllt. haben sie das Problem auch gleich mit abgearbeitet. Zu hoffen wäre es ja, damit diese leidige Diskussionen in den Foren endlich aufhören...
Die Punkte halte ich auch für wesentlich wichtiger als 5W einsparen, in dem man die dicke Karte ausschaltet und auf iGP/APu-Grafik wechseln kann. Das ist bei Notebooks viel wichtiger und da scheint es ja seitens AMD jetzt auch voran zu gehen.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Ja, wobei um den Desktop zu rendern nun wirklich nicht unbedingt die dedizierte Graka anspringen müsste.... das könnte die evtl. vorhandene IGP auch....
Du hast allerdings dahingehend recht dass man Stromverschwendung nicht gutheißen sollte...
Wobei das natürlich eine Frage der Prioritäten ist...
Du hast allerdings dahingehend recht dass man Stromverschwendung nicht gutheißen sollte...
Wobei das natürlich eine Frage der Prioritäten ist...
G
Gast30082015
Guest
Ja, natürlich. Nur wie soll das Signal dann ausgegeben werden? In der Regel hast ja deine 1/2/3/x Monitore an der Grafikkarte hängen. Ergo müsste das Signal der iGPU/iGP/APU-Grafik erst zur Grafikkarte und dann zu den Monitoren. An irgendeiner Stelle wird auf der dedizierten Karte immer Strom benötigt. Da stellt sich halt die Frage, wie sinnvoll es ist, da in die Forschung Geld zu pumpen, um das Problem praktikabel zu lösen...Ja, wobei um den Desktop zu rendern nun wirklich nicht unbedingt die dedizierte Graka anspringen müsste.... das könnte die evtl. vorhandene IGP auch....
Der einfachere Weg dürfte da sein, den Idle- und Teillastverbrauch soweit zu senken, das man irgendwie auf das Niveau der integrierten Lösungen kommt...
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Ja, natürlich. Nur wie soll das Signal dann ausgegeben werden? In der Regel hast ja deine 1/2/3/x Monitore an der Grafikkarte hängen. Ergo müsste das Signal der iGPU/iGP/APU-Grafik erst zur Grafikkarte und dann zu den Monitoren. An irgendeiner Stelle wird auf der dedizierten Karte immer Strom benötigt. Da stellt sich halt die Frage, wie sinnvoll es ist, da in die Forschung Geld zu pumpen, um das Problem praktikabel zu lösen...
Der einfachere Weg dürfte da sein, den Idle- und Teillastverbrauch soweit zu senken, das man irgendwie auf das Niveau der integrierten Lösungen kommt...
Na andersrum natürlich. Die Monitore hängen an der APU und das Bild wird bei Bedarf von der dedizierten Grafikkarte gerendert und dann an die APU übergeben. Ist doch bei NVidias Optimus nicht anders.
G
Gast30082015
Guest
Ahhh, okay. Gedankenfehler meinerseits. Sry. ^^"Na andersrum natürlich. Die Monitore hängen an der APU und das Bild wird bei Bedarf von der dedizierten Grafikkarte gerendert und dann an die APU übergeben. Ist doch bei NVidias Optimus nicht anders.
ONH
Grand Admiral Special
Na andersrum natürlich. Die Monitore hängen an der APU und das Bild wird bei Bedarf von der dedizierten Grafikkarte gerendert und dann an die APU übergeben. Ist doch bei NVidias Optimus nicht anders.
Sicher, was ist jedoch wenn man mehr als 2 Monitore braucht? (Sicher nicht der Normalfall, jedoch sicher eine Überlegung wert.)
G
Gast30082015
Guest
Naja, wenn die APU/IGP Eyefinity unterstützt, sollte das rein theoretisch auch kein Problem sein.Sicher, was ist jedoch wenn man mehr als 2 Monitore braucht? (Sicher nicht der Normalfall, jedoch sicher eine Überlegung wert.)
Ich muss aber gestehen, ich kenne nVidias Optimus gar nicht. Gehört ja, mehr aber auch nicht.
starrlight
Gesperrt
- Mitglied seit
- 13.05.2010
- Beiträge
- 1.221
- Renomée
- 30
Warum hat AMD diese technischen Lösungen noch nicht umgesetzt?
Hi, finde deine Überlegungen ja Klasse und ich hab mich die Frage auch schon gestellt. Es ist auffällig das AMD so gut wie gar nicht auf propietäre Lösungen setzt. Sei es bei Hardware oder Software. Überwiegend setzt man auf offene oder schon spezifizierte Industriestandards, teils auf Open Source. Nicht immer aber eben häufig. Ich bin da mittlerweile zu dem Schluss gekommen (rein persönliche Meinung) dass das Management von AMD die knappen Finanzmittel durchaus etwas risikofreudiger hätte investieren können. Die 1000 Millionen € (glaube soviel gab es doch mal von Intel Kartellstrafzahlung) kamen dann vielleicht ein bisschen zu spät.
Damit hätte man schon die eine oder andere propietäre Lösungen entwickeln können und letztenendes entscheidet ja der Endkunde und nicht ein OEM Abnehmer von AMD mit was Kasse gemacht wird. Leider - muss ich so sagen - orientiert sich AMD da nicht so sehr am Endkunden, ist daher auch nicht in defr Lage Lifestyle Produkte zu entwickeln - wie es Apple zum Beispiel macht..Die warten dann eben bis ein bestimmter Markt schon vorhanden ist und versuchen ein gutes Preis-/leistungsverhältniss anzubieten - was ja auch (End-) kundenfreundlich ist...Auf Dauer halte ich die Strategie für überdenkenswert. Aber man brauch eben auch die richtigen Leute die Trends frühzeitig erkennen, die notwendigen Ideen haben und ein Management dass solche Entwicklungen fördert - neben dem passenden Kleingeld.
MfG
Zuletzt bearbeitet:
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Sicher, was ist jedoch wenn man mehr als 2 Monitore braucht? (Sicher nicht der Normalfall, jedoch sicher eine Überlegung wert.)
Das kann auch kein heutiger Laptop, die können alle nur 2 Monitore. Auch im Desktop gibt es bisher nichts anderes als die High-End AMD Eyefinity oder NVidias Mosaic SLi, was allerdings den sauteueren Quadros vorbehalten ist. Ich glaube nicht, dass diese Käuferschicht die ersten Kunden der APUs werden.
Mehr als 2 Monitore lassen sich immer noch über eine dedizierte Eyefinity Grafikkarte und einen Hardwaremuxer auf dem Mainboard realisieren, was natürlich anfangs aufgrund der höheren Kosten und des begrenzten Käuferkreises kein Hersteller bringen wird.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi
ich finde den titel sehr provozierend angelegt, die Frage genau betrachtet bringt von AMD seite rein garnichts. Warum mag man sowas haben wollen?
Zum Punkt starrlight Offene Standarts hat AMD jahrelang NV vorgeworfen sich nicht dran zu halten und ständig extra würste zu machen, wäre ein gesichtsverlust davon abzugehen. Aber es hat auch vorteile Offene Standarts zu nutzen.
So wie es Lynxeye ausführt sehe ich das auch in dem Kreis wird sowas nicht mal im 0, bereich zu umsätzzen führen.
lg
ich finde den titel sehr provozierend angelegt, die Frage genau betrachtet bringt von AMD seite rein garnichts. Warum mag man sowas haben wollen?
Zum Punkt starrlight Offene Standarts hat AMD jahrelang NV vorgeworfen sich nicht dran zu halten und ständig extra würste zu machen, wäre ein gesichtsverlust davon abzugehen. Aber es hat auch vorteile Offene Standarts zu nutzen.
So wie es Lynxeye ausführt sehe ich das auch in dem Kreis wird sowas nicht mal im 0, bereich zu umsätzzen führen.
lg
starrlight
Gesperrt
- Mitglied seit
- 13.05.2010
- Beiträge
- 1.221
- Renomée
- 30
Hi
ich finde den titel sehr provozierend angelegt, die Frage genau betrachtet bringt von AMD seite rein garnichts. Warum mag man sowas haben wollen?
Zum Punkt starrlight Offene Standarts hat AMD jahrelang NV vorgeworfen sich nicht dran zu halten und ständig extra würste zu machen, wäre ein gesichtsverlust davon abzugehen. Aber es hat auch vorteile Offene Standarts zu nutzen.
So wie es Lynxeye ausführt sehe ich das auch in dem Kreis wird sowas nicht mal im 0, bereich zu umsätzzen führen.
lg
Hi..man kann ja auch zweigleisig fahren, also offene Standards und propietäre Lösungen. Das eine schließt das andere nicht aus..Propietäre Lösungen in erster Linie um als erstes am Markt zu sein oder Zusatzfunktionen anzubieten.. Computertechnik ist ein innovativer Markt mit steigenden Umsätzen, stetig steigender Kundenzahl und ständig neuen Produkten. Der Markt segmentiert sich in viele kleinere Bereiche mit fließendem Übergang, zwischen Handy, Netbook, Tablet, Laptop, Mediaboxen, TV Boxen, Hifi Bereich, Desktop, Grafikkarten,Web - Server, HPC, Thin Clients usw sehe ich durchaus noch Platz für eine geschickte Umsetzung externer Grafikkartenschnittstellen...Übrigens nicht nur beim Laptop..In paar Jahren könnte man an eine externe Grafikkartenbox das Handy anschließen und hätte seinen Daddelrechner .Und diese Entwicklungen waren/sind heute absehbar, die ganze Ipod Fraktion könnte es kaum Erwarten ihre Gamimg Apps per HDMI Out am LCD zu spielen... Schaue ich mir AMDs Firmenentwicklung die letzten Jahre so an, dann konzentriert man sich eben eher auf die klassischen Märkte oder steigt erst sehr spät in neue Produktentwicklungen ein anstatt selbst neue Märkte zu schaffen.
Zuletzt bearbeitet:
G
Gast30082015
Guest
Bliebe die Frage, wie viel finanziellen Spielraum AMD hat, um selbst neue Märkte zu schaffen auf die Gefahr hin, dass es floppt?!?Schaue ich mir AMDs Firmenentwicklung die letzten Jahre so an, dann konzentriert man sich eben eher auf die klassischen Märkte oder steigt erst sehr spät in neue Produktentwicklungen ein anstatt selbst neue Märkte zu schaffen.
starrlight
Gesperrt
- Mitglied seit
- 13.05.2010
- Beiträge
- 1.221
- Renomée
- 30
Das ist ein berechtigter Einwand vasu. Einen Flop kann sich AMD kaum leisten und insbesondere in der Zeit als man Neuentwicklungen hätte anstoßen müssen damit sie jetzt verfügbar sind war AMD finanziell sehr angespannt. Trotzdem hätte ich mir doch etwas mehr Innovation durch die Übernahme von ATI gewünscht. Ich will jetzt nicht rumnörgeln, da die Grafikkarten von AMD/ATI seit Jahren zum Besten am Markt zählen aber zumindest das Potenzial war aus meiner Sicht noch höher.
Damit mein ich zum einen die PowerXPress Funktion bei den Grafikkarten, oder auch eine zeitnahe Konkurrenz für Intels Atom und den Netbookmarkt wäre jetzt nicht so teuer in der Entwicklung gewesen...Eigentlich hätte man damit schon zu Zeiten des K8/Core2 Ära anfangen müssen im ULV X86 Bereich eine komplette Plattform anzubieten. Gewisse Entwicklungen müssen sich aus Sicht von AMD schon seit 2006 abgezeichnet haben und man hatte keinen Plan B..
MfG
Damit mein ich zum einen die PowerXPress Funktion bei den Grafikkarten, oder auch eine zeitnahe Konkurrenz für Intels Atom und den Netbookmarkt wäre jetzt nicht so teuer in der Entwicklung gewesen...Eigentlich hätte man damit schon zu Zeiten des K8/Core2 Ära anfangen müssen im ULV X86 Bereich eine komplette Plattform anzubieten. Gewisse Entwicklungen müssen sich aus Sicht von AMD schon seit 2006 abgezeichnet haben und man hatte keinen Plan B..
MfG
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ich habe lange überlegt, weswegen ich darauf antworten soll.... Dann habe ich noch eine zweite Idee wie AMD ein Alleinstellungsmerkmal auf dem Notebookmarkt bekommen könnte.
Stichwort "ATi XGP"
Eine externe Grafiklösung für Notebooks ist so simpel wie genial, warum hat AMD diese Idee fallen gelassen?
Die XGP Lösung hatte allerdings einen gravierenden Nachteil,
man brauchte immer einen externen Monitor.
Neue AMD Notebooks müssten daher einen DVI / Displayport Eingang haben.
AMD bräuchte dann noch eine sehr schnelle externe Schnittstelle, es bietet sich hier extern PCI Express oder 2 - 4 "Thunderbolt" Schnittstellen an.
Dann sollte man ein externes Gehäuse kaufen können indem man eine schnelle Grafikkarte einbauen könnte. ...
1.a. AMD arbeitet an einem PCI-Express 3.0 Interconnect für Steckerverbindungen. So gesehen schläft AMD nicht mit seinen Partnern.
1.b. XGP hat sich wohl als Sackgasse herausgestellt.
Zu speziell, zu proprietär und zu viel handische Treiberpflege ... anders kann ich mir das kurze Intermezzo mit Fujitsu Siemens Amilo Sa 3650 nicht erklären.
2. Meinst du das mit Thunderbolt ernst?
-> Seit dem K7 versucht AMD sich aus den Klauen von Intels Interconnect-Technik zu trennen. Mit dem K7 nutzte AMD ein DEC-Protokoll von den damals noch am Markt befindlichen Alpha-Prozessoren.
Mit dem K8 führte AMD den HyperTransportlink ein und übergab diesen Interconnect einem Konsortium, wo auch Apple, Sun, Cisco, Nvidia und manch anderer illustre Name geführt wird.
Es sieht aber schon länger so aus, dass der kleine x86-Riese zunehmend auf PCI-Express setzt - wird ja auch von allen ganz großen IT-Tieren (Intel, IBM, HP, AMD [...]) gepflegt und kooperativ in einem Konsortium weiterentwickelt.
1.a. + 2. -> Thunderbolt ist ein "No Go" für AMD. Akzeptierte Standards wie PCI-Express hingegen sind ein Weg. Light Peak klingt zwar interessant, aber da ist so viel Intel-IP verdongelt, dass sich AMD wieder in eine einseitige Abhängigkeit begibt.
MFG Bobo(2011)
Das ist letztlich auch der Grund warum AMD sehr an Standards hängt, sie bieten das geringste finanzielle Risiko.
Klar war abzusehen das früher oder später Mobile Grafiklösungen sehr interessant werden trotzdem musste sie das ganze für 68 Mio verkaufen, weil sonst wären Sie pleite gegangen.
Den Rest hat Bobo ganz gut zusammengefasst was die externe Grafik angeht.
Klar war abzusehen das früher oder später Mobile Grafiklösungen sehr interessant werden trotzdem musste sie das ganze für 68 Mio verkaufen, weil sonst wären Sie pleite gegangen.
Den Rest hat Bobo ganz gut zusammengefasst was die externe Grafik angeht.
starrlight
Gesperrt
- Mitglied seit
- 13.05.2010
- Beiträge
- 1.221
- Renomée
- 30
Bobo_Oberon schrieb:[....]1.a. AMD arbeitet an einem PCI-Express 3.0 Interconnect für Steckerverbindungen.[.....]
Genau. Danke für die Info
Vielleciht hätte AMD schon schneller taugliche propietäre Lösungen mit ATI alleine auf die Beine stellen können *, die dann entweder zum Standard werden, oder aber übernommen werden wenn der Standard sich etabliert. Ok aber du hast ja auch das Argument genannt, dass propietäre Lösungen teils sehr viel Aufwand darstellen..
Am Beispiel AMD 64 ist AMD früh eigene Wege gegangen und das hat sich doppelt gelohnt. Aber ansonsten halt auch nicht so einfach.. Es wäre halt mal wieder dringend Zeit für AMD ein "Knallerprodukt" auf den Markt zu bringen. Denke Bulldozer ist eine gute Verbesserung bei den Prozessoren, aber auch wenn der Top wird denke ich sollte man sich mittelfristig wieder mit Innovationen breiter aufstellen..Sooo viel zu verlieren hat AMD nicht, und das ist weniger negativ gemeint als es sich vielleicht anhört ;.)
*Auch unter der Annahnme, dass zum Beispiel ein PCIe 1.0 8x schon ausgereicht hätte um bis ~ 2011/2012/2013 ~etc. Grafikkarten extern zu betreiben.
MfG
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 27
- Aufrufe
- 11K
- Antworten
- 680
- Aufrufe
- 89K
- Antworten
- 4
- Aufrufe
- 6K
- Antworten
- 0
- Aufrufe
- 71K
- Antworten
- 65
- Aufrufe
- 13K