Warum hat AMD diese technischen Lösungen noch nicht umgesetzt?

Suxxess

Redshirt
Mitglied seit
26.11.2007
Beiträge
4
Renomée
0
Unterstützt Llano die "PowerXPress 4.0" Technik? Und wenn nicht, warum nicht?
Die Technik würde doch gerade dort Sinn machen da jeder Llano einen Grafikkern hätte.

Da viele Systeme meistens im Idlemodus betrieben werden, könnte man dort eine Menge Strom einsparen. (Beim Idlestromverbrauch größerer Grafikkarten)
Einfach auf die APU interne GPU umschalten und den PCI Express Bus
stromfrei schalten ( Laut Wikipedia ist PCI Express "hotpluggedfähig" )

Eventuell noch einen zweiten Lüfterstecker auf dem Mainboard für die Grafikkarte montieren, damit könnte das Mainboard den PCI Express Slot stromfrei schalten,
den Idleverbrauch der Grafikkarte auf 0 bringen und den Lüfter noch 30 Sekunden
weiter laufen lassen um die Temperatur der Grafikkarte zu senken bevor der Lüfter der dedizierten Grafikkarte ganz gestoppt wird.

Dann habe ich noch eine zweite Idee wie AMD ein Alleinstellungsmerkmal auf dem Notebookmarkt bekommen könnte.

Stichwort "ATi XGP"
Eine externe Grafiklösung für Notebooks ist so simpel wie genial, warum hat AMD diese Idee fallen gelassen?
Die XGP Lösung hatte allerdings einen gravierenden Nachteil,
man brauchte immer einen externen Monitor.

Neue AMD Notebooks müssten daher einen DVI / Displayport Eingang haben.

AMD bräuchte dann noch eine sehr schnelle externe Schnittstelle, es bietet sich hier extern PCI Express oder 2 - 4 "Thunderbolt" Schnittstellen an.
Dann sollte man ein externes Gehäuse kaufen können indem man eine schnelle Grafikkarte einbauen könnte.

Heutige Gamingnotebooks kosten um die 1.500 € und sind den Desktopmodellen trotzdem deutlich unterlegen.
Wenn es auch ein 700 € Notebook + 300 € externe Grafiklösung täte, dann könnten Käufer Geld sparen und bei AMD bliebe mehr hängen.
Beziehungsweise man könnte dies als Alleinstellungsmerkmal nutzen um Intel auszustechen.

Oder man kassiert von Intel ein nettes Sümmchen für die Lizensierung der Technik und langt für die nötigen externen Gehäuse nochmal hin.
Bei den dann nur passenden ATI Karten wird dann nochmal hingelangt..

Dann hätte man in Zukunft die Wahl ob man sich ein schweres Gameingnotebook kauft, dass nach einer Stunde im mobilen Betrieb aufgibt,
oder ob man ein mittleres Modell kauft, bei dem man das "Gamingmodule" nur bei Bedarf dazustecken muss
um auch anspruchsvollere Titel spielen zu können.

Wenn dann Nvidiakarten Aufgrund der "Treiberproblematik" nicht passen würden, dann wäre das ja auch nicht sonderlich schlimm.

Wo ist mein Denkfehler? Irgendwo muss er ja sein, denn ansonsten hätte AMD das ja längst umgesetzt. Ist die externe PCI Express Verbindung zu teuer?
Ist die 2x Thunderboldschnittstelle unrealistisch. (Wegen der nötigen Bandbreite reicht 1x nicht aus) Laut Intel soll die Schnittstelle ja allen Entwicklern kostenfrei zur Verfügung stehen...
 
Nachteil der externen Grafikkarten war bis jetzt immer die Rückführung des Bildsignals auf den internen Monitor. Bei den Lösungen von HP, Fujitsu und ASUS (die sind mir spontan im Kopf) war immer ein Extra-Monitor notwendig. Die Verbindung ging über einen internen PCI-Express-Slot, der meist nur mit einfacher Geschwindigkeit angebunden war. Die Technik bzw. Schaltung ist einfach immer noch nicht so weit, diese Probleme zu lösen und ich denke, daran wird sich so schnell nichts ändern.

PowerXPress 4.0... habe ich gerade keine Idee. ;D
 
Also laut diverser Artikel soll sich ja bei Llano einiges getan haben bzgl. diverser Stromspartechniken. Wenn der endlich gelauncht wird (dürfte ja nicht mehr so lange dauern), wird man sicher genaueres erfahren.

Aber letztlich wird man abwarten müssen, wie das Notebookhersteller umsetzen, wenn die sich keine Mühe geben, dann funktioniert es eben nicht.
 
Llano ist nur ein Lückenbüßer bis Trinity fertig ist, ich glaube kaum dass sie da gleich ultimative Stromspartechniken integriert haben. Den K10-Kernen Powergating beizubringen war schon Aufwand genug, die GPU auf SOI umzubauen dürfte auch einiges an Arbeit verschlungen haben, dazu Anpassungen an Northbridge, PCIEx-Controller usw.
Das ist schon einiges zu tun, daher glaube ich nicht dass man sich auf solche Experimente bei der ersten Mainstream-APU eingelassen hat. Das kann dann Trinity oder ihr Nachfolger machen.
Llano sollte erstmal die Plattform schaffen und verdeutlichen was eine APU überhaupt ist. Der REst kommt hinterher.
Das Problem bei extrenen Grafikkarten ist die Bandbreite der Anbindung. Selbst Thunderbolt ist zu langsam und mehrfach ausgelegt auch noch recht teuer, dazu sind die Latenzen vergleichsweise hoch. Ist also alles nicht so "mal eben" aus dem Ärmel zu schütteln.
Wenns so einfach ginge, hätte NV das auch längst fabriziert, nur um ein Alleinstellungsmerkmal zu erhalten.
Dazu ist noch der Punkt, dass du als Gamer/Endkunde ja garnicht aufrüsten sollst, sondern gefälligst brav alle paar Jahre wieder löhnen für die neue Technik...
Welcher OEM würde sich sowas ans Bein binden? *noahnung*
 
@PowerXPress 4.0

Ich bezog mich jetzt explizit auf den Desktop.
Beim Notebook ist das sicherlich einfacher zu realisieren, aber beim Desktop würde das auch nochmal ordentlich was bringen.

Und zu extern PCI Express, vermutlich wird dort einfach die Bandbreite zu gering sein.
Wobei das "ATi XGP" damals ja lief, da müssen sie mit einer speziellen Schnittstelle auch die nötige Bandbreite geschafft haben... .

Ich als Laie stelle mit das mit dem DVI Eingang am Notebook wohl zu einfach vor. Warum sollte ein Notebookdisplay anders funktionieren als ein normaler Monitor? Wobei das schon interessant ist:
heise.de/ct/meldung/PCI-Express-4-0-und-schnelle-externe-PCIe-Verbindungen-in-Arbeit-1268034.html .
Vielleicht kommt ja bald die externe Gaminglösung.

Und AMD würde damit wohl so oder so mehr verkaufen. Es ist ja auch nicht so, dass sich die Käufer dann jedes Jahr ein neues Gamingnotebook kaufen würden. Dann wird wohl eher mal die Grafiklösung aufgerüstet anstelle sich häufiger ein neues Notebook zu kaufen. Da die meisten Notebooks im Moment von Intel verkauft werden, würde AMD mehr Grafikaufrüstlösungen verkaufen und Intel weniger Notebooks. Ich sehe da jetzt kein wirkliches Problem für AMD... .
Ganz im Gegenteil, dies könnte ein entscheidender Punkt in Richtung mehr Umsatz und Marktanteil werden.


Intel Gamingnotebook mit ATI Lösung => 1.500 € , sagen wir mal 200 € Umsatz für AMD. (Wird wahrscheinlich schon zu viel sein)
AMD Mainstream Notebook 700 € + externe Grafiklösung 300 € => 1.000 € Umsatz für AMD. Der Umsatz könnte daher dort verfünfacht werden pro Gerät.
 
Zuletzt bearbeitet:
@PowerXPress 4.0
Intel Gamingnotebook mit ATI Lösung => 1.500 € , sagen wir mal 200 € Umsatz für AMD. (Wird wahrscheinlich schon zu viel sein)
AMD Mainstream Notebook 700 € + externe Grafiklösung 300 € => 1.000 € Umsatz für AMD. Der Umsatz könnte daher dort verfünfacht werden pro Gerät.
Seit wann bekommen Intel oder AMD bitte den kompletten Kaufpreis der Notebooks angerechnet?

Der Umsatz für das verkaufte Nb geht erstmal in die Bücher des OEM. Da wird AMD (oder aber halt Intel) längst Geld für die eigene Hardware gesehen haben und der Betrag liegt sicher nicht auf Höhe des Verkaufspreises vom Notebook. Da könnte AMD die Dinger ja gleich selbst vertreiben. ;)
 
Genau das ist der Punkt...
Ich kaufe kein Notebook von AMD sondern eines von HP, DELL oder Acer...
Und denen liegt mal überhaupt nicht daran dass ich möglichst lange Grafikkarten nachrüsten kann und andere davon profitieren, sondern die wollen Notebooks verkaufen.
Also selbst wenn AMD sowas anbieten würde, wäre es schwer einen OEM dafür zu begeistern... *noahnung*
Der Support wäre auch noch so ne Geschichte... Die "umschaltung" des externen signals müsste Treiberseitig irgendwie bewerkstelligt werden, dafür sind die Notebooks aber recht spezifisch... zudem seh ich den ersten Kunden rumjammern der eine Geforce ins externe Gehäuse schraubt und sich beschwert dass es nicht funktioniert mit der Umschaltung auf die interne Radeon... *noahnung*
Es gibt da verflucht viele Variablen, und der Nutzen sit eher beschränkt. Die paar Gamer...
ATI XGP war ein Experiment... aber auch da war die externe Anbindung zu schmal... damals war das nur noch nicht so tragisch...
Langfristig brauchen wir wohl einfach Grafikkarten mit sehr feingranularem Powermanagement und hoher effizienz...
 
Man muss allerdings sagen, dass auch die größeren Grafikkarten zwischenzeitlich im Idle-Bereich schon sparsamer geworden sind. AMD geht hoffentlich mit der nächsten Gk-Generation den - im Vergleich zu nVidia - zu hohen Verbrauch beim "Filme schauen" und "Multimonitorbetrieb" an. Wäre zumindest ein weiterer logischer Schritt in die richtige Richtung.
 
Ich dachte der hohe verbrauch der radeons dabei rührt in erster Linie vom Speicher her... war das nicht so?
Aber stimmt, die Punkte sollten angegangen werden... genau wie das Texturflimmern, das im Moment noch den perfekten AF versaut...
 
Ich dachte der hohe verbrauch der radeons dabei rührt in erster Linie vom Speicher her... war das nicht so?
Aber stimmt, die Punkte sollten angegangen werden... genau wie das Texturflimmern, das im Moment noch den perfekten AF versaut...
Naja, der Punkt ist doch: wenn der Konkurrent in der Lage ist Grafikkarten zu bauen, die nicht unnötig Saft verbraten, sollte man selbst es eigentlich auch hin bekommen.

Geht ja nicht, das man - damals zu Zeiten der HD5-Reihe - nVidia vorhält, sie würden nur Strom verschwenden, egal ob Idle, Teil- oder Voll-Last und jetzt im Grunde die gleichen Fehler macht.

Was die Quali-Einstellungen angeht; da bin ich auf die neue Serie gespannt, da sie dort ja das Design umgestellt haben. Vllt. haben sie das Problem auch gleich mit abgearbeitet. Zu hoffen wäre es ja, damit diese leidige Diskussionen in den Foren endlich aufhören...

Die Punkte halte ich auch für wesentlich wichtiger als 5W einsparen, in dem man die dicke Karte ausschaltet und auf iGP/APu-Grafik wechseln kann. Das ist bei Notebooks viel wichtiger und da scheint es ja seitens AMD jetzt auch voran zu gehen.
 
Ja, wobei um den Desktop zu rendern nun wirklich nicht unbedingt die dedizierte Graka anspringen müsste.... das könnte die evtl. vorhandene IGP auch....
Du hast allerdings dahingehend recht dass man Stromverschwendung nicht gutheißen sollte...
Wobei das natürlich eine Frage der Prioritäten ist...
 
Ja, wobei um den Desktop zu rendern nun wirklich nicht unbedingt die dedizierte Graka anspringen müsste.... das könnte die evtl. vorhandene IGP auch....
Ja, natürlich. Nur wie soll das Signal dann ausgegeben werden? In der Regel hast ja deine 1/2/3/x Monitore an der Grafikkarte hängen. Ergo müsste das Signal der iGPU/iGP/APU-Grafik erst zur Grafikkarte und dann zu den Monitoren. An irgendeiner Stelle wird auf der dedizierten Karte immer Strom benötigt. Da stellt sich halt die Frage, wie sinnvoll es ist, da in die Forschung Geld zu pumpen, um das Problem praktikabel zu lösen...

Der einfachere Weg dürfte da sein, den Idle- und Teillastverbrauch soweit zu senken, das man irgendwie auf das Niveau der integrierten Lösungen kommt...
 
Ja, natürlich. Nur wie soll das Signal dann ausgegeben werden? In der Regel hast ja deine 1/2/3/x Monitore an der Grafikkarte hängen. Ergo müsste das Signal der iGPU/iGP/APU-Grafik erst zur Grafikkarte und dann zu den Monitoren. An irgendeiner Stelle wird auf der dedizierten Karte immer Strom benötigt. Da stellt sich halt die Frage, wie sinnvoll es ist, da in die Forschung Geld zu pumpen, um das Problem praktikabel zu lösen...

Der einfachere Weg dürfte da sein, den Idle- und Teillastverbrauch soweit zu senken, das man irgendwie auf das Niveau der integrierten Lösungen kommt...

Na andersrum natürlich. Die Monitore hängen an der APU und das Bild wird bei Bedarf von der dedizierten Grafikkarte gerendert und dann an die APU übergeben. Ist doch bei NVidias Optimus nicht anders.
 
Na andersrum natürlich. Die Monitore hängen an der APU und das Bild wird bei Bedarf von der dedizierten Grafikkarte gerendert und dann an die APU übergeben. Ist doch bei NVidias Optimus nicht anders.

Sicher, was ist jedoch wenn man mehr als 2 Monitore braucht? (Sicher nicht der Normalfall, jedoch sicher eine Überlegung wert.)
 
Sicher, was ist jedoch wenn man mehr als 2 Monitore braucht? (Sicher nicht der Normalfall, jedoch sicher eine Überlegung wert.)
Naja, wenn die APU/IGP Eyefinity unterstützt, sollte das rein theoretisch auch kein Problem sein.

Ich muss aber gestehen, ich kenne nVidias Optimus gar nicht. Gehört ja, mehr aber auch nicht.:-[
 
Warum hat AMD diese technischen Lösungen noch nicht umgesetzt?

Hi, finde deine Überlegungen ja Klasse und ich hab mich die Frage auch schon gestellt. Es ist auffällig das AMD so gut wie gar nicht auf propietäre Lösungen setzt. Sei es bei Hardware oder Software. Überwiegend setzt man auf offene oder schon spezifizierte Industriestandards, teils auf Open Source. Nicht immer aber eben häufig. Ich bin da mittlerweile zu dem Schluss gekommen (rein persönliche Meinung) dass das Management von AMD die knappen Finanzmittel durchaus etwas risikofreudiger hätte investieren können. Die 1000 Millionen € (glaube soviel gab es doch mal von Intel Kartellstrafzahlung) kamen dann vielleicht ein bisschen zu spät.
Damit hätte man schon die eine oder andere propietäre Lösungen entwickeln können und letztenendes entscheidet ja der Endkunde und nicht ein OEM Abnehmer von AMD mit was Kasse gemacht wird. Leider - muss ich so sagen - orientiert sich AMD da nicht so sehr am Endkunden, ist daher auch nicht in defr Lage Lifestyle Produkte zu entwickeln - wie es Apple zum Beispiel macht..Die warten dann eben bis ein bestimmter Markt schon vorhanden ist und versuchen ein gutes Preis-/leistungsverhältniss anzubieten - was ja auch (End-) kundenfreundlich ist...Auf Dauer halte ich die Strategie für überdenkenswert. Aber man brauch eben auch die richtigen Leute die Trends frühzeitig erkennen, die notwendigen Ideen haben und ein Management dass solche Entwicklungen fördert - neben dem passenden Kleingeld.

MfG
 
Zuletzt bearbeitet:
Sicher, was ist jedoch wenn man mehr als 2 Monitore braucht? (Sicher nicht der Normalfall, jedoch sicher eine Überlegung wert.)

Das kann auch kein heutiger Laptop, die können alle nur 2 Monitore. Auch im Desktop gibt es bisher nichts anderes als die High-End AMD Eyefinity oder NVidias Mosaic SLi, was allerdings den sauteueren Quadros vorbehalten ist. Ich glaube nicht, dass diese Käuferschicht die ersten Kunden der APUs werden.

Mehr als 2 Monitore lassen sich immer noch über eine dedizierte Eyefinity Grafikkarte und einen Hardwaremuxer auf dem Mainboard realisieren, was natürlich anfangs aufgrund der höheren Kosten und des begrenzten Käuferkreises kein Hersteller bringen wird.
 
Hi

ich finde den titel sehr provozierend angelegt, die Frage genau betrachtet bringt von AMD seite rein garnichts. Warum mag man sowas haben wollen?
Zum Punkt starrlight Offene Standarts hat AMD jahrelang NV vorgeworfen sich nicht dran zu halten und ständig extra würste zu machen, wäre ein gesichtsverlust davon abzugehen. Aber es hat auch vorteile Offene Standarts zu nutzen.
So wie es Lynxeye ausführt sehe ich das auch in dem Kreis wird sowas nicht mal im 0, bereich zu umsätzzen führen.

lg
 
Hi

ich finde den titel sehr provozierend angelegt, die Frage genau betrachtet bringt von AMD seite rein garnichts. Warum mag man sowas haben wollen?
Zum Punkt starrlight Offene Standarts hat AMD jahrelang NV vorgeworfen sich nicht dran zu halten und ständig extra würste zu machen, wäre ein gesichtsverlust davon abzugehen. Aber es hat auch vorteile Offene Standarts zu nutzen.
So wie es Lynxeye ausführt sehe ich das auch in dem Kreis wird sowas nicht mal im 0, bereich zu umsätzzen führen.

lg

Hi..man kann ja auch zweigleisig fahren, also offene Standards und propietäre Lösungen. Das eine schließt das andere nicht aus..Propietäre Lösungen in erster Linie um als erstes am Markt zu sein oder Zusatzfunktionen anzubieten.. Computertechnik ist ein innovativer Markt mit steigenden Umsätzen, stetig steigender Kundenzahl und ständig neuen Produkten. Der Markt segmentiert sich in viele kleinere Bereiche mit fließendem Übergang, zwischen Handy, Netbook, Tablet, Laptop, Mediaboxen, TV Boxen, Hifi Bereich, Desktop, Grafikkarten,Web - Server, HPC, Thin Clients usw sehe ich durchaus noch Platz für eine geschickte Umsetzung externer Grafikkartenschnittstellen...Übrigens nicht nur beim Laptop..In paar Jahren könnte man an eine externe Grafikkartenbox das Handy anschließen und hätte seinen Daddelrechner ;-).Und diese Entwicklungen waren/sind heute absehbar, die ganze Ipod Fraktion könnte es kaum Erwarten ihre Gamimg Apps per HDMI Out am LCD zu spielen... Schaue ich mir AMDs Firmenentwicklung die letzten Jahre so an, dann konzentriert man sich eben eher auf die klassischen Märkte oder steigt erst sehr spät in neue Produktentwicklungen ein anstatt selbst neue Märkte zu schaffen.
 
Zuletzt bearbeitet:
Schaue ich mir AMDs Firmenentwicklung die letzten Jahre so an, dann konzentriert man sich eben eher auf die klassischen Märkte oder steigt erst sehr spät in neue Produktentwicklungen ein anstatt selbst neue Märkte zu schaffen.
Bliebe die Frage, wie viel finanziellen Spielraum AMD hat, um selbst neue Märkte zu schaffen auf die Gefahr hin, dass es floppt?!?
 
Das ist ein berechtigter Einwand vasu. Einen Flop kann sich AMD kaum leisten und insbesondere in der Zeit als man Neuentwicklungen hätte anstoßen müssen damit sie jetzt verfügbar sind war AMD finanziell sehr angespannt. Trotzdem hätte ich mir doch etwas mehr Innovation durch die Übernahme von ATI gewünscht. Ich will jetzt nicht rumnörgeln, da die Grafikkarten von AMD/ATI seit Jahren zum Besten am Markt zählen aber zumindest das Potenzial war aus meiner Sicht noch höher.
Damit mein ich zum einen die PowerXPress Funktion bei den Grafikkarten, oder auch eine zeitnahe Konkurrenz für Intels Atom und den Netbookmarkt wäre jetzt nicht so teuer in der Entwicklung gewesen...Eigentlich hätte man damit schon zu Zeiten des K8/Core2 Ära anfangen müssen im ULV X86 Bereich eine komplette Plattform anzubieten. Gewisse Entwicklungen müssen sich aus Sicht von AMD schon seit 2006 abgezeichnet haben und man hatte keinen Plan B..

MfG
 
... Dann habe ich noch eine zweite Idee wie AMD ein Alleinstellungsmerkmal auf dem Notebookmarkt bekommen könnte.

Stichwort "ATi XGP"
Eine externe Grafiklösung für Notebooks ist so simpel wie genial, warum hat AMD diese Idee fallen gelassen?
Die XGP Lösung hatte allerdings einen gravierenden Nachteil,
man brauchte immer einen externen Monitor.

Neue AMD Notebooks müssten daher einen DVI / Displayport Eingang haben.

AMD bräuchte dann noch eine sehr schnelle externe Schnittstelle, es bietet sich hier extern PCI Express oder 2 - 4 "Thunderbolt" Schnittstellen an.
Dann sollte man ein externes Gehäuse kaufen können indem man eine schnelle Grafikkarte einbauen könnte. ...
Ich habe lange überlegt, weswegen ich darauf antworten soll.

1.a. AMD arbeitet an einem PCI-Express 3.0 Interconnect für Steckerverbindungen. So gesehen schläft AMD nicht mit seinen Partnern.
1.b. XGP hat sich wohl als Sackgasse herausgestellt.
fujitsu_siemens_amilo_sa-3650_1.jpg

Zu speziell, zu proprietär und zu viel handische Treiberpflege ... anders kann ich mir das kurze Intermezzo mit Fujitsu Siemens Amilo Sa 3650 nicht erklären.

2. Meinst du das mit Thunderbolt ernst?

-> Seit dem K7 versucht AMD sich aus den Klauen von Intels Interconnect-Technik zu trennen. Mit dem K7 nutzte AMD ein DEC-Protokoll von den damals noch am Markt befindlichen Alpha-Prozessoren.
Mit dem K8 führte AMD den HyperTransportlink ein und übergab diesen Interconnect einem Konsortium, wo auch Apple, Sun, Cisco, Nvidia und manch anderer illustre Name geführt wird.
Es sieht aber schon länger so aus, dass der kleine x86-Riese zunehmend auf PCI-Express setzt - wird ja auch von allen ganz großen IT-Tieren (Intel, IBM, HP, AMD [...]) gepflegt und kooperativ in einem Konsortium weiterentwickelt.

1.a. + 2. -> Thunderbolt ist ein "No Go" für AMD. Akzeptierte Standards wie PCI-Express hingegen sind ein Weg. Light Peak klingt zwar interessant, aber da ist so viel Intel-IP verdongelt, dass sich AMD wieder in eine einseitige Abhängigkeit begibt.

MFG Bobo(2011)
 
Das ist letztlich auch der Grund warum AMD sehr an Standards hängt, sie bieten das geringste finanzielle Risiko.
Klar war abzusehen das früher oder später Mobile Grafiklösungen sehr interessant werden trotzdem musste sie das ganze für 68 Mio verkaufen, weil sonst wären Sie pleite gegangen.
Den Rest hat Bobo ganz gut zusammengefasst was die externe Grafik angeht.
 
Bobo_Oberon schrieb:
[....]1.a. AMD arbeitet an einem PCI-Express 3.0 Interconnect für Steckerverbindungen.[.....]

Genau. Danke für die Info

Vielleciht hätte AMD schon schneller taugliche propietäre Lösungen mit ATI alleine auf die Beine stellen können *, die dann entweder zum Standard werden, oder aber übernommen werden wenn der Standard sich etabliert. Ok aber du hast ja auch das Argument genannt, dass propietäre Lösungen teils sehr viel Aufwand darstellen..

Am Beispiel AMD 64 ist AMD früh eigene Wege gegangen und das hat sich doppelt gelohnt. Aber ansonsten halt auch nicht so einfach.. Es wäre halt mal wieder dringend Zeit für AMD ein "Knallerprodukt" auf den Markt zu bringen. ;) Denke Bulldozer ist eine gute Verbesserung bei den Prozessoren, aber auch wenn der Top wird denke ich sollte man sich mittelfristig wieder mit Innovationen breiter aufstellen..Sooo viel zu verlieren hat AMD nicht, und das ist weniger negativ gemeint als es sich vielleicht anhört ;.)

*Auch unter der Annahnme, dass zum Beispiel ein PCIe 1.0 8x schon ausgereicht hätte um bis ~ 2011/2012/2013 ~etc. Grafikkarten extern zu betreiben.

MfG
 
Zuletzt bearbeitet:
Zurück
Oben Unten