Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Leute mit Verantwortung und Weitblick. Ich kaufe nur von Firmen, die nicht gegen elementare Bedingungen des freien Wettbewerbes verstoßen. Und da gibt es derzeit wenige Alternativen zu AMD. Die jetzigen Alternativen sind einfach nicht leistungsfähig genug. Bei AMD bekomme ich nach wie vor Leistung satt für wenig Geld. Was interessiert mich da Intel? Ich werde nicht mal SSDs von Intel kaufen, obwohl die Samsung-SSDs teurer sind.

Das war nicht die Kernaussage meines Posts ;)

Es ging eher darum, wer kauft etwas, das er nicht kennt, bzw von dem er nicht weis, ob es überhaupt etwas taugt.
 
Schaffe doch genau das meintest du wohl als du Jaguar und Co gelibt hast und es wird Server mit SR oder Excavator geben, die siehst du nur noch nicht auf der Roadmap.

Lustig ist das mein A10-6700 mit System nicht mal auf 100W kommt und god damn die Vcore geht auch runter, man muss halt auch mal andere Boards testen und nicht nur immer alles glauben was einem die Bild so sagt. Nein ganz ehrlich das ist bei den APUs massiv davon abhängig(wie bei allen CPUS/APUS) welches Bining man erwischt hat und was für einen Unterbau man fährt.

Nur weil es Seite X mit ihrem Unterbau Z nicht schafft bedeutet es nicht das es nicht möglich wäre.

Im übrigen meine ich kein Streaming und Co, sehr nett das du meinst etwas anders deuten zu wollen. Ich meine zugemüllte Systeme, da wo Tonnen an Toolbars, Messengern, Gamegoodies und jedweder andere Dreck schön im Autostart ist und mit läuft und diese Systeme profitieren von der FX Architektur unserer Erfahrung nach.

HSA ist das beste was uns allen passieren kann, verstehen muss man es aber erstmal alleine. Übrigens Llano mit 65W auf 3Ghz gab es aus gutem Grund nie offiziell und nein UV zählt da nicht da nicht praktikabel und auch für niemanden von uns ernsthaft stable testbar. Ja da zahlt auch kein 24h Prime/OCCT oder was auch immer. Frag mal AMD an was für Stationen die ihre CPU/APU RMAs testen oder wie das definieren der TDP funktioniert. Von mir aus frag auch bei Intel, die Werte werden so festgelegt das Produkte und allen Umständen mit den spezifizierten Werten funktionieren und das auch unter Laborbedingungen.

Der TLB Bug war so ein Beispiel, in freier Wildbahn im Prizip nicht anzutreffen, im Labor. Trotzdem musste ein neues Stepping auch wenn ein recht seltener Fehler. Undervolting ist nett für den kleinen Nerd im privaten Bereich, aber nicht im normalen Verkaufsumfeld.

P.S Auch in den Zeiten in denen AMD die klar besseren und auch schnelleren CPUs hatte hat es ihnen kaum geholfen weil da ein blauer Schlumpf alles geschmiert hat bzw Vorteilsverträge ausgehandelt wie es jetzt in modern heist.
 
Complicated schrieb:
ROFL... Du hast wirklich nicht den Schimmer was hUMA ist.

Also ich denke FredD hat da grade nen äußerst differenzierten Kommentar dazu verfasst, ich bin davon überzeugt, dass diese Technologie einige Problemstellungen durch das Teilen des Adressraumes besser lösen kann, als das was wir aktuell haben.

Ich kann aber wirklich nicht verstehen wieso du das in dem Zusammenhang vollumfänglich als Lösung des Bandbreitenproblems darstellst, gegen so ungelegte Eier muss ich mich klar aussprechen und auf Nachfragen von mir wieso du das so siehst, kommt nichts, sondern nur " ich verstehe nichts", bitte änder doch mal deinen Diskussionsstyl.

Mir ist bewusst was diese Technologie ist und was sie ausmacht, aber niemand kann derzeit wirklich eine klare Aussage dazu treffen.

Klar ist allerdings dass dies keine Lösung für das Bandbreitenproblem ist, sondern für andere Probleme und selbst da kann ich es mir nur schwer vorstellen.

Stellen wir uns doch mal die Frage welche Daten von der CPU hin zur GPU und wieder zurückkopiert werden müssen. Ich bin kein Lisp Profi, genausoweig wie du, aber vielleicht gibt es hier jemanden der schonmalö etwas mit Spieleentwicklung zu tun hatte und uns sagen kann inwiefern man da Leistungsmäßig profitieren könnte und ich kann mir jetzt mit meinem Programmierverstand der über eine Informatiklehre nicht hinausgeht da nichts konkretes zusammenreimen, ich würde aber meinen, dass das eher für Spiele irrelevat ist, weil der Datenaustausch zwischen GPU und CPU eher minimal ist, da es eben festgelegte Dinge gibt, welche die CPU und welche die GPU berechnen soll.

Eventuell kann man ja durch Treiberanpassung, der CPU bestimmte Aufgaben abnehmen.

Ich meine zugemüllte Systeme, da wo Tonnen an Toolbars, Messengern, Gamegoodies und jedweder andere Dreck schön im Autostart ist und mit läuft und diese Systeme profitieren von der FX Architektur unserer Erfahrung nach.

Wie stellt man so etwas fest? Solche Erfahrungen können auch trügen, denn als allererstes leidet die Festplatte und nicht die CPU.
Welche CPU vergleichst du mit welcher? i3 mit FX6300? DAs sollte recht klar sein, dass der i3 bei einem zugemüllten System da das Nachsehen hat.

HSA ist das beste was uns allen passieren kann, verstehen muss man es aber erstmal alleine. Übrigens Llano mit 65W auf 3Ghz gab es aus gutem Grund nie offiziell und nein UV zählt da nicht da nicht praktikabel und auch für niemanden von uns ernsthaft stable testbar. Ja da zahlt auch kein 24h Prime/OCCT oder was auch immer. Frag mal AMD an was für Stationen die ihre CPU/APU RMAs testen oder wie das definieren der TDP funktioniert. Von mir aus frag auch bei Intel, die Werte werden so festgelegt das Produkte und allen Umständen mit den spezifizierten Werten funktionieren und das auch unter Laborbedingungen.

Natürlich ist das alles so richtig. Man kann als Privater nicht eben in die TDP Entscheidungen der Hersteller blicken. Und selbst wenn du der Meinung bist das Argument des undervoltens ist belanglos, gut, dann bist du der Meinung.
Ich sehe es nach wie vor als großen Fehler bei den Apu´s Llano nicht weiterntwickelt zu haben und sich die Ressourcen etwa für Kaveri nicht aufgespart zu haben. Trinity ist weder effizienter noch schneller als ein A8 3870, ein A10 mit 4x3,3ghz + leicht aufgeborhter, vll auch hochgetakteter IGP wäre sicherlich genauso "gut" gewesen, innerhalb der TDP von 100 Watt. Das habe ich beim meinem Cousin alles so eingestellt und das für lediglich 69 für die APU gezahlt.
 
Zuletzt bearbeitet:
Ähm....mein A8-3850 war schon recht nah an der TDP Grenze dran, wobei die CPU der primäre Energiefresser war und dann willst du dessen Takt auch noch relativ deutlich steigern und innerhalb der TDP bleiben?
Die ganze Sache hätte zudem auch noch einen recht deutlichen Haken gehabt. Man müßte Zeit und Geld in die Entwicklung von 2 CPU Architekturen pumpen, was ziemlich sinnfrei erscheint wenn beide Architekturen selbst ohne FMA und AVX eine ähnliche Rechenleistung innerhalb der TDP liefern.
Das wäre schlicht eine sinnlose Geld Verschwendung.

Und nein, ein FX6300 ist nicht automatisch schneller als ein i3. Er wird es erst bei entsprechender Nutzung der Kerne, also Multithreading. Der einfachste Weg diese zu nutzen ist viele Programme gleichzeitig laufen zu lassen, damit sich diese Programme auf die Kerne verteilen können.
 
Sompe schrieb:
Ähm....mein A8-3850 war schon recht nah an der TDP Grenze dran, wobei die CPU der primäre Energiefresser war und dann willst du dessen Takt auch noch relativ deutlich steigern und innerhalb der TDP bleiben?

Wieso recht deutlich? Das war er doch nur wegen der utopische Spannung. Ein paar 100 megahertz hätten bereits gereicht um Trinity aus einem Mix von Spielen und Anwendungen zu schlagen oder gleichauf zu sein, sogar bei um 0,1 Volt gesenkter Spannung.

Ich kapier halt nicht wieso Bulldozer so verteidigt wird, bisher hat AMD damit nur Marktanteile verloren und wird es meiner Ansicht auch weiter tun, wenn man die Verträöge mit Globaldounries nicht ändert und das Design weiterverfolgt.
Nur der Schritt ist aktuell zu spät, den hätte man schon 2011 gehen müssen und sich abseits vom leicht verbesserten Phenom und Llano auf HSA konzentrieren sollen, jetzt rollt man auf eine Pleite zu, die nicht mehr zu verhindern sein wird, außer Kaveri reißt es raus, was ich nicht denke bei den ganzen Verschiebungen.

Man müßte Zeit und Geld in die Entwicklung von 2 CPU Architekturen pumpen,

Ein geshrinkter Phenom II mit den Llano Verbesserungen, wäre jetzt sicherlich nicht soviel Aufwand gewesen.

Und nein, ein FX6300 ist nicht automatisch schneller als ein i3.

Sagt ja keiner.
 
Zuletzt bearbeitet:
@Schaffe89, warum hat jetzt letzendlich AMD bei den beiden größten Konsolenherstellern gewonnen und nicht Intel? -Obwohl lt. Deiner Aussage Intel doch bei der Grafikperformance mittlerweile aufgeholt hat? -Und AMD sowieso bald weg ist lt. Deiner Aussage -Auf diese Antwort warte ich noch.

-WARUM nimmst Du eigentlich einen Accountnamen, "Schaffe89", der schon in anderen Foren längs vergeben ist, -aber im Gegensatz zu Dir wenigstens sachlich diskutiert? -Und ausgerechnet pro AMD...?!?
Hier mal ein Beitrag von den "echten" @Schaffe89, komischerweise spricht er das Gegenteil von deinen Aussagen, und deutlich vor Dir angemeldet ist in diesen Forum sowieso, -wie billig ist das denn?
http://www.hardwareluxx.de/communit...hr-2014-verschoben-970441-2.html#post20942737
 
@Schaffe89
Fütter die Bulldozer Architektur mit dem Code der ihr und Intels Haswell schmeckt und er rennt der K10 Architektur gnadenlos davon. Willst du dem Llano eine bessere GPU Leistung wie dem Trinity verpassen dann musst du sie recht massiv übertakten.

Natürlich liegt der Verbrauch in erster Linie an der Spannung denn das sagt einem schon die Physik.
Selbst meiner lief auf 1,25V statt der 1,4125V Standard Spannung aber es geht schließlich um die Standard Vorgabe für die der Hersteller einstehen muss. Der A8-3870K konnte die TDP offenbar auch erst mit einer Absenkung der Standard Spannung einhalten, denn diese lag dort offenbar bei nur noch bei 1,375V.
http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index7.php
Jetzt willst du nochmal 300MHz drauf packen und wo landen wir dann? Bei 1,3V? Wie stark dürfte das auf die Ausbeute und damit auf die Wirtschaftlichkeit gehen und was bringt es ihm wenn FMA und AVX ins Spiel kommen?
Einem Llano einen L3 zu verpassen um auf deinen "geshrinkter Phenom II mit den Llano Verbesserungen" wär wohl ziemlicher Blödsinn weil der L3 Platz benötigt und den Kern zusätzlich sehr deutlich aufblasen würde. Die Transistoren sind bei der GPU besser angelegt. Siehe Phenom 2 X4 vs. Athlon 2 X4.

Fassen wir es zusammen.....nach deinem Wunsch wäre der Chip deutlich größer, hätte aufgrund der gesenkten Spannung und der gesteigerten Taktfrequenz vermutlich eine deutlich schlechtere Ausbeute, geht dennoch unter sobald AVX, FMA 3/4 oder AES ins Spiel kommen und die Produktpflege einer weiteren Architektur kostet auch noch zusätzlich Geld.
 
-WARUM nimmst Du eigentlich einen Accountnamen, "Schaffe89", der schon in anderen Foren längs vergeben ist, -aber im Gegensatz zu Dir wenigstens sachlich diskutiert? -Und ausgerechnet pro AMD...?!?
Hier mal ein Beitrag von den "echten" @Schaffe89, komischerweise spricht er das Gegenteil von deinen Aussagen, und deutlich vor Dir angemeldet ist in diesen Forum sowieso, -wie billig ist das denn?
http://www.hardwareluxx.de/communit...hr-2014-verschoben-970441-2.html#post20942737

Du wirst lachen, aber es ist der "echte" Schaffe. Vor ein Paar wochen kam er auf die Idee, wie toll doch ein K10 war und wie viel besser ein aufgemotzter K10 anstelle von BD gewesen wäre.

Aber auch auf die Frage, was man sich denn für Vorteile dadurch erkauft hätte, konnte er nichts vernünftiges sagen.
 
Zuletzt bearbeitet:
unl34shed schrieb:
Du wirst lachen, aber es ist der "echte" Schaffe.

Ja und die Aussagen dort waren falsch, weil die Leistung massiv durch die 35 Watt TDp limitiert wird und die APU nicht den Turbo halten kann, zudem misst CB mit DDR3 2400.

Amando schrieb:
warum hat jetzt letzendlich AMD bei den beiden größten Konsolenherstellern gewonnen und nicht Intel?

Das habe ich doch schon beatwortet, vor allem weils günstig war und eine Lösung aus einer Hand.

-Obwohl lt. Deiner Aussage Intel doch bei der Grafikperformance mittlerweile aufgeholt hat?

Also da muss ich jetzt schon etwas schmunzeln, diese Aussage habe ich im Vergleich zu Kabini getätigt, nicht zum PS4 oder Xbox SoC . Da drehst du wieder einen Strick.

-Und AMD sowieso bald weg ist lt.

Wieso sollte AMD nicht Probleme haben, wenn Kaveri nicht einschlägt und sie weiterhin Strafzahlungen an Globalfoundries in großem Umfang zahlen müssen?
Man muss ja nicht immer alles restlos positiv sehen, das habe ich vielleicht früher auch so gemacht, weil mir die Firma am Herzen liegt.

Amando schrieb:
WARUM nimmst Du eigentlich einen Accountnamen, "Schaffe89", der schon in anderen Foren längs vergeben ist, -aber im Gegensatz zu Dir wenigstens sachlich diskutiert? -Und ausgerechnet pro AMD...?!?

Ich bin schon genug pro AMD, da kann man auch mal kritische Worte zur Entwicklung sagen, die einigen scheinbar gegen die Nieren gehen.

komischerweise spricht er das Gegenteil von deinen Aussagen,

Na so schwarz weiß wollen wir es jetzt nicht halten. DAs balnke Gegenteil spricht der nicht.
Aus 30% Vorsprung von Haswell HD 5200 wurden eben 50%, welche eben eher stimmen.

sompe schrieb:
Jetzt willst du nochmal 300MHz drauf packen und wo landen wir dann? Bei 1,3V? Wie stark dürfte das auf die Ausbeute und damit auf die Wirtschaftlichkeit gehen und was bringt es ihm wenn FMA und AVX ins Spiel kommen?

Die Ausbeute steigt doch mit der Zeit immer weiter an, auch bei Trinity/Richland, der Prozess verbessert sich. Das gleiche Spiel hatten wir mit dem Phenom II in 45nm, deer ging zu Beginn auch nur auf 3,5 bis 3,7 ghz, später bis 4,2 ghz.

Und dass Llano aufgrund des vergrößerten L2 Caches so langsam taktete, ist erstmal lediglich eine Vermutung, fakt ist, Llano ist heute mit weniger Spannung nicht ineffizienter als seine Nachfolger und Spannung lässt sich mit einem besser werdenden Prozess immer weiter senken.

Fassen wir es zusammen.....nach deinem Wunsch wäre der Chip deutlich größer, hätte aufgrund der gesenkten Spannung und der gesteigerten Taktfrequenz vermutlich eine deutlich schlechtere Ausbeute, geht dennoch unter sobald AVX, FMA 3/4 oder AES ins Spiel kommen und die Produktpflege einer weiteren Architektur kostet auch noch zusätzlich Geld.

Also ich bin der Meinung das ihr das viel zu negativ seht. Die Befehlserweiterungen sind alle außer AES aktuell völlig bedeutunglos.
Bulldozer ist groß, ein Phenom II x6 mit Llano Speedups wäre kleiner als der Bulldozer, multithreaded flotter und auch Singlethreaded vermutlich schneller, selbst Thuban war da noch flotter.

wär wohl ziemlicher Blödsinn weil der L3 Platz benötigt und den Kern zusätzlich sehr deutlich aufblasen würde.

Der Bulldozer hat doch auch viel L3 Cache, bläst den Chip auch auf, ich weiß nicht warum du das so negativ behaftet siehst. Bulldozer ist doch das hirnrissige Experiment.
Ich bin mir sicher dass ein Teil der Entwickler da schon lange ganz phöse Vorahnungen hatte und das Projekt stoppen wollte.

die Produktpflege einer weiteren Architektur kostet auch noch zusätzlich Geld.

Weißt du was wirklich Geld kostete? Die Strafzahlungen an Globalfoundries wegen des geringen Absatzes und die Tatsache, dass keiner Bulldozer haben wollte und die Phenom II X6 kaufte und noch heute gibt es mehr Sympathien einen Phenom II x4 für 70 Euro zu kaufen, als einen FX-4300, den kauft niemand, es gibt grade mal 140 verkaufte Exemplare bei MIndfactory, während der Phenom II 965Be fast 20000 mal verkauft wurde, selbst der FX-4100 schafft noch 4600 Stück.

Ich konnte meinen Phenom II X6 für 130 Euro verkaufen, obwohl er vor 2 JAhren im Einkauf 127 gekostet hat, die sind halt einfach beliebt.

Aber auch auf die Frage, was man sich denn für Vorteile dadurch erkauft hätte, konnte er nichts vernünftiges sagen.

Achso, ja da gibts ja gar keine Argumente für.
Die Threads zum damaligen Bulldozer Test sind voll damit, AMD erleidet einen Imageschaden, aufgrund der katastrophalen Werbung die geschaltet wurde, teilweise mit gefälschten Dokumenten und aberwitzigen Tests im GPU Limit.
Da gibts eine ganze Reihe von Vorteilen, ein Thuban @ 3,6ghz, NB @ 2,5 ghz ist problemlos möglich, billiger als das Bulldozer Debakel und der Shrink davon wäre noch besser und hätte AMD wahrscheinlich keine Strafzahlungen gekostet.

Mit den 320 Millionen Strafzahlungen hätte man noch lang entwickeln können, vielleicht an einem enhanced K10 weiterhin in 32nm, oder eben mit einem per Hand entwickelten Bulldozer auf Steamrollerbasis uind dann den Schritt auf Kaveri und HSA gehen, denn zuvor braucht eh keiner die Befehlssätze, es wird doch außer AES eh nichts verwendet und selbst das wird kaum gebencht.
 
Zuletzt bearbeitet:
Zitat:
Fassen wir es zusammen.....nach deinem Wunsch wäre der Chip deutlich größer, hätte aufgrund der gesenkten Spannung und der gesteigerten Taktfrequenz vermutlich eine deutlich schlechtere Ausbeute, geht dennoch unter sobald AVX, FMA 3/4 oder AES ins Spiel kommen und die Produktpflege einer weiteren Architektur kostet auch noch zusätzlich Geld.
Also ich bin der Meinung das ihr das viel zu negativ seht. Die Befehlserweiterungen sind alle außer AES aktuell völlig bedeutunglos.
Bulldozer ist groß, ein Phenom II x6 mit Llano Speedups wäre kleiner als der Bulldozer, multithreaded flotter und auch Singlethreaded vermutlich schneller, selbst Thuban war da noch flotter.

So ganz stimmt das nicht, mein Videoschnitt-Programm bekam mit dem Haswell-Launch ein wunderbares AVX2 Update .. und einige Pack-Algorithmen unterstützen schon OpenCL. Jedoch auch erst als der große blaue Schlumpf das hinbekommen hatte.
Das AMD einen modernen Befehlssatz nicht integriert, geht m.M nach nicht mehr. Sieht man sich das SSE4 Desaster an. Viele Benchmarks und Programme wurden auf ein Feature optimiert, was die aktuelle AMD-Generation gar nicht beherrschte. So etwas darf nicht wieder passieren.
Zudem gehe ich definitiv nicht mit: wenn es heißt, man hätte K10 noch mehr ausquetschen sollen.

Gruß
 
@Schaffe
AMD hat den K10 nach Llano nicht weiterentwickelt, fertig. Darauf jetzt rumzureiten und ein "könnte-wönnte-schönnte"-Spiel damit zu treiben, was gewesen wäre, bringt irgendwie nichts oder?
Warum wird hier eigentlich immer wieder auf diesem Unsinn rumgeritten? Das ist doch wirklich oft genug diskutiert und absolut nicht mehr interessant aktuell, oder?
Llano war zumindest nicht leistungsfähiger als Trinity bei gleicher Fertigung, war aber bei den Optimierungen schon das Ende der Fahnenstange. Also was hätte man machen sollen? Den K10 zu Tode tunen....? Da ist es doch besser, neue Wege zu gehen. Ich glaube nach wie vor, dass der 45nm ULK für reine CPUs bessere Werte geliefert hat, als es der verbockte 32nm aktuell tut. Aber das liegt möglicherweise auch daran, dass der 32nm von Anfang an auf APUs ausgelegt wurde, während der 45nm ULK ein spezieller Prozess für CPUs war.

Zur weiteren Entwicklung:
Was Kaveri bringt ist primär HSA und GCN. Die Steamroller-Kerne sind zwar nicht unwichtig, aber für Kaveri nur ein kleiner Teil der Rechnung.
mMn am interessantesten wird wohl die Möglichkeit sein, das Ding auf eine PCI-Express Karte zu schnallen und als Beschleuniger zu nutzen. (Mal sehen ob das kommt).
 
Zuletzt bearbeitet:
Ich gehe immer vom preislichen Gegner aus, das ist mal ein i3 oder ein kleiner i5. Je nachdem halt und natürlich kann man das nicht messen, aber eben fühlen und Gefühle zählen da auch :)
 
AMD sagt doch immer das Sie auf HSA und hUMA setzten,warum also Geld in Entwicklung von fetten CPU-Kernen stecken.
 
AMD kann sich weder Ingeniere noch Geld aus Buchenholz schnitzen.Warum also Intel auf ihrem Weg zum idealen CPU-Kern folgen.
 
Naja, HSA und hUMA bringt die iGPU effizienter ins Spiel. Aber die beschleunigt halt auch nur was jenseits von Integer-Berechnungen. Also herzlich wenig für z.B. Datenbank-Server oder den Programmablauf im allgemeinen.
MfG
 
Was heisst arbeiten,der Kampf gegen INTEL ist ungefähr so als wenn Papa Schlumpf(Solo) gegen die Muppets Show antritt.
 
AMD sagt doch immer das Sie auf HSA und hUMA setzten,warum also Geld in Entwicklung von fetten CPU-Kernen stecken.
Weil Bulldozer/Piledriver noch einiges an (Nachhol-)Potenzial hat? Weil ihre Design Flow Tools mittlerweile ein gutes Stück weiter entwickelt sind? Weil sich Jim Keller sonst ganz schön langweilen würde! ;)
 
Der Markt verändert sich. Aber wohin? Welche Produkte werden in welcher Menge mit welcher Gewinnspanne gebraucht?

Im Server Markt hieß es: so schnell wie möglich, alles andere egal.

Jetzt reichen für die meisten Arbeiten ein Laptop.

Im Privatbereich reicht ein Smartphone oder Tablet für Internet und soziale Netzwerke.

Für anspruchsvollere Aufgaben reicht oft ein Desktop mit APU.

Nur wenige benötigen noch Hochleistungsrechner.

es gibt weltweit immer mehr gamer die viel leistung für ihre games wollen. das ist der markt für amd.
intel und amd werden bald an der grenze der cpu,s sein.
dann werden die spiele auch nicht mehr so krass weiter entwickelt sein, und die cpu verkäufe stagnieren dann noch stärker als heute schon.

wir können nur hoffen das sie keine obseleszenz einführen damit sie ihre produkte regelmäßig loswerden. ich sehe eine riesen stagnation in der leistung in 5 jahren.
 
es gibt weltweit immer mehr gamer die viel leistung für ihre games wollen. das ist der markt für amd.
Das reicht nicht.
Nur wenige Gamer sind in der Lage viel auszugeben. Entsprechend sind die Gewinnmargen gering. Sieht man ja an den Konsolen.
Da liegt eher noch viel Potenzial im Industriebereich, wo Bildverarbeitungseinheiten benötigt werden, im Sicherheitsbereich, intelligente Kameras, Fahrerassistenzsysteme, autonome Fahrzeuge, Drohnen.
Die GPU in der APU eignet sich nicht nur für Bilderzeugung sondern auch hervorragend zur Bildverarbeitung.
Zudem redet AMD von Suround Computing. Vielleicht haben wir ja in ein paar Jahren anstelle von Tapeten raumfüllende Bildschirme. Aufwachen in einer Südseeidylle, Kaffe mit Blick von der Zugspitze...
Noch viel Potential abseits von Games. Wenn sich AMD nur auf Gaming konzentriert, schrumpfen sie in ein paar Jahren zu einer kleinen Klitsche die kein Potential mehr für Innovationen hat.
 
Zudem redet AMD von Suround Computing. Vielleicht haben wir ja in ein paar Jahren anstelle von Tapeten raumfüllende Bildschirme. Aufwachen in einer Südseeidylle, Kaffe mit Blick von der Zugspitze...
Noch viel Potential abseits von Games.
Die "Video-Wand" wurde übrigens im dystopischen Sci-Fi Roman "Fahrenheit 451" (Roy Bradbury, 1953) thematisiert (neben Robo-Hunden mit Giftstachel-Biss).
 
Zurück
Oben Unten