FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
Worauf ich hinaus will ist einfach... Diese Tatsache die du da beschreibst, gepaart mit dem Marktanteil belegt wiedereinmal die Perversion der IT-Branche, dass nicht das technisch bessere sich auf breiter front durchsetzt sondern das was durch Marktmanipulation gepusht wird.
Es gibt nichts, aber auch gar 0 was eine Intel IGP besser kann als die IGPs von NV oder ATI.
Doch da gibt es etwas, sie ist dabei, man spart sich eine dedizierte GPU ;) Thats it.
Und dennoch hat eben jenes zweitklassige GPU-Produkt den höchsten Marktanteil... und zwar weil es 1. per Rabatte durch Bundles etc. in den Markt gedrückt und 2. durch Ausschluss der Konkurrenz von der Plattform abgesichert wurde... und 3. durch schiere Dominanz auf einem anderen Sektor (CPUs) gestützt.
Nein, was? Es gibt keine Intel Notebooks mit NV oder ATI Graka :o
Alleine diese Tatsache führt sämtliche FTC-Untersuchungen und das ganze geseiere ad absurdum, hemmt den Fortschritt an der Grafikfront und verzerrt den Markt.
Worauf du dich da beziehst ein eine kleine Passage (Atom und 1xPCIE), nicht aber das Hauptproblem. Sieh das doch endlich mal ein.
Das Notebook mit Zusatzgraka ist ja schön und gut. hat aber auch einen zusätzlichen Stromfresser an bord, oftmals ZUR IGP DAZU! (Siehe Apples Core i 3)
Und Warum das Ganze? - Weil intel pro Quartal immernoch nicht genug milliarden verdient?
Richtig! Und weils Kohle gibt macht AMD das mit Fusion zukünftig auch!
Und weile so schön ist muss ich mir, um eine potente IGP zu bekommen eine lahme CPU dazun ehmen. Bei Intel ist es genau andersrum ;D
[dieser Satz ist leicht ins extreme abgerutscht, kommentare dazu ignoriere ich bewußt! ;)]
Und dann muss man sich noch alle Naselang anhören wie Toll die Firma doch ist, und dass was den Intel-Schriftzug rägt ja automatisch gut sein muss... :]
Wenn das Gut ist, ungestraft eine ganze Branche an der Nase herumzuführen, preise und Erfolg von Technologien zu diktieren und die Konkurrenz, sogar in Zeiten wo diese technisch besser ist, mit unlauteren Mitteln am Markt zu hemmen... nunja *noahnung*
Meine Ansicht nach hätten sie mind. 10 Mrd. abdrücken sollen von der EU...
Sowas muss richtig wehtun, sonst ändert sich nie was...
Aber wie auch immer, hat ja ohnehin keinen Zweck und ist außerdem OffTopic.
Ich verkneife mir einfach zukünftig meine bissigen Kommentare zu dem was Intel als IGP bezeichnet und alles ist gut. :-*
gähn. wir wissen das du mit Intel beleidgte Leberwurst spielst. da nervt langsam. => OT
 
Zuletzt bearbeitet:
@Markus
Der Unterschied ist folgender:
- Eine APU ist eine vollständige GPU, die dir freundlicherweise noch eine x86-CPU mitliefert (oder umgekehrt)
- Eine IGP aus dem blauen Häuschen, ist eine GPU die zwingend eine CPU dafür braucht (on Die oder nicht, egal) um ihre eigene GPU-Arbeit zu erledigen. Diese IGP lebt also davon dass die CPU potent genug ist, bzw. potenter als die IGP selbst um ihr beim "Beschleunigen" zu helfen....

Wo Du einen Unterschied siehst sehe ich die Gemeinsamkeiten. Das Fusionskonzept, so wie ich es verstanden habe, soll die "Arbeit" aufteilen und genau in den Einheiten ausführen die das am effizientesten können.

Nichts anderes macht Intel. Ob Funktionen von der CPU übernommen werden weil sie diese besonders effektiv beherscht oder weil die GPU sie besonders ineffektiv oder gar nicht beherscht ist dabei für mich vollkommen unintressant.
 
Wo Du einen Unterschied siehst sehe ich die Gemeinsamkeiten. Das Fusionskonzept, so wie ich es verstanden habe, soll die "Arbeit" aufteilen und genau in den Einheiten ausführen die das am effizientesten können.

Nichts anderes macht Intel. Ob Funktionen von der CPU übernommen werden weil sie diese besonders effektiv beherscht oder weil die GPU sie besonders ineffektiv oder gar nicht beherscht ist dabei für mich vollkommen unintressant.

Der Unterschied ist der das bei AMD je nach Code GPU oder CPU diesen ausführt, bei Intel kann die GPU nicht alles dann muss die CPU diese Code (langsam) ausführen, obwohl dies bei richtiger Implementierung die GPU leisten können sollte.

AMD: Arbeit für GPU -> GPU arbeitet
!=
Intel: Arbeit für GPU -> GPU kann nicht! -> CPU arbeite mal für mich -> CPU arbeitet

Das dürfe Speicherplatz und deutlich Zeit kosten, die Daten hin und her zuschieben. Aber Intel kann sich so was (bisher) leisten.
 
Der Unterschied ist der das bei AMD je nach Code GPU oder CPU diesen ausführt, bei Intel kann die GPU nicht alles dann muss die CPU diese Code (langsam) ausführen, obwohl dies bei richtiger Implementierung die GPU leisten können sollte.

Du hast nicht verstanden was Fusion bedeutet. Die Ausführung ist nicht mehr da wo sie sein sollte sondern da wo sie effektiver ist.

Das dürfe Speicherplatz und deutlich Zeit kosten, die Daten hin und her zuschieben. Aber Intel kann sich so was (bisher) leisten.

Da sind wir wieder beim eigentlichen und unbestreitbaren Punkt: Intels Lösung ist so oder so schnarchlangsam.

Ob das ins Gewicht fällt würde ich lieber am Anwendungszweck festmachen. Immerhin habe ich schon zu Zeiten der ET4000 am PC gerarbeitet und konnte Windows flüssig bedienen.
 
Du hast nicht verstanden was Fusion bedeutet. Die Ausführung ist nicht mehr da wo sie sein sollte sondern da wo sie effektiver ist.

Das habe ich doch auch so gemeint, da wo sie schneller ausgeführt werden kann wird sie ausgeführt. Ich wollte damit sagen das die Intel GPU aufgaben bekommt, die sie dann doch per CPU macht lässt. Wenn nicht der Compiler schon extra für Intel IPGs gleich die Aufgaben der CPU zu weist.

Da sind wir wieder beim eigentlichen und unbestreitbaren Punkt: Intels Lösung ist so oder so schnarchlangsam.

Ob das ins Gewicht fällt würde ich lieber am Anwendungszweck festmachen. Immerhin habe ich schon zu Zeiten der ET4000 am PC gerarbeitet und konnte Windows flüssig bedienen.

Wenn das GPGPU Konzept aber wirklich (sinnvoll) umgesetzt wird, reicht ein "es läuft die Windows GUI" aber nicht mehr.
Dann wird automatisch AMD die bessere Wahl sein, da das gesamt Paket besser ist. Die aktuellen NB mit AMD CPU und IGP sind auch schon besser, in meinen Augen. Klar sind die CPUs i5/i7 Spitze, aber die IPG ist ebenso Miserabel. AMD bietet gute CPU mit guter IPG. Noch ist halt der GPU-Part relativ unbedeutend, sodass Intel attraktiver für die meisten ist.

Bis Intel mit ati/nv mithalten kann werden noch viele Jahre Vergehen. Intels Larrabee Projekt wird auch in gen. 2 nicht Ansatz weise mithalten können. Erst wenn sie anfangen nicht mehr alles per Software zu emulieren und endlich gewisse Dinge in als Hardware umsetzen ist Larrabee ernst zu nehmen. Da die IPG (teilweise) vom Larrabee abhängig ist wird es wohl dort genauso lange dauern.
 
Unveiling the Innovation of “Bobcat” and “Bulldozer”

Chekib Akrout schrieb:
At Hot Chips from August 22 – 24 at Stanford University, my colleagues Mike Butler and Brad Burgess will be discussing the essential features of the two advanced cores, while also disclosing the different power management techniques so essential to our customers. Bulldozer brings a new approach to multi-threaded processing; balancing shared and dedicated processing elements for maximum throughput while minimizing power consumption. Bobcat is a very small, out-of-order execution engine, making it very low power, yet highly capable.
 
Hoppla, sieht ganz danach aus, dass Intels Atom auch vom Umstieg von 45nm auf 32nm kaum Fortschritte zu machen scheint:

Kaum höhere Takte und kaum weniger Energieverbrauch (lediglich ein kleineres Die):

"...Die Taktraten sollen mit 1,8 und 1,86 GHz am oberen Ende der aktuellen „Atom Z600“-Serie auf Basis des „Moorestown“ liegen,..
... Zu Protokoll gab man lediglich, dass der Nachfolger eine höhere Leistung, ein deutlich kleineres Package und eben eine geringere bis gleichbleibende Stromaufnahme bieten soll..."

(aus: http://www.computerbase.de/news/hardware/prozessoren/intel/2010/august/details_moorestown-nachfolger_medfield/)

Dann könnte Ontario dem Atom wahrlich sehr gefährlich werden, ist der doch zudem noch in 40nm ganz ohne HKMG...und ist von diesem bald gar eine 28nm-HKMG-Version zu erwarten.
 
@ BavarianRealist

So wie ich Intel bisher mit dem Atom ein schätze versuchen die diesen SmartPhone & Co Tauglich zu bekommen. Also die Shrinks hauptsächlich zum Stromsparen zu nutzen, bei etwa gleich bleibender Leistung bzw. Integration von Peripherie etc.

Aber ich sehe das als sehr Problematisch der Atom wird dann von oben durch AMDs Bobcat und von unten von ARM kannibalisiert.

Die Meldung stützt meine These:
Der Atom wird nicht wirklich Leistungsfähiger und der Strom verbrauch sinkt (laut der Meldung zwar wenig) das scheint dann evt. auf Technische Probleme zurück zu führen zu sein.
Jetzt waren aber schon die schnellsten ARM Designs schneller als der Atom, da kann man sich ausmalen das Atom mittelfristig bis langfristig in dieser Forum/Evolution nicht bestand haben wird. Die viele Features die x86 auf die Sprünge helfen, besitzt ein Atom ja nicht.
 
wenn Intel mit dem atom nicht mehr zufrieden ist, dann wird halt eine neue Architektur entwickelt, die sind ja nicht dumm, selbst wenn AMD 1 Jahr die bessere Leistung in dem Segment abliefert, Intel hat mehr Absatz als alle zusammen, evtl. gibt es eine Low End Version von Ivy Bridge in 22nm als ATOM Nachfolger
 
Zuletzt bearbeitet:
wenn Intel mit dem atom nicht mehr zufrieden ist, dann wird halt eine neue Architektur entwickelt, die sind ja nicht dumm, selbst wenn AMD 1 Jahr die bessere Leistung in dem Segment abliefert, Intel hat mehr Absatz als alle zusammen, evtl. gibt es eine Low End Version von Ivy Bridge in 22nm als ATOM Nachfolger

Nur dumm das eine neue Architektur >=5 Jahre braucht, bis sie Markt reif ist.
 
Aber Reduktion von 2 auf einen [SystemOn]Chip.
Ich bin gespannt wie Ontario sich im Vergleich darstellt.

Inwiefern beide SoC sind, ist bis heute wohl nicht so richtig geklärt.
Interessant ist die Aussage, dass die GPU von Medfield "up to 4x graphics performance" (allerdings mit "**"!) liefern soll. Interessant ist vor allem, was von den "up to 4x" im Durchschnitt wirklich real übrig bleibt.
 
Nur dumm das eine neue Architektur >=5 Jahre braucht, bis sie Markt reif ist.
Jup. Mal abgesehen von konkreten Jahreszahlen, jede Mikroarchitektur braucht ihre Zeit. Nur weil Intel 10000 statt 1000 Entwickler beschäftigt, heisst das nicht, dass sie statt der 5 Jahre nur noch 0,5 Jahre brauchen. Du kannst mit 9 Frauen ein Kind ja auch nicht innerhalb eines Monats bekommen.
 
Jup. Mal abgesehen von konkreten Jahreszahlen, jede Mikroarchitektur braucht ihre Zeit. Nur weil Intel 10000 statt 1000 Entwickler beschäftigt, heisst das nicht, dass sie statt der 5 Jahre nur noch 0,5 Jahre brauchen. Du kannst mit 9 Frauen ein Kind ja auch nicht innerhalb eines Monats bekommen.

der vergleich ist zimlich daneben.

und 10000 Ingenieure sind sehr wohl schneller als 1000. den jede architektur hängt auch von den idee der mitarbeiter ab udn je mehr du hast, deste merh idee hast du auch. es verkürzt sich zwar nicht um den faktor 10 aber 2-3 mal schneller ist es.
 
der vergleich ist zimlich daneben.
und 10000 Ingenieure sind sehr wohl schneller als 1000. den jede architektur hängt auch von den idee der mitarbeiter ab udn je mehr du hast, deste merh idee hast du auch. es verkürzt sich zwar nicht um den faktor 10 aber 2-3 mal schneller ist es.

Das läßt sich so pauschal nicht sagen.
Es hängt einfach davon ab, inwieweit die Aufgaben teilbar sind. Sind die einzelnen Arbeitsschritte voneinander abhängig, müssen also seriell abgearbeitet werden, dann sind sie nicht mehr sinnvoll aufteilbar. Entsprechend gibt es für jede Aufgabe einen Punkt, ab dem mehr Leute keine Beschleunigung mehr bringen; mehr Leute würden dann nur mehr Fehler erzeugen, was die Abarbeitung eher langsamer macht.
 
Nur dumm das eine neue Architektur >=5 Jahre braucht, bis sie Markt reif ist.
Der Atom ist so geworden wie er werden sollte.

Mir ist aber von Intel-Sprechern mitgeteilt worden, dass vorrangig der Hauptprozessor entwickelt wurde ... aber nicht besonders eine entsprechendes Chipsatz-Ökosystem. Das sollten "bewährte" ältere Chipsätze leisten.
AMD-Sprecher fehlten die Worte zum "Atom" und ersten Atom-Netbook, diese mochten der Geräteklasse keinerlei Zukunftschancen einräumen (und das trotz/wegen eigener älterer Geode-Notebooks?!).

Die Frage zum Ersatz eines "Atoms" stellt sich also gar nicht, jedenfalls nicht, um den üblichen Zyklus einer Neuentwicklung einer CPU-Mikroarchitektur deutlich anzuschieben. Das ist eine Geisterdiskussion. Mir wäre es auch neu einen Prozessor als "Misserfolg anzusehen, wenn sie sogar eine eigenständige neue Geräteklasse (-> "Netbook"/"Nettops") etabliert haben.
Damit sind leichte, günstige, sehr kleine Notebooks ohne ROM-Laufwerk als Massenware etabliert worden. Davor war das ein paradox teurer x86-Nischenmarkt.

Die Nachfolger des ersten Atoms konzentrieren sich auf die Integration von Chipsatz und Grafik auf dem gleichen Stück Silizium. Und da macht AMD vor (und ARM-Gegenstücke) wie High-Definition Beschleunigung für Blu-ray aussieht, bzw. ausehen könnte.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Der Atom ist so geworden wie er werden sollte...

So dürfte es sein.
Atom sollte nur billig und sparsam sein, aber gleichzeitig auch ja nicht in den Leistungsbereich der überteuerten ULV-Core-CPUs gelangen. Intel hat den großen Leistungs-Abstand zu seinen restlichen CPUs wohl bewußt groß ausfallen lassen.

Und der kleine Atom war der erste Kompromiss, der endlich billige kleine und dennoch recht lang laufende Netbooks ermöglichte. Und das kommt an. Viele akzeptieren einfach bei diesen Preisen die geringe Leistung, und brauchen wohl auch nicht viel mehr Leistung...hätten aber inzwischen doch gerne einen etwas weniger harten Kompromiss bevorzugt; aber sowas erkennt man erst im Nachhinein, und so kann man es dann später auch besser machen.

Mit diesem harten Kompromiss ist Atom jetzt entsprechend leicht angreifbar, was Ontario zeigen wird. Und Ontario wird auch die unteren ULV-CoreI-CPUs angreifen. Ontario wird jetzt vermutlich schnell einen großen Teil des Atom-Marktes übernehmen. Aber Intel ist derweilen auch nicht untätig und wird dann vermutlich schon Ende 2011 oder irgendwann in 2012 einen Nachfolger für Atom bringen. Der 32nm-Atom scheint jedoch noch nicht das Zeug dazu zu haben, seine Position zu verteidigen, das muss vermutlich der Nachfolger davon machen.
 
. Mir wäre es auch neu einen Prozessor als "Misserfolg anzusehen, wenn sie sogar eine eigenständige neue Geräteklasse (-> "Netbook"/"Nettops") etabliert haben.
Damit sind leichte, günstige, sehr kleine Notebooks ohne ROM-Laufwerk als Massenware etabliert worden. Davor war das ein paradox teurer x86-Nischenmarkt.
Ich wider spreche dir ungern, aber billige Netbooks hat Asus erfunden bzw. damit den ganzen Hype um Netbook aufgebaut. Atom wurde 6-9 Monate nach Asus Eee PC vorgestellt.

Und das eben mit einem Intel® Celeron® M Processor ULV 353 in 90nm sowie 7"-Display sowie kleinen Akkus und das schon für 300$
Also, völlig unbrauchbar.

Der Chipsatz verbrauchte viel Strom. Ich glaube so, 1 bis 1,5 mal als der ULV 353 und dann 2 - 3 mal mehr als ein Atom. Daher würde ich den Einfluss vom stromsparenden Atom nicht so gravierend sehen.

Und ein Celeron in 45nm statt 90nm wäre auch etwas stromsparender, auch wenn man keine Stromspartechniken einführte

Man braucht nicht umbedingt ein Atom um lange Akku-zeiten zu machen. Es gibt jetzt ULV-Notebooks die mit 60Wh Akkus auch 12 Stunden idle schaffen bzw. 6-9 Stunden in Office. Und das sogar mit Dual-Cores.

Ich denke, Atom hat dann bewirkt, dass der Marktanteil auf 20-25% angewachsen ist, der wahrscheinlich ohne Atom nicht ganz so hoch erreicht worden wäre.


Also, ich sehe jetzt Atom nicht als Mega-CPU.
 
Zuletzt bearbeitet:
@aylano

Du erzählst mir was ,was mir schon längst bekannt ist. Der Punkt ist, dass die ersten EEs den Markt eruierten und mit dem Atom dann zündete.

Der PentiumM (und seine Celeronabkömmlinge) war zu groß und die Nachfolger davon ... aber die Chipsätze konnten vom Atom prima recycelt werden. Das wurde von Intel auch so auf der IDF 2007 so kommuniziert. Asus war lediglich so mutig eben diese Eees breitflächig einzuführen, um überhaupt auszutesten wie gut diese ankommen.

Um beim Thema zu bleiben. AMD wird mit dem Fusion beim Ontario sowhl CPU als auch Hudson-"Chipsatz" (eigentlich nur die Southbridge) zeitgleich aktuelle Halbleiter und Fertigungstechniken nutzen.
Bei Llano könnte es ebenso wie beim Ontario sein. Nachtrag: AMD will offenbar den Abstand zwischen eigenen Legacy-CPUs und den kommenden Fusion-Produkten eben nicht ganz so groß machen. Das unterscheidet AMDs Ansatz zur eigenen "neuen" Netbook-Klasse.

Nochmal: Atom sollte von anfang an Sparsam, Klein und Billig (und in der Rechenleistung deutlich unterhalb der eigenen Hauptprozessoren) sein, Legacy-Chipsätze haben den Preis nochmals nach unten getrieben ... egal wie stromsaufend sie dann ausfielen.

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten