PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : News Erste Muster von AMD Fusion-APUs geliefert



Nero24.
20.05.2010, 12:04
Mit den Worten "the silicon looks good" kommentierte Bob Grim, Director of Client Platform Marketing bei AMD, den Fortschritt bei der Entwicklung des des kommenden AMD Fusion Prozessors, einer Kombination aus CPU und GPU auf einem Die. Das Interview wurde auf <a href="http://www.bit-tech.net/news/hardware/2010/05/15/amd-fusion-cpu-gpu-will-ship-this-year/1?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+bit-tech%2Fnews+%28bit-tech.net+News+Feed%29&utm_content=Google+Reader" target="_blank">bit-tech</a> veröffentlicht.

Demnach hat AMD die ersten Samples der Fusion-APU erhalten, genauer gesagt des <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1273108334">Llano</A>, der mit vier auf dem K10-Design basierenden CPU-Kernen sowie einer DirectX 11 GPU kommen soll. Der Llano soll bei <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1269291520">GlobalFoundries</a> im 32 nm SOI Prozessor gefertigt werden. Spätere, einfachere Varianten des Fusion mit Bobcat-CPU-Kernen, könnten dagegen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1273834912">wie berichtet</A> auch bei TSMC in Taiwan hergestellt werden.

Ob der Llano noch im Jahr 2010 geliefert werden kann, darauf wollte sich Grim nicht festlegen. AMDs CEO Dirk Meyer hatte dies versprochen und <i>"hopefully we’ll be able to deliver on that promise. I’m confident that we will be - the silicon looks good. I don’t see any reason why we wouldn’t..."</i> Demnach sollen die ersten Fusion-APUs auf Llano-Basis noch 2010 an die Hersteller geliefert werden können sofern keine gravierenden Produktions- oder Design-Probleme auftreten.

<b>Links zum Thema:</b><ul><li><a href="http://www.bit-tech.net/news/hardware/2010/05/15/amd-fusion-cpu-gpu-will-ship-this-year/1?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+bit-tech%2Fnews+%28bit-tech.net+News+Feed%29&utm_content=Google+Reader" target="_blank">AMD says Fusion CPU and GPU will ship this year</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1273834912">Produktion von AMDs Fusion APU auch bei TSMC?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1221724936">AMD erklärt den neuen Fusion Prozessor</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1259943744">Bringt AMD die Fusion-Produkte früher als geplant? </a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1273108334">AMD gibt Starttermin für Danube und Nile bekannt</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1271430782">AMD Q1 2010 Earnings Call Transcript</a></li></ul>

OBrian
20.05.2010, 12:15
Tja, seit AMD keine übertrieben optimistischen Roadmaps mehr raushaut, ist es einfacher, den Zeitplan zu erfüllen oder zu unterbieten ;)


Spätere, einfachere Varianten des Fusion mit Bobcat-CPU-KernenWürde ich nicht unbedingt so formulieren, das klingt, als wäre der Bobcat-Fusion ein Nachfolder von Llano. Aber es ist ja ein Parallelprodukt (auch wenn es nicht zwangsläufig genau zeitgleich erscheint, es ist eben done when it's done) für ein anderes Marktsegment: Llano landet in Mainstream-PCs und -Notebooks, und der Bobcat-SoC ist für kleine Geräte wie Netbooks, iPad-Klone, MIDs usw. gedacht.

rkinet
20.05.2010, 12:23
Tja, seit AMD keine übertrieben optimistischen Roadmaps mehr raushaut, ist es einfacher, den Zeitplan zu erfüllen oder zu unterbieten.
Nächster sinnvoller Starttermin wäre eh erst nach Weihnachten = Anfang 2011.
Wobei ja erst Q2'2010 die Danube Plattform neu kam.

Beim Desktop steht ein neuer Socket an ... sowas dauert aber eh bis zur breiten Akzeptanz.

Ende Nov. 2010 gibts wieder AMD-Analystentag. Ich tippe mal dann wird der LIano vorgestellt mit Verweis auf 'Wafer start / mass prodction now'. Und Mitte Q1'2011 in die Läden kommen.

Dr@
20.05.2010, 12:23
Mir erschließt sich auch weiterhin nicht die Neuigkeit in der bit-tech Meldung.

Ich zitiere Mal den CEO (15. April): (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1271430782)


"First answer is the plan that we’ve talked about previously for the first Fusion launch remains the plan. That is to say, we plan to commence volume production in the back half of this year. We do now have internal samples of both of our initial Fusion designs, are learning quite a lot, and are quite happy with what we see, and we started sampling to select customers, one of those two designs."

Und weil es grad passt, hier noch die relevanten Roadmaps:

http://www.planet3dnow.de/photoplog/file.php?n=9235&w=l
http://www.planet3dnow.de/photoplog/file.php?n=9236&w=l

MfG @

aylano
20.05.2010, 13:14
Mir erschließt sich auch weiterhin nicht die Neuigkeit in der bit-tech Meldung.

Vielleicht werden jetzt alle mit Samples beliefert.

Morrich
20.05.2010, 13:16
Wie darf man sich denn bei diesen CPUs die Leistung der Grafikeinheit vorstellen?

Ist das für nen Durchschnittsspieler ohne extrem großen Anspruch noch geeignet, oder doch eher lediglich was für HTPC und Office?

Ich könnte mich mit einer solchen CPU durchaus anfreunden, denn immerhin spart das doch recht deutlich Strom, wenn die CPU nur was um die 65-95W schluckt und gelichzeitig keine extra Grafikkarte betrieben werden muss.

Allerdings ist dann sicher auch gleich ein neues Mainboard inkl. neuem RAM fällig fürchte ich.

Peet007
20.05.2010, 13:51
Wenn man grob mal überschlägt, 61 Watt Load GPU (5670) und einen Deneb 4x2.6 GHz mit 65 Watt, ist man bei ca. 130 Watt TPD.

In 32 nm Fertigung könnten vll das ganze mit 100 Watt TPD funktionieren. (rein spekulativ)

Für Gamer wirds wohl davon abhängen wiegut sich das ganze dann mit einer zusätzlichen GPU kompinieren lässt.

Also ich bin da echt gespannt wie sich das entwickelt.*great*

nazgul99
20.05.2010, 13:54
Nunja, grafikleistungsseitig würde ich mindestens das erwarten, was beisher bei den IGPs üblich war: knapp unter der Leitungs der billigsten Graka der gleichen Generation. Eine DX11-AMD-GPU müsste somit knapp unterhalb einer HD5450 liegen. Da die GPU direkt an den internen CPU-Switch gebunden ist, wird seine relative Performance evtl. sogar etwas besser sein, obendrein unterstützt durch den Hoch performanten 32nm SOI-Prozess. Die TDP, die sich ja auf die Gesamt-TDP der CPU auswirkt könnte ein limitierender Faktor sein, denn die CPU-TDP ist immer ein limitierender Faktor. Auf jeden Fall wird die "interne Konkurrenz" mit den diskreten Low-End-Grakas ein anderer, nicht-technischer sein.

Bis dahin ist natürlich noch die nächste Radeon-Generation fällig, das untere Ende der diskreten Grafik-Performance-Skala klettert also noch ein wenig nach oben. Optimistisch würde das HD5550-, sehr optimistisch HD-5570-Niveau bedeuten. Allerdings haben die beide eine Leistungsaufnahme (komplette Karte) von ca. 40 Watt, mit SOI und 32nm und ohne Karten-Bausteine würden da immernoch ... naja, 20 Watt? bei übrig bleiben. 10 Wären für eine On-Die-GPU wohl akzeptabel, je nach Gesamtleistung der C... äh, APU, natürlich.

Das ist natürlich meine persönliche Einschätzung, ich würde jedenfalls lieber nicht zu viel Leistung davon erwarten, das schützt vor Enttäuschung und erleichtert eine positive Überraschung ;D

Morrich
20.05.2010, 14:05
Wenn man grob mal überschlägt, 61 Watt Load GPU (5670) und einen Deneb 4x2.6 GHz mit 65 Watt, ist man bei ca. 130 Watt TPD.


Dumm nur, dass die Deneb 4 Kerner ALLE mit mind. 95W TDP laufen und nicht mit 65W (einen 4 Kern AthlonII X4 mit 65W und 2,6-2,8GHz wünsch ich mir derzeit).
Also ist man da eher bei 160W TDP und nicht bei 130W.

Verstehe allerdings nicht so ganz, warum das nicht in 65W Ausführung geht.
Die "e" Versionen haben 45W TDP und da ist die schnellste 2,4GHz.
Um die 2,6GHz des X4 620 zu erreichen sinds dann gleich mal 50W mehr? Kommt mir komisch vor.

Bobo_Oberon
20.05.2010, 14:29
Leistungsfähigkeit des Llano - Da gehen die Spekulationen der P3D-Member sehr weit auseinander.

Eine Fraktion sieht das auf Augenhöhe der ganz kleinen ATI-Grafikkarten (mit etwa 80 Shader-ALUs).
Eine andere Fraktion sieht beim Llano bis zu 400 Shader-ALUs (also das was dem Redwood in etwa entspricht) enthalten.

MFG Bobo(2010)

Green_Ranger
20.05.2010, 14:31
@Morrich
Naja die sau teuren PhII-e Prozessoren laufen mit 65W

edit:
bevor jemand wegen "sau teuer" rummeckert, sau Teuer ist in Relation zu den Preisen der nicht e Modelle zu sehen.

Morrich
20.05.2010, 14:37
@Morrich
Naja die sau teuren PhII-e Prozessoren laufen mit 65W


Ok, die hatte ich jetz gar nicht mit in Betracht gezogen.

Aber ja, mit mind. 166€ ist ein 2,6GHz 910e schon recht teuer.
Lohnt sich dann wirklich nur, wenn der Betrieb sehr leise sein soll und über eine recht lange Zeit gedacht ist, sonst holt man das Geld ja über den geringeren Stromverbrauch nie mehr rein.

nazgul99
20.05.2010, 15:08
Ok, die hatte ich jetz gar nicht mit in Betracht gezogen.

Aber ja, mit mind. 166€ ist ein 2,6GHz 910e schon recht teuer.
Nimm nen C3-945 für 126 Euro und begrenze den Multi, sodass du die selben 2,6 GHz hast. Da beide aus derselben Binning-Klasse stammen werden, wirst du auch resultierend die gleiche TDP erwarten dürfen.

Beim Athlon II X4 hat AMD einfach keine 65W-Klasse definiert, dies wäre aber natürlich kein Problem. Da mit L3 bei 2,6 GHz mit 65 Watt drin sind, sollten ohne L3 2,7 GHz drin sein, evtl. auch 2,8. Mit 45nm und ohne HKMG.

Aber Llano ist für Lowend-PCs und Notebooks gedacht, also kaum für eine TDP-Klasse oberhalb 65 oder gar 90 Watt.

Makso
20.05.2010, 17:15
Hy all
so ich dachte ich gebe auch meinen senf & ketchap dazu.
Was ich nicht verstehe ist, alle reden von 4Cpu Cores auf basis von deneb und eine
Gpu einheit!?
Ich verstehe nur so das die Liao Platform bis zu 4 APU Kern besitzt.
Ich meine das nicht wie bei Intel CPU+GPU je extra auf einer platte sitzten sonder das die
CPU+GPU in einer mischung FUSION davon 4 Kern(Cores) auf einer platte sitzten.
Also erübrigt sich die TDP wanssin von 130 watt!!! ersten kann man die neue AMD plattform mit der jetzigen nicht vergleichen weil das komplertt andere Architektur ist.

Ich vermutte das ein teil der Deneb Architektur mitgenohmen wurde und bei der GPU wird hoffe ich die neu North island oder sogar die South Island Architektur verwendet wird.*noahnung*

Dr@
20.05.2010, 17:19
Du musst dir das so vorstellen:

http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=19002&d=1273152423

Der Prozessor heißt Llano (mit zwei L)!

rkinet
20.05.2010, 17:24
Leistungsfähigkeit des Llano - Da gehen die Spekulationen der P3D-Member sehr weit auseinander.
http://www.planet3dnow.de/vbulletin/showthread.php?p=4222673#post4222673

bzw.

However, judging from what we can see, the Llano APU will feature 512k-1MB L2 cache per core, no L3 cache and six Radeon HD 5000-series units for a total of 480 stream processors.

Was auch 2011 für eine 3-4 Core Mobil-CPU schon nötig sein wird.

;al sowas als Referenz: http://geizhals.at/deutschland/a505174.html
Würde vielleicht auf 3-5 Watt IDLE und vielleicht 25 Watt max. bei LOAD machbar sein in SOI-32nm. Dazu noch die CPU-Teile mit 30-40 Watt max.und 2-5 Watt IDLE.

Tratty
20.05.2010, 17:44
Aber Llano ist für Lowend-PCs und Notebooks gedacht, also kaum für eine TDP-Klasse oberhalb 65 oder gar 90 Watt.

Regor läuft auch zwischen 25 W und 95 W!
Kommt immer auf Taktraten etc. drauf an.

Ich kann mir schon vorstellen, dass Llano durchaus eine etwas performantere GPU bekommt. Der ist ja nicht für die kleinen Netbooks etc. gedacht (das macht Ontario), sondern soll durchaus für richtige Notebooks und auch im Desktop eingesetzt werden. Da macht eine grundsätzlich bessere GPU-Leistung gleich erstmal noch einiges an Sinn.

Wenn man jetzt bspw. mal eine HD 5570 nimmt muss man noch folgendes beachten:

a) Die ist natürlich nicht für den mobilen Einsatz optimiert, bspw. was die Spannungen angeht. Das wäre vergleichbar eine Mobility 5650. Die läuft mit 15-19 W, das ist schon mal die Hälfte.
b) Dann haben wir eine neuen Fertigungsprozess, 32 nm SOI statt 40 nm.
c) Zudem fällt als weitere zu versorgende Einheit der extra Speicher weg. Sprich der eigentliche Chip braucht noch mal weniger.

Damit erscheint mir etwas in dieser Leistungsklasse für Llaono sehr gut möglich.

aylano
20.05.2010, 17:53
Mich wundert es noch nichts von einem Fusion-Dual-Core gehört zu haben.

200 mm² finde ich schon noch viel für einen Massen-Markt.

nazgul99
20.05.2010, 17:57
rkinet: Danke für die Infos, wenn das stimmt, bin ich platt! 8)

Tratty: Du könntest Recht haben, langsam bin ich wirklich gespannt, was da kommt. Gut, dass ich mich entschieden hab, auf Llano zu warten, das wird sich demnach wirklich lohnen. AMD will offenbar die GPU-Power wirklich zum Performance-Wachstum der gesamten APU nutzen. Hoffe nur, dass diese Performance dann auch wirklich unter Linux nutzbar sein wird - ohne proprietäre Treiber. Nicht unbedingt gleich vom Start weg, aber "zeitnah" bitte schön ;D

Makso
20.05.2010, 18:06
@Dr
danke fürs Foto alles klar.
Aber das ist ja das gleiche wie bei Intel nur unter einer Haube.Sicher ist die Archtecktur der APU besser als die jetzige hoffe ich. Natürlich ist die frage wie viel Performenc die APu gegenüber einer CPU bring.Ich meine wenn die leistung um 25% besser ist als die jetzige und dabei etwas weniger strom verbrauch vorhanden ist, bin ich schon verdamt glücklich.
Da hab ich mich vorher in meinen wannnnn der vorstellung etwas mich selbs verwirrt;D

rkinet
20.05.2010, 20:34
Mich wundert es noch nichts von einem Fusion-Dual-Core gehört zu haben.

200 mm² finde ich schon noch viel für einen Massen-Markt.
Wobei dann nicht nur die CPUs sondern auch die GPU gestutzt werden müßte.

Gleichzeitig lauert ja der Dual-Core Bobcat mit vielleicht 80 Stream auf seinen Markt.

Und eine GPU oder einer IGP auf Northbridge hat bisher auch locker über 100mm2 Bedarf.

In 2011 gibts für eine reinen Quadcore low power vielleicht noch $100 an Umsatz. Und für eine Mobility 5650 vielleicht auch noch $100.
Beim Desktop / erhöhte TDP vielleicht noch zusammen $100-150.

Darunter wäre dann der Platz für einen Bobcat. 8)

Hephaistos
20.05.2010, 21:54
Fusion ärgert mich mal wieder so riesig bei AMD. Waren die ersten die davon rumposaunt haben und nur aus Stolz (?) oder Dummheit muss es natürlich gleich wieder beides auf einem Die sein.

Die Grafikkarte muss nichts können außer HD-Wiedergabe und den Desktop wiedergeben und vieleicht sogar noch das ein oder andere minigame. Wichtig ist die Leistungsaufnahme. Zum zocken können die gar nicht gemacht werden wegen der gemeinsamen Abwärme.

INTEL machts wie beim C2Q und pabbt 2 Dies auf ein package und hat das ganze schon weit vorher geschafft. Klar die GPU ist noch in 45nm, aber hey, das kann man ja einfach wechseln. Wieso rafft AMD es nicht, dass sie es sich nicht leisten können auf solche sinvollen Zwischenschritte bis hin zum Nativen Quad / CPU-GPU mit getrennten Dies zu arbeiten. Auch um die Ausfallquote zu minimieren. Gut das ich eh nie so eine CPU wollte, aber ärgerlich ist es trotzdem. Damit lassen sich so schöne Sparsamme Office Rechner basteln und man sieht wie gut der I3 ankommt. Naja AMD: Wieder selbst in den Arsch getreten. Gratulation. Vieleicht schaffen sie es ja mit 2 Jahren Verspätung.

Sehe grade der kostet 100€ der kleinste I3... Das kann sich INTEL auch nur leisten weil AMD nix dagegen zu setzen hat. Der vernünftige Mensch würde sich ne 30€ AMD CPU mit 50€ Onboardgraka Board kaufen für einen Office Rechner, aber Fusion etc klingt halt cooler und besser.

OBrian
20.05.2010, 22:29
Also so wie ich das bisher verstanden habe, sind drei Chips in der Mache: Der Bobcat-SoC für einstellige Wattzahlen (da halte ich 80 Shader für nicht machbar, nicht mal 40) sowie der große Llano als zusammengeklebter Propus+Redwood, und ein kleiner Llano vergleichbar mit Regor+Cedar (damit könnte man auf 25W TDP runterkommen).

Diese letzte Version könnte man theoretisch auch durch Teildeaktivierungen erreichen, aber das werden hochvolumige Produkte mit geringen Margen, da würde sich das nicht auszahlen. Aber man kann durchaus erwarten, daß AMD erstmal nur den großen Llano auf den Weg bringt und erst wenn der läuft den kleinen nachschiebt.

Ge0rgy
20.05.2010, 22:52
Du verstehst da was nicht...
Der einzige Grund warum der Core i3 eine Grafikeinheit rangeflanscht bekam ist kostenredultion & um Plattformen wie ION auszubremsen...
Bei AMD ergibt sich aber aufgrund der wesentlich höheren Grafikleistung noch ganz andere Möglichkeiten, Stichwort OpenCL.
Llano ist nur das vorgeplänkel auf dem WEg zur vollständigen integration der Shader in die CPU.
Aber schon bei Llano ergibt sich durch den gemeinsamen Memorycontroller die Situation dass CPU und GPU wesetlich effektiver zusammenarbeiten können...
Im klartext, das was der alten K1-Architektur an wumms fehlt, machen die Shader wieder wett...
AMD will nicht nur die GPU integrieren um sich die IGP einzusparen sondern um eine neue art von Rechenchip, die APU zu erschaffen. Deswegen ja Fusion...die verschmelzung von CPU und GPU-Technologie... Software wie OpenCL wird da noch einiges ermöglichen...
Ein Core i3 Klon hätte immernoch die selben Nachteile wie AMDs akt. Generation... zu viel Strom, zu wenig Leistung... das nachzubauen hilft nicht viel...

Die Gemeinsame Abwärme ist gar nicht so problematisch... CPU kühler sind normalerweise ganz anders Dimensioniert als die auf Grafikkarten...
Das Hauptproblem an Llanos Grafikpower wird die Speicherbandbreite sein... aber im Vergleich zu dem was Intel abliefert immernoch eine ganze Ecke mehr...
Also macht mal das Fusion.Konzept nicht schlechter als es ist...

rkinet
21.05.2010, 09:01
Also so wie ich das bisher verstanden habe, sind drei Chips in der Mache: Der Bobcat-SoC für einstellige Wattzahlen (da halte ich 80 Shader für nicht machbar, nicht mal 40) sowie der große Llano als zusammengeklebter Propus+Redwood, und ein kleiner Llano vergleichbar mit Regor+Cedar (damit könnte man auf 25W TDP runterkommen).
Bobcat bekommt DirectX 11 - also kaum ein Bonsai-GPU Design unterhalb heutiger IGPs.

Und beim LIano gibt es keinen Grund die 'Danube' Plattform quasi per Einsteiger-LIano nur bei der Bauteilezahl zu reduzieren.

Eher wird Regor plus IGP durch eine Bobcat ersetzt und der LIano als 3/4 Core vermarktet.

Auch beim Desktop dürfte die rel. starke GPU-Leistung unter dem eh vorhandene Kühler ein wichtiges Argument werden. Eine heutige IGP nur wandern zu lassen um wenig ALU zu sparen macht hingegen wenig Sinn.

Dual-Core und low end GPU verabschieden sich in den Bobcat 2011/12. Und der Mainstream wird 3-4 Cores incl. Turbo und elementare Direct X 11 Leistung erhalten.

skibice
21.05.2010, 10:38
Ich lass mich im Dezember von AMD überraschen :)

Da werden die das Ding hoffentlich vorgestellt haben.

S.I.
21.05.2010, 11:17
Nimm nen C3-945 für 126 Euro und begrenze den Multi, sodass du die selben 2,6 GHz hast. Da beide aus derselben Binning-Klasse stammen werden, wirst du auch resultierend die gleiche TDP erwarten dürfen.

Beim Athlon II X4 hat AMD einfach keine 65W-Klasse definiert, dies wäre aber natürlich kein Problem. Da mit L3 bei 2,6 GHz mit 65 Watt drin sind, sollten ohne L3 2,7 GHz drin sein, evtl. auch 2,8. Mit 45nm und ohne HKMG.

Aber Llano ist für Lowend-PCs und Notebooks gedacht, also kaum für eine TDP-Klasse oberhalb 65 oder gar 90 Watt.

das mit dem Stromsparen versteh ich nicht: Für eine Serverfarm in einer dicken Firma kann ich die Kosten schon als Faktor verstehen, aber privat?
Da spar ich mehr, so es denn immer auf den Cent ankommt, wenn ich mal ein paar Geräte statt Standby auf Aus schalte und weniger überflüssige Stromquellen abstelle, als ob hier "zwei, drei Watt" gespart würden...Leistung kostet eben....*noahnung*
Selbst wenn ich das übers Jahr rechnen würde...Wenn es doch so erheblich sein sollte für manchen, dann eben nen sparsammeren Prozessor und Graka usw...ent oder weder...http://www.ugly-smilies.de/data/ulgy_druff.gif

TNT
21.05.2010, 11:48
Leistungsfähigkeit des Llano - Da gehen die Spekulationen der P3D-Member sehr weit auseinander.

Eine Fraktion sieht das auf Augenhöhe der ganz kleinen ATI-Grafikkarten (mit etwa 80 Shader-ALUs).
Eine andere Fraktion sieht beim Llano bis zu 400 Shader-ALUs (also das was dem Redwood in etwa entspricht) enthalten.

MFG Bobo(2010)

Ergaenzend kann man hier (http://www.planet3dnow.de/vbulletin/showthread.php?t=379198) schauen - und da gehen die Meinungen auch auseinander (Gern darf auf weiter abgestimmt werden).

'Mehrheitlich' erwarten die Umfrageteilnehmer hier wohl um die 200 SPs fuer die GPU im Llano. Dabei bleibt der moegliche Takt natuerlich aussen vor...

Aber wenn Samples schon bei Kunden herumliegen - wie lange dauert es bis man etwas erfaehrt?

nazgul99
21.05.2010, 11:57
Es dürfte im Interesse der CPU-Hersteller sein, nicht im Fokus der Politik zu landen. Zwischendurch noch eine Korrektur: mit "Lowend" hab ich natürlich zu weit nach unten gegriffen, "Mittelklasse" wäre korrekt gewesen und bis 95W TDP dort heute noch normal und angemessen.

Dass du und ich kaum ein paar Euro im Jahr sparen, wenn unsre CPUs 65 statt 95 Watt TDP haben ist klar*, aber diese CPUs werden zum Einen bei sehr vielen Leuten eingesetzt und zum Anderen (und dafür dürfte sich Llano sehr gut eignen) auch in Firmen-PCs. Die laufen den ganzen Tag (8 Stunden, einige 24) über und in großen Stückzahlen, dort ist es also durchaus relevant, ob sie 10 Watt weniger verbrauchen. Und das Ziel der Hersteller dürfte nicht zuletzt aus o.g. Gründen sein, die Leistungsaufnahme von Jahr zu Jahr immer ein wenig weiter nach unten zu drücken. Dem Mainstream-Anwender nützt das auch tatsächlich etwas, denn so werden die PCs leiser, kleiner und auch billiger in der Anschaffung. Ein angenommener zukünftiger Mittelklasse-PC mit 25W-CPU, On-Die-AGP (APU) und (dann bezahlbarer, großer) SSD (oder von mir aus entsprechender 2,5"-Platte) würde schließlich nur noch ein Notebook-Netzteil benötigen und die Größe eines Buches haben. Erweiterbarkeit sei hier kein Thema (und wenn ist über USB3 etc. einiges möglich), die meisten Leute öffnen ihr Miditower-Gehäuse die ganzen 5 Jahre, die sie es besitzen, kein einziges Mal. Solche Systeme gibt's ja auch schon, nur, wenn einigermaßen leistungsfähig, noch zu teuer.

*bei mir läuft der Rechner allerdings öfter mal ein paar Tage durch, bei 365/24-Betrieb ist ein Watt ungefähr 1,5 Euro/Jahr

OBrian
21.05.2010, 19:49
Bobcat bekommt DirectX 11 - also kaum ein Bonsai-GPU Design unterhalb heutiger IGPs.

Eher wird Regor plus IGP durch eine Bobcat ersetzt und der LIano als 3/4 Core vermarktet.
[...]
Dual-Core und low end GPU verabschieden sich in den Bobcat 2011/12. Ich glaube, Du hängt einer falschen Vorstellung an. Bobcat bzw. Ontario landet nie in der Marktnische, die jetzt von billigen mit Regor bestückten 740G oder 880G µATX-Boards besetzt ist, das ist was für Llano (von dem es sicher nicht nur eine einzige SKU geben wird). Ontario ist extra gebaut als Ersatz für den uralten Geode GX/LX und als Gegenspieler des Atom, wird landen in iPad-Klonen, kleinen Netbooks, Car-PCs und auf mini-ITX-Boards.

Man sollte da also nicht zu viel Leistung erwarten. Wenn es etwas besser ist als Atom plus Ion, dann ist das schon gut, aber der geringe Stromverbrauch ist das alles dominierende Totschlagargument in dem Markt. Doppelte Leistung für nur 1W mehr kann bereits inakzeptabel sein. Ich glaube also kaum, daß AMD einen kompletten Cedar in Ontario reinquetschen und dann das Ganze inkl. CPU und Southbridge (nicht vergessen, es ist ja ein SoC!) auf nur wenige Watt Vollastverbrauch eindampfen konnte.

Nur weil etwas DX11-fähig ist, kann man daraus ja noch keine Leistung ablesen. Oder steht irgendwo, daß eine GPU nur dann das DX11-Siegel bekommt, wenn sie mindestens soundsoviele 3DMarks oder was auch immer erreicht?

Markus Everson
21.05.2010, 19:53
das mit dem Stromsparen versteh ich nicht: Für eine Serverfarm in einer dicken Firma kann ich die Kosten schon als Faktor verstehen, aber privat?

Privat fallen die Kosten für den Hörgeräteakkustiker ins Gewicht.

S.I.
21.05.2010, 20:58
?????

LoRDxRaVeN
21.05.2010, 21:23
Man sollte da also nicht zu viel Leistung erwarten.

Also die versprochene Leistung soll ja laut AMD-Aussage bei "90% der heutigen Mainstream-Performance" liegen. Mainstream ist für meinen Geschmack bis auf das Netbooksegment mindestens ein Regor mit ~3GHz.
Also sollte lt. dieser Aussage Ontario doch -relativ- weit nach oben skalieren. Und dann muss doch auch irgendwie die GPU dazu passen...

@Hephaistos Ich stimme dir zwar zu, dass die C2Q zu unrecht belächelt wurden, weil es eben egal war, dass sie aus 2 Dualcores bestanden, aber bei Clarkdale muss ich dir widersprechen. Ich finde das ist aus technischer Sicht kein "sinnvoller Zwischenschritt", vll. aber aus Marketing-Sicht, denn so kann man aller Welt einreden, man hätte zuerst einen "Fusion"-Chip gebaut.
Eigentlich wäre dieses Zusammenfassen auf einen Träger schon viel früher möglich gewesen (ähnlich den Slot CPUs :) ), aber man sah wohl da noch keine Vorteile darin. Für den Kunden ist mMn die benachbarte GPU kein Vorteil --> Bauernfängerei

Der Rest zum Thema steht schon in anderen Beiträgen :)

LG

OBrian
21.05.2010, 23:34
Also die versprochene Leistung soll ja laut AMD-Aussage bei "90% der heutigen Mainstream-Performance" liegen. Mainstream ist für meinen Geschmack bis auf das Netbooksegment mindestens ein Regor mit ~3GHz.
Also sollte lt. dieser Aussage Ontario doch -relativ- weit nach oben skalieren. Und dann muss doch auch irgendwie die GPU dazu passen... Erstens heißt "passen" für uns Spiele-PC-zentrierte Freaks was anderes als für die meisten, d.h. auch wenn ich eine 5970 zu Bobcat passend fände, wird es diese Leistung nicht geben.

Und zweitens klingt diese "90% der aktuellen Mainstream-Performance"-Aussage zwar nach viel, ist aber nicht wirklich festzunageln. Meinte der AMD-Mensch damit 90% eines 3 GHz Regor, was AMD aktuell als Mainsteam verkauft, oder meinte er 90% von dem, was aktuell bei den Leuten zuhause steht? Das wäre dann immer noch ein ordentlicher Fortschritt, denn während der Atom von einem alten P3 geschlagen wird, könnte Bobcat dann auf Athlon XP-Niveau kommen.

Also bitte nicht falsch verstehen, ich bin der letzte, der jammerte, wenn diese kleinen Geräte extrem stark würden. Aber man sollte sich doch mal realistisch überlegen, was man mit max. 10W anfangen kann, wenn man das auf CPU, GPU, Memorycontroller und Southbridge aufteilen muß.

Ontario muß ja auch gar nicht stärker sein, denn darüber setzt ja Llano an, d.h. wenn ein Hersteller ein flaches Notebook mit ordentlich Leistung bauen will, dann kommt da die 25W-Version des Llano rein.

nazgul99
22.05.2010, 01:02
OBrian: Sabine/Llano ist auf der Mobil-Roadmap im unteren Segment als Nachfolger von Nile/Geneva angeordnet. Diese haben aber eine TDP von bis hinab zu 12 Watt (als Dualcore) bei 1300 MHz (http://products.amd.com/en-na/NotebookCPUDetail.aspx?id=673&f1=AMD+Athlon%E2%84%A2+II+Neo+Dual-Core+Processors&f2=K325&f3=1300&f4=1024&f5=S1&f6=C3&f7=45nm+SOI&f8=12+W&f9=True), natürlich zzgl. Chipsatz-IGP (PCIe können wir ignorieren, da auch HyperTransport wegfällt). Und 15 Watt bei 1500 (http://products.amd.com/en-na/NotebookCPUDetail.aspx?id=672&f1=AMD+Turion%E2%84%A2+II+Neo+Dual-Core+Mobile+Processors&f2=&f3=&f4=1024&f5=S1&f6=C3&f7=45nm+SOI&f8=15+W&f9=True) oder gar 1700 MHz (http://products.amd.com/en-na/NotebookCPUDetail.aspx?id=671&f1=AMD+Turion%E2%84%A2+II+Neo+Dual-Core+Mobile+Processors&f2=&f3=&f4=1024&f5=S1&f6=C3&f7=45nm+SOI&f8=15+W&f9=True). Das ist bereits das Mischsegment zwischen Netbook und Ultrathin, streift aber auf jeden Fall den "<20 W"-Bereich, der für Brazos/Ontario/Bobcat angegeben ist. Da wir von Llano nicht unbedingt erwarten dürfen, dass er thermisch in diesem Bereich unterwegs sein wird (zugegeben: unmöglich wäre es nicht mit einem echten Dualcore und obendrein verkleinerter GPU), darf man schon vermuten, dass Brazos durchaus z.T. auch Nile beerben wird, zumal die Performance-Kurve ja stets nach oben weist.

http://www.planet3dnow.de/photoplog/file.php?n=9236&w=l

Ein Athlon XP war ein Singlecore-K7 mit maximal 2,3 GHz mit Speichercontroller in der externen Northbridge. Athlon II und Turion II sind K10-Kerne, wenngleich ohne L3-Cache. Wenn ich die 1300 MHz eines Athlon-II-Neo-Kerns mit der des 2,3 GHz-Athlon XP vergleiche, nehme ich an, dass das Performance-Niveau (SSE- & Co. Erweiterungen mal ignoriert) etwa gleich sein dürfte. Wir reden aber von einem Dualcore, somit liegt die Performance hier schon etwa beim Doppelten des Athlon XP (Belege, die mich widerlegen willkommen!), und das mit einem (bzw. 2) nicht von Grund auf für den Mobilsektor designten CPU-Kern des K10.

Wenn wir also den Athlon II Neo Dualcore als Vorgänger des schnellsten Netbook-Bobcats annehmen und eine Auslassung dieser Überschneidung in der Roadmap-Grafik, dann ergibt sich schon hieraus eher die doppelte Performance des schnellsten Athlon XP. Da Bobcat von Anfang an und ausschließlich auf den Mobil- und Stromspar-Sektor ausgelegt war, darf man schon annehmen, dass er in seiner schnellsten Ausbaustufe incl. GPU auf eben dieser Schiene liegen dürfte, die GPU dürfte wiederum zwecks Erhaltung der aufwärtsweisenden Perfomance-Kurve zumindest etwas oberhalb der Radeon HD 4225 liegen.

Andernfalls würde sich AMD eine Performance-Lücke zwischen dem <10-Watt- und dem >=25-Watt-Bereich leisten, die sie nun wirklich nicht offen lassen müssen. Und dass ein TDP-Bereich und zugehörige Leistungsstufen zwischen sagen wir mal 3 und 17 Watt mit ein und demselben CPU-Design möglich sind, wird wohl niemand bezweifeln, Athlon II X2 spreizt ja z.B. auch zwischen 12 und 65 Watt, beides ca. Skalierungs-Faktor 5,5. Der Performance-Faktor beim Athlon II X2/Neo (nur Frequenz) zwischen sparsamster (1,3) und schnellster Version (3,2 GHz) liegt bei 2,5.

Nachtrag: Der 40nm-Bulk-Prozess pisst mir allerdings etwas in's Konzept, den Atom (auch Dualcore) sollte Bobcat aber sehr deutlich schlagen können, zumal Bobcat - ganz im Gegensatz zu Atom - ein hochmodernes OOO-Design ist und auf der untersten Performance-und-TDP-Stufe nicht im Entferntesten für Smartphones gedacht und designt ist - Atom hingegen schon.

Nachtrag 2: "Sub one-watt capable (http://tech.icrontic.com/articles/what-we-know-about-amds-next-generation-processors)", das liegt deutlich unterhalb der von mir oben angenommenen 3 Watt, liegt aber immernoch meilenweit vom Smartphone (also der Spreizung des Atom) entfernt - und dies steht neben nur einem Bobcat-Kern ohne GPU, könnte ich für Ontario mit mindestens 3 Watt also doch richtig liegen.

Markus Everson
22.05.2010, 08:54
?????

"Watt" macht "Brumm". Mehr "Watt" macht mehr "Brumm". Weniger "Watt" macht weniger "Brumm".

Um lauter zu sein als "Brumm" muß $User die Lautstärke seiner Brüllwürfel erhöhen, um lauter zu sein als die Brüllwürfel muß er seine Mitmenschen anschreien. Das führt früher oder später unweigerlich zum Hörgeräteakkustiker der für ein Heidengeld kleine Zusatzgeräte anpaßt die man sich auch hätte sparen können wenn man bei "Watt" nicht nur an "Geld" gedacht hätte.

OBrian
22.05.2010, 12:51
würde sich AMD eine Performance-Lücke zwischen dem <10-Watt- und dem >=25-Watt-Bereich leisten, die sie nun wirklich nicht offen lassen müssen. Richtig, ich bin aber der Ansicht, daß diese Lücke sich gleichmäßig von beiden Seiten schließen läßt, bzw. eher von oben als von unten. Man wird nicht versuchen, ein Design, daß extra für geringen Stromverbrauch ausgelegt ist (und die Leistungsfähigkeit dabei versucht zu maximieren, aber als sekundär erachtet) bis zur Inkompetenz weiterzubefördern. Intel hat seinen Atom auch nicht auf 3GHz übertaktet, er würde dann bei gleichem oder höherem Stromverbrauch immer noch vom ULV-C2D in der Luft zerrissen.

Wir können uns nun darüber streiten, welches Design bei 15W eher eingesetzt wird, aber ich könnte mir vorstellen, AMD hat selber noch keine genaue Vorstellung davon und überläßt die Entscheidung den OEMs.

Aber in einem billigen Mainsteam-PC, der bedingt spielefähig sein soll und bei dem der Stromverbrauch aber auch nicht so dramatisch ist, weil er eben am Stromnetz hängt und nicht einen Akku belastet, sehe ich keinen Ontario, das wird ganz klar das Terrain von Llano.

nazgul99
22.05.2010, 13:55
OBrian: ACK!