FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
Die Frage ist auch ob der A70 billiger ist als bei Bedarf einen Chip mehr zu verlöten, ich denke da an den NIC-Phy zum Beispiel.
 
Die Frage ist eher, ob die Chipsätze so untereinander kompatibel sind, dass es technisch und wirtschaftlich sinnvoll ist

Oh, ein Deja Vue.
.
EDIT :
.

Die Frage ist auch ob der A70 billiger ist als bei Bedarf einen Chip mehr zu verlöten, ich denke da an den NIC-Phy zum Beispiel.

Wäre er das nicht würde sich wieder die Frage nach der technischen Kompatiblität stellen - denn dann würden die Hersteller einfach die billigere Variante des Brazzos auch für den Llano nehmen.
 
@ Markus ich hab jetzt schon das dumpfe Gefühl wir werden A50 und Llano zusammen sehen ;-) aus welchen Gründen auch immer vielleicht auch nur weil es einfach geht und 1.50 billiger ist.
 
Macht mir keine Bauchschmerzen. Einen USB-Treiber im OS einzurichten kriege ich hin und danach gibt es - sagt die Erfahrung mit dem GBit-LAN Anschluß - keinen Unterschied.
 
in der aktuellen CT ist ein Subnotebook Test mit dem Sony und dem C-50 Toshiba.
http://www.heise.de/mobil/artikel/Acer-Aspire-One-522-mit-AMDs-C-50-1204177.html?artikelseite=2

Im Prinzip ist AMD nun positiv in der Netbook-Klasse angekommen.
Bei Blick auf 28nm / Mitte 2012 kann man wohl ein dauerhaftes Verweilen annehmen.

Sowohl Intel als auch AMD dürften bei 32nm / 28nm in 2012 beim Takt noch leicht erhöhen können. Im Unterschied zu Intel muß aber AMD bei der GPU nichts mehr optimieren.
 
Da Llano wohl die SB zur Ausgabe von analogen Bildsignalen nutzt, ist zumindest die Kombination Llano + AMD A50 als unwahrscheinlich zu betrachten.

Zudem glaube ich, dass AMD erst mit dem Nachfolger von Brazos oder dem Update im Herbst neues für die Plattform einführt. Der Nachfolger soll ja auch neues bringen ...
 
Ist das so? Link?



Sollte bekannt sein.

--> VGA DAC

Llano kann wohl selber nur die digitalen Anschlüsse (DVI, HDMI, DP) ansteuern.

Für Skeptiker hier noch eine Folie:

1_Llano_FCH_Sabine.png
 
Tatsache, danke! Hab ich dieses "Feature" die ganze Zeit konsequent ignoriert. Aber das muss ja nicht bedeuten, dass man nicht trotzdem ein Gerät ohen VGA mit Llano und A50(M) realisieren kann, z.B. in einem AIO. Obendrein haben ja ein Haufen Hersteller angekündigt, VGA sterben zu lassen. Ich werde die (3-reihige) D-Sub-15-Buchse auch nicht wirklich vermissen (obgleich mein Homeserver noch an nem monochromen VGA-10-Zoll-Kassenmonitor hängt, davor war's sogar eine Uralt-ISA-Hercules-Karte mit zugehörigem Monitörchen).
 
Zuletzt bearbeitet:
Tatsache, danke! Hab ich dieses "Feature" die ganze Zeit konsequent ignoriert. Aber das muss ja nicht bedeuten, dass man nicht trotzdem ein Gerät ohen VGA mit Llano und A50(M) realisieren kann, z.B. in einem AIO. Obendrein haben ja ein Haufen Hersteller angekündigt, VGA sterben zu lassen. Ich werde die (3-reihige) D-Sub-15-Buchse auch nicht wirklich vermissen (obgleich mein Homeserver noch an nem monochromen VGA-10-Zoll-Kassenmonitor hängt, davor war's sogar eine Uralt-ISA-Hercules-Karte mit zugehörigem Monitörchen).

Nur haben die ganzen Beamer im Meeting Räumen alle noch VGA Anschlüsse, und solange das Chaos mit allen möglichen neuen Monitor Anschlüssen (HDMI, DP, TB, DVI, HDBaseT, DiiVA, etc.) weitergeht, wird sich daran wahrscheinlich nichts ändern.

Schöne neue Welt .......
 
Meckel: richtig, aber alles, was wir z.B. an Brazos-Hardware sehen, ist (bis auf das ThinkPad X120e) reine Konsumenten-Ware. Und wenn jemand mit nem Llano und Billigst-möglicher Southbridge ein Gerät bauen will, wird es wohl ein Konsumenten-Gerät sein. Bei nem All-in-One-PC (ohne Grafik-Ausgänge) stellt sich das Problem erst garnicht. Und wenn, wird man da kaum einen Röhren-Monitor anschließen wollen, ebensowenig einen 24-Zoll-TFT per VGA.

Im Business bleibt das Problem wohl noch ein Weilchen bestehen: Wir haben im Meeting-Raum auch einen modernen Beamer mit VGA/DVI/HDMI, aber das lange teure Kabel ist VGA.

Ja, der Weg ist noch weit. Bevor ich den Einkauf für alle Büros übernommen habe, wurden im größten Büro ausschließlich Monitore mit VGA-only eingesetzt :-/
 
@nazgul99

An meiner FH sind hinter allen aufgehänten Bilschirmen und Beamer die Kabel für HDMI + VGA + DVI eingezogen (der sinn dahinter erschliesst sich mir nicht, halte es Füre eine riesige Geldverschwendung, da das Gebäude vor 2 Jahren Komplett saniert und neu eingerichtet wurde 2 Kabel HDMI/DVI+VGA hätte mehr als gereicht), jedoch am Präsentierpult ist nur ein VGA-Kabelanschluss vorhanden.
 
Zuletzt bearbeitet:
Ich kann ähnliche Geschichten zu Beamern erzählen nur ist die von Nazgul (und mir weiter oben) angedachte Variante überhaupt nicht für solche Bereiche gedacht.
Sondern für das Netbook das nur 289 statt 299 kostet und bei Geiz ist Geil steht.
 
Stryki grundsätzlich hast du recht, jedoch nicht umbedingt, wenn ein viertel der Studenten mit Netbooks herumläuft.
 
Offenbar ist Intels HD-3000-Grafik, wie ich schon vermutet habe, bei gleichen thermischen Bedingungen nicht mehr schneller als AMDs HD 6310:

Engadget-Test Samsung Series 9 (NP900X3A)

Core i5-2537M (17W TDP):
* PCMarkVantage: 7582
* 3DMark06: 2240

AMD E-350 (18W TDP):
* PCMarkVantage: 2510
* 3DMark06: 2213

Trotz dreifacher CPU-Leistung, die auch in 3DMark06 noch eine Rolle spielen sollte, ist die 3DMark-Lesitung nur 1% höher als bei der HD 6310.

Edit: natürlich ist es nur ein einzelner, obendrein synthetischer, 3D-Benchmark, aber man stelle sich vor, es stünde nur eine CPU gleicher Leistung wie 2x 1,6 GHz Bobcat an HD 3000s Seite. Mit Themen wie Grafik-Fähigkeiten und Darsellungs-Qualität wollen wir lieber garnicht erst anfangen.
 
Zuletzt bearbeitet:
Ich wundere mich eher, dass die Intel HD Grafik noch so gut mithalten kann. Hätte ich nicht gedacht. Muss wohl am Bänschmark liegen. MfG
 
Ist das Patt der Grafik-"Effizienz" nun ein Punkt für Intel, da sie gezeigt haben, dass selbst die bislang noch notdürftig geltenden hauseigenen Grafiklösungen mit ausreichend Nachdruck, insbesondere dem aggressiven Turbo-Modus, zumindest in der synthetischen Leistung mit dem AMD/ATI Design mithalten können?
Oder ist es ein Punkt für AMD, da sie mit dem scheinbar niedrigsten Aufwand (Shader, Fertigungsprozess, Fläche, Kosten) bei gleicher Performance noch die höhere Qualität und zusätzliche Features bieten?

Interessant wären natürlich die isolierten Verbrauchsmesswerte an Stelle der Angaben zu TDP und Batterielaufzeit.
 
Kein Patt, da Intel für die gleiche GPU-Performenc viel mehr Material und mehr CPU-Performence braucht und der Preis des Prozessors der 5Fache Preis hat , bei gleichwertiger CPU wäre die HD6310 wesentlich schneller.
 
FredD: Zur Batterielaufzeit hat Engadget passender Weise die Kapazität in mAh angegeben, was natürlich ein vollkommen unbrauchbarer Wert ist.

Die Effizienz der iGPU ist natürlich nicht so einfach fest zu machen, zumal es da mindestens drei betrachtbare Effizienz-Kategorien gibt:
  • Effizienz pro Die-Fläche (mit/ohne Prozessbetrachtung [Strukturgröße/Prozesstechnik])
  • Effizienz pro Watt
  • Effizienz pro Dollar Herstellungskosten
Übrigens darf man auch nicht vergessen, dass Sandy mindestens die doppelte Speicherbandbreite zur Verfügung hat (2x DDR3, lt. Intel-Datenblatt wahlweise 1066 oder 1333, bei Engadgets Test ist die verwendete Sorte natürlich nicht angegeben).

Meine Aussage sollte aber schlicht nur die sein, dass Intels HD 3000 unter annähernd gleichen Bedingungen eben nicht schneller ist, als AMDs HD 6310. Und beim Zacate E-450 werden wir sicher noch mehr oder minder deutliche Steigerungen sehen: Speicherbandbreite 1/3 höher (was sich in E-350-Overclocking-Tests für die GPU IIRC als am wirksamsten herausgestellt hat), höhere max. GPU-Frequenz, Turbo, evtl. auch Auswirkungen durch schneller "beiliegende" CPU-Kerne (+50 MHz +Turbo).

ONH: Der (Markt-)Preis des Prozessors ist nicht entscheidend, die Herstellungskosten hingegen sind es.
 
Ich habe heute den Sony Vaio VPC-YB1S1E/S im Blödel Markt angetestet und muss sagen ich war von dem Gerät begeistert, die Tastatur hat sich klasse angefühlt, die Verarbeitung schien großartig zu sein.... das Subnotebook hat nen grandiosen Eindruck auf mich gemacht. Das einzige was übel aufstößt ist der wuchtige Preis.
 
@nazgul99

Kann man nciht mit der bei Samsung üblichen Akkuspannung von 11.1V die Wh Kapazität des Akkus ausrechnen?

Wegen den kosten, kommt es darauf an aus welcher Perspektive das angeschaut wird, als Enduser sind die Herstellungskosten bedeutungslos.
 
Kann man nciht mit der bei Samsung üblichen Akkuspannung von 11.1V die Wh Kapazität des Akkus ausrechnen?
Wenn die Standard-Spannung auch bei diesem Gerät eingehalten wird, schon:
6300mAH * 11,1V = 69.900 mWh = 70 Wh. Das wäre sehr ungewöhnlich sehr groß, klingt für mich sehr unwahrscheinlich. Entweder stimmen die 6300 mAh nicht, oder die Spannung ist niedriger.

Wegen den kosten, kommt es darauf an aus welcher Perspektive das angeschaut wird, als Enduser sind die Herstellungskosten bedeutungslos.
Die Kosten für den Enduser sind viel zu abhängig von anderen Faktoren: Leistung der beigepackten CPU-Kerne, Image, Marktmacht. Mit so weichen Faktoren kannman nicht rechnen, und man kann eine Sandy Bridge mit HD 3000 nicht mit E-350 vergleichen, es sind unterschiedliche Marktsegmente. Man könnte das mit einer Celeron-Sandy mit 17W tun, die würde aber sicher nur mit einer HD 2000 daherkommen - und bekanntlich mit abgeschalteter Video-Engine. Voll für'n Eimer, wer Intel kauft ist halt selbst Schuld.

*Aber man kann - und das rein akademisch - Sandys iGPU mit Zacates iGPU vergleichen. Und akademisch sind dann nunmal die Herstellungskosten die interessanten. Endkundenpreise wären nur in einem annähernd gleichen Marktsegment von Interesse.

Mal sehen, wann Intel sich traut, einen CULV-Sandy-Celeron rauszuhauen.

*Du wirst in verschiedenen Foren Intel-Jünger (und Ahnungslose) finden, die angeben, Intels iGPU sei doch viel effizienter als die des E-350 und diesen Jungs kann mann nunmal - wenn überhaupt - nur mit Fakten beikommen.
 
Offenbar ist Intels HD-3000-Grafik, wie ich schon vermutet habe, bei gleichen thermischen Bedingungen nicht mehr schneller als AMDs HD 6310:

Engadget-Test Samsung Series 9 (NP900X3A)


Sieht ganz gut aus auf den ersten Blick in Relation zum größeren i5. Aber wenn schon ein 3dmark, dann doch eine Version die den CPU Score noch nicht mit berücksichtigt. Hier wäre der 3dmark05 oder 3dmark03 besser geeignet. Das Ergebnis wundert mich eigentlich wenig. Wenn der GPU Turbo greift, sollte vom 80% Vorsprung einer großen HD3000 noch was übrig bleiben. Interessanter wären Spiele jüngeren und älteren Alters, um zu sehen wie sich das verhält. Man kann das aber auch im Kontrollmenü einstellen und mehr Budget Richtung GPU verschieben. Aber so oder so ist das für Intel ein großer Sprung.

3dmark03

2537M-HD3000: 6980 Punkte
E-350-HD6310: 5705 Punkte

3dmark05

2537M-HD3000: 4331 Punkte
E-350-HD6310: 3596 Punkte

http://www.notebookcheck.com/Test-Samsung-900X3A-Subnotebook.49899.0.html
http://www.notebookcheck.com/AMD-Radeon-HD-6310.40948.0.html
 
Schon blanke Ironie: Obgleich (oder gerade weil) die CPU im Core-i5 deutlich schneller ist (hier ist's Faktor 1,6 bis 2,8), benötigt ULV-Sandy Grafikbenchmarks mit niedirger CPU-Last, um höhere Grafikbenchmarkwerte zu liefern, als Zacate.
 
Schon blanke Ironie: Obgleich (oder gerade weil) die CPU im Core-i5 deutlich schneller ist (hier ist's Faktor 1,6 bis 2,8), benötigt ULV-Sandy Grafikbenchmarks mit niedirger CPU-Last, um höhere Grafikbenchmarkwerte zu liefern, als Zacate.


Ich halte es für nicht gerade seriös ohne Spielebenchmarks jetzt schon Rückschlüsse zu ziehen. Das hat beim Arrandale ULV schon nicht geklappt. Ich habe nicht umsonst die Werte von notebookcheck bislang nirgends erwähnt, weil mir synthetische Benchmarks nicht sonderlich zusagen. Und natürlich wird die deutlich schnellere CPU öfter helfen in Spielen, selbst wenn die GPU ein klein wenig langsamer wäre.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten