Artikel Neuer Artikel: Mainboard - ASUS E35M1-I DELUXE / AMD E-Serie APU

heikosch

Grand Admiral Special
Mitglied seit
06.02.2008
Beiträge
4.700
Renomée
2.096
Standort
Hagenow
  • BOINC Pentathlon 2011
<center><img src="http://www.planet3dnow.de/photoplog/images/49616/1_Titelbild.jpg" border="1" alt="Fusion"></a></center>
Bereits Anfang Januar präsentierte AMD die ersten Modelle der neuen Architektur, die unter der kryptischen Bezeichnung APU die Welt der energiesparenden PCs revolutionieren soll. Nach vielen Wochen herrscht allgemeine Ernüchterung bei den potenziellen Kunden. Die Produkte sind alle angekündigt, aber scheinbar nicht ausreichend lieferbar. So könnte man die Veröffentlichung der Zacate- und Ontario-APU durchaus als Papierlaunch bezeichnen.
Knapp sechs Wochen hatte es gedauert, bis nun ein Mainboard verfügbar war. Lieferschwierigkeiten und Vertröstungen der Hersteller hatten ein Ende. ASUS gab uns schließlich die Rückmeldung, dass wir ein Exemplar ihres Top-Modells E35M1-I DELUXE mit dem aktuellen Topmodell der APUs, der E-350, bekommen.

<b>Zum Artikel:</b> <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=392803">Mainboard - ASUS E35M1-I DELUXE / AMD E-Serie APU</a>
 
Habe den Test überflogen, aber keinen Hinweis darauf gefunden wie es eigentlich mit der Bitstreamübertragung der Audiosignale über Hdmi zum AVR oder TV aussieht.
Weil für den avisierten Markt der HTPC's sollte dies nun elementar sein.
Was nützt mir die beste HD-Wiedergabe, wenn der Ton nur als PCM oder mittels Analog-Audio zum Receiver geht.
Vielleicht könnt Ihr in Zukunft bitte mehr darauf eingehen? Insbesondere dann, wenn Mainboardtest für HTPC's durchgeführt werden.
Als Sahnehäubchen wäre ein Test ob der 3D-Standard (BluRay 3D, HDMI 1.4) unterstützt wird. Nvidia macht es gerade echt Klasse. (Wenngleich ich dies nicht als ein Muss ansehe.)
 
Hallo,
im Artikel liest es sich so, als würde nur beim Zacate Cyberlinks PProducer die Shader nicht nutzen. Allerdings nutzt Cyberlink generell nur den UVD, wer über die Shader enkodieren will, der muss auf andere Softwareschmieden ausweichen (z.B. Arcsoft).
Genau deswegen ist Intels QuickSync ja auch so viel schneller als AMD oder NVidia, weil da die Hardware auch komplett genutzt wird.
M.f.G.

Nachtrag: @Bond.007: HD Passthrough geht problemlos laut Anandtech, 3D hingegen nicht (weil nur HDMI 1.3). NVidia bietet vielleicht 3D an, aber passthrough halt nicht (nur Bitstreaming, und was da genau gestreamt wird, kann man nicht sagen; könnte auch nur 16Bit oder nur 96KHz sein, also kein volles HD mehr).
Die Kritik am Verbrauch im Test kann ich übrigens nicht nachvollziehen. Ein Intel Vergleichssystem (mit zwangsweise ION2, mit Intel IGP ist es nicht vergleichbar) braucht laut mehreren Tests klar mehr, obwohl es nicht wirklich schneller ist.
 
Zuletzt bearbeitet:
Im Test wird auch geschrieben, dass die 3D-Fähigkeit eingespart wurde. Trotz UVD3 ist die Wiedergabe nicht möglich, da keine Ausführung implementiert wurde. Zusätzlich setzt man auf HDMI 1.3 und schließt es sowieso aus.
Ich hätte dir gerne Antworten auf die Fragen bezüglich der Ton-Übertragung gegeben, aber ich habe weder einen AVR noch einen passenden TV zur Verfügung. Mein Samsung T220HD ist dafür auch nicht das geeignete Beispiel. Und TV und AVR für einen Test kaufen ???

Der Test sollte auch nicht unbedingt die HTPC-Fähigkeiten im Kern demonstrieren. Hauptaugenmerk lag erst einmal auf der APU, was kann sie, wo geht die Leistung bergab. Wir werden das Thema noch weiter verfolgen, weshalb ASUS uns das Mainboard auch zu weiteren Tests hinterlassen hat. :) Ich denke, dass Dr@, der sich weiter darum kümmern wird, dir in diesem Punkt vielleicht auch noch Informationen zukommen lassen kann.

Eigentlich nutzt CyberLink APP für seine Programme, hat aber diese Funktion für die APU deaktiviert.
 
Der hohe Idle-Stromverbrauch ist schon enttäuschend. Auf Atom+Ion Niveau, was nicht sonderlich gut ist. Da wurde wohl zu viel gespart, schade.

Ich verstehe nicht warum kein Hersteller auf den C-50 setzt, in Netbooks hat der, Display abgezogen, einen idle Verbrauch von 4-6W.
 
Der hohe Idle-Stromverbrauch ist schon enttäuschend. Auf Atom+Ion Niveau, was nicht sonderlich gut ist. Da wurde wohl zu viel gespart, schade.

Ich verstehe nicht warum kein Hersteller auf den C-50 setzt, in Netbooks hat der, Display abgezogen, einen idle Verbrauch von 4-6W.

7.3Watt im Idle
http://www.xbitlabs.com/articles/cpu/display/amd-e-350_12.html#sect0

ist doch nicht schlecht, oder?

Natürlich ist das hier ohne AC/DC Konvertierung, aber es zeigt was mit nem E350 möglich ist! (Es wird auch ein anderes Mainboard verwendet..)
Und ist, weil jeder ein anderes Netzteil verwendet, auch die einzige sinnvolle Vergleichsangabe zwischen verschiedenen Mainboards / Plattformen etc. Wie effizient ein Netzteil ist, ist eine andere Frage..

EDIT: Von wegen HD Audio: funktioniert mit meinem Onkyo Receiver und HDMI perfekt (damit meine ich nicht PCM, das geht zwar auch..)
 
Zuletzt bearbeitet:
Der hohe Idle-Stromverbrauch ist schon enttäuschend. Auf Atom+Ion Niveau, was nicht sonderlich gut ist. Da wurde wohl zu viel gespart, schade.

Ich verstehe nicht warum kein Hersteller auf den C-50 setzt, in Netbooks hat der, Display abgezogen, einen idle Verbrauch von 4-6W.

Der E350 wird im Laptop auch nicht viel mehr im Idle verbrauchen, du darfst nicht vergessen, dass auf einem Mainboard für den Heimanwender nicht alles auf Stromverbrauch getrimmt ist wie in einem Laptop. ;)
 
Danke für den Test :)


@kiri
Da wurde nicht zuviel gespart.Es liegt an der verwendeten Hardware und an den Stromspareinstellungen.
Das energieeffizienteste MB ist momentan das MSI E350IA-E45.Idle =11,8W
Quelle


Die Plattform ist genial.Solch ein System reicht total als Bürorechner.Mehr braucht der "normale Mensch" doch gar nicht.Eine SSD ist meiner Meinung aber ein muss.Erst dann macht`s richtig Spass:)
 
Das ergibt bei so einem Mainboard aber keinen Sinn.

Bei normalen Desktop-Mainboards ok, da kann man CPUs drauf stecken die deutlich mehr oder weniger Strom benötigen.. aber hier.. da ist alles aufgelötet wie bei einem Laptop auch. Ok, der PEG Slot muss 75W liefern können, aber sonst gibt es keine Unterschiede.

Wenn man eine angebliche Stromsparplattform baut, sollte die auch auf Stromsparen ausgelegt sein und nicht nur auf möglichst billige Produktion, alles andere ist bei dem hohen Preis einfach nur Abzocke.
 
Habe den Test überflogen, aber keinen Hinweis darauf gefunden wie es eigentlich mit der Bitstreamübertragung der Audiosignale über Hdmi zum AVR oder TV aussieht.
Weil für den avisierten Markt der HTPC's sollte dies nun elementar sein.
Was nützt mir die beste HD-Wiedergabe, wenn der Ton nur als PCM oder mittels Analog-Audio zum Receiver geht.
Vielleicht könnt Ihr in Zukunft bitte mehr darauf eingehen? Insbesondere dann, wenn Mainboardtest für HTPC's durchgeführt werden.
Als Sahnehäubchen wäre ein Test ob der 3D-Standard (BluRay 3D, HDMI 1.4) unterstützt wird. Nvidia macht es gerade echt Klasse. (Wenngleich ich dies nicht als ein Muss ansehe.)

Bei Anandtech hatte ich gelesen das DTS-HD und Dolby TrueHD Bitstreaming möglich ist. :) Das kann inzwischen auch jede Radeon HD 5000 Karte. Ich finde es auch schade das nicht dirket HDMI 1.4 unterstützt wird allerdings haben ja die Boards einen PCIe Anschluss so das man irgendwann auch mal ne kleine Grafikkarte nachrüsten kann. (für mich ist 3D @home noch kein Thema kommt aber mittelfristig sicher)

Die Browsertest finde ich wirklich klasse. Vielen dank für den tollen Test. *greater*
 
Zuletzt bearbeitet:
EDIT: Von wegen HD Audio: funktioniert mit meinem Onkyo Receiver und HDMI perfekt (damit meine ich nicht PCM, das geht zwar auch..)

Dann bist Du der erste der dass sagt!
Bislang habe ich darüber nur nebulöse Aussagen gefunden, selbst Amd sagt ja das nur 2-Kanal Bitstream gehen soll.(Was auch immer dabei rauskommt.)
Kannst Du mir sagen welches Mobo und welche APU Du dafür nutzt?
Für mich wäre 7.1 Bitstream (DTS HD Ma/Hdr und DolbyDigital TrueHD) wichtig, kannst Du es so bestätigen?
.
EDIT :
.

[P3D] Crazy_Chris;4398898 schrieb:
Bei Anandtech hatte ich gelesen das DTS-HD und Dolby TrueHD Bitstreaming möglich ist. :) Das kann inzwischen auch jede Radeon HD 5000 Karte. Ich finde es auch schade das nicht dirket HDMI 1.4 unterstützt wird allerdings haben ja die Boards einen PCIe Anschluss so das man irgendwann auch mal ne kleine Grafikkarte nachrüsten kann. (für mich ist 3D @home noch kein Thema)

Kannst Du mir den Test verlinken?
Danke! :)
 
[P3D] Crazy_Chris;4398898 schrieb:
Ich finde es auch schade das nicht dirket HDMI 1.4 unterstützt wird allerdings haben ja die Boards einen PCIe Anschluss so das man irgendwann auch mal ne kleine Grafikkarte nachrüsten kann.
HDMI 1.4 macht bei den Boards keinen Sinn, da die APU kein 3D kann, da die UVD3 Engine bei diesem Chip beschnitten ist.
 
HDMI 1.4 macht bei den Boards keinen Sinn, da die APU kein 3D kann, da die UVD3 Engine bei diesem Chip beschnitten ist.

Ach deshalb ist das so. (Hab den Artikel bisher nur überflogen, wird heute Abend komplett gelesen. :-[)
 
HDMI 1.4 macht bei den Boards keinen Sinn, da die APU kein 3D kann, da die UVD3 Engine bei diesem Chip beschnitten ist.

Schon schade, dass gerade bei diesen neuen Apu's schon wieder um Features beschnitten werden, die demnächst Standard sein werden. Wobei der BluRay 3D/ Hdmi 1.4 ja eigentlich ein schon industrieweiter Standard ist.
Bei dem Link von @[P3D] Crazy_Chris ist mir "Asrock VISION 3D" aufgefallen, der alles das bietet was eigentlich ein Htpc heutzutage bieten sollte. Aber leider nur Intel und NVidia. :( (Wenn es Amd nicht endlich mal vernünftig anpackt, dann wird es eben halt ne Intel/Nvidia-Kombination)
 
Ich bin mir nicht 100%ig sicher ob das Feature bewußt entfernt wurde, oder ob die GPU (APU) nicht einfach nur zu lahm für 3D ist. Die CPU kann der GPU in diesem Falle ja nicht viel Arbeit abnehmen, weil die selbst damit überfordert wäre.
 
Also die Radeon HD 6450 hat HDMI 1.4a und kann auch 3D. Die wird jetzt auch nicht wesentlich schneller als die integrierte APU sein. Die Karte ist derzeit aber nur für OEMs verfügbar.
 
Der hohe Idle-Stromverbrauch ist schon enttäuschend. Auf Atom+Ion Niveau, was nicht sonderlich gut ist.
Hallo,
das MSI Board bei Anandtech hat mit/trotz gewaltigst überdimensioniertem Netzteil im Idle 24,2W verbraucht, Zotac ION hat 34,9W verbraucht. Sind über 10W Differenz zum ION1. ION2 braucht laut Anandtech mehr als ION1, also ist da die Differenz noch größer.
Insofern ist der Verbraucht klar besser als bei einem vergleichbaren Atom.

@heikosch:
Kann sein, dass Cyberlink die Beschleunigung über APP laufen lässt, generell wird aber immer nur der UVD zur Dekodierung genutzt (aber eben über APP angesprochen). Die Rekodierung läuft bei Cyberlink immer komplett über die CPU ab (außer bei SandyBridge; was Intel dafür gezahlt hat, will ich gar nicht wissen...), ist auch bei mir so (Cyberlink MediaSuite 8 mit einer 6950). Daher ist es auch praktisch egal, welche Grafikkarte man da hat. Eine 6970 ist bei Cyberlink nicht schneller als eine 6570. Bei Arcsoft sieht das ganz anders aus, siehe hier. Da werden die Shader zum rekodieren genutzt, entsprechend ist Brazos im MediaConverter 7.1 auch erheblich schneller als in Cyberlinks MedaiShow.
M.f.G.
 
Ich bin mir nicht 100%ig sicher ob das Feature bewußt entfernt wurde, oder ob die GPU (APU) nicht einfach nur zu lahm für 3D ist. Die CPU kann der GPU in diesem Falle ja nicht viel Arbeit abnehmen, weil die selbst damit überfordert wäre.

Hoffen wir dass Amd dies in der nächsten Version mal vernünftig anpackt und dieses Feature richtig implementiert. Sonst wird Nvidia den 3D-Markt für sich entscheiden und Amd hat hier dann nichts mehr zu sagen.
Ich kann noch ein wenig warten, mein derzeitiger PC macht es z.Z. noch recht gut(3D und HD-Bitstream). Aber ein kleiner Htpc, der deutlich sparsamer ist und auch diese Features hat wäre schon echt klasse.
 
Die notwendige Unterstützung für den MVC-Codecs wurde aus der UVD-Einheit entfernt. Irgendwo hatte ich mal gelesen, dass AMD dies absichtlich getan hat um Die-Fläche zu sparen, weil die Bobcat-Kerne für die restlichen Aufgaben eh zu schwach wären.

Alles was mit HD-Audio-Formaten zu tun hat kann ich nicht testen, aber ich werde mir mal die Tonausgabe über S/PDIF ansehen.
 
Hoffen wir dass Amd dies in der nächsten Version mal vernünftig anpackt und dieses Feature richtig implementiert.
Hallo,
da die 28nm Modelle wohl keine 12 Monate entfernt sind, kann ich mir vorstellen, dass die auch 3D und HDMI 1.4 bekommen. Bis dahin dürfte der Markt noch nicht so groß sein, dass AMD hier unmittelbaren Handlungsbedarf sieht.
Die Aussage von Dr@ kann ich jedenfalls bestätigen, das habe ich auch so gelesen (stand evtl. auf Anandtech). HD Passthrough funktionierte bei denen in der Review wie gesagt problemlos mit Dolby TrueHD und DTS HD MA und ist Bitstreaming sowieso vorzuziehen.
M.f.G.
 
@heikosch:
Kann sein, dass Cyberlink die Beschleunigung über APP laufen lässt, generell wird aber immer nur der UVD zur Dekodierung genutzt (aber eben über APP angesprochen). Die Rekodierung läuft bei Cyberlink immer komplett über die CPU ab (außer bei SandyBridge; was Intel dafür gezahlt hat, will ich gar nicht wissen...), ist auch bei mir so (Cyberlink MediaSuite 8 mit einer 6950). Daher ist es auch praktisch egal, welche Grafikkarte man da hat. Eine 6970 ist bei Cyberlink nicht schneller als eine 6570. Bei Arcsoft sieht das ganz anders aus, siehe hier. Da werden die Shader zum rekodieren genutzt, entsprechend ist Brazos im MediaConverter 7.1 auch erheblich schneller als in Cyberlinks MedaiShow.
M.f.G.

Das kann nicht richtig sein, was du da sagst. Hier testet Toms Bude die aktuellen HD 6900 mit Cyberlink-Sofware.

http://www.tomshardware.com/reviews...d-app-nvidia-cuda-intel-quicksync,2839-7.html

Es funktioniert nur eben nicht gescheit.
 
Ich hatte ArcSoft einmal kontaktiert, wie es aussieht, ob sie uns auch etwas stellen würden, aber leider keine Antwort erhalten. CyberLink war da sehr entgegenkommend und hat nicht viele Fragen gestellt, deswegen hatte ich diese Programme in den Test aufgenommen. Ich muss zugeben, dass ich mich über die Rahmenbedingungen nicht weiter informiert hatte. Da AMD selbst in den Präsentationen und auch im Netz auf eben die Partner verwiesen hat (ArcSoft, CyberLink...) habe ich mich dort eben einmal umgesehen, was möglich ist.
Die beschleunigten Filter sind aber schon beeindruckend, denn das Problem ist für mich immer beim Videobearbeiten gewesen, dass die Vorschau nur unzureichend gerendert hat... aber meine letzten Tätigkeiten sind ja auch schon ein paar Jahre her. :]
 
Das kann nicht richtig sein, was du da sagst. Hier testet Toms Bude die aktuellen HD 6900 mit Cyberlink-Sofware.
Hallo,
"Hardware Decode & APP Encode: 2:29 Minuten:Sekunden"
"Hardware Decode & Software Encode: 2:28 Minuten:Sekunden"
Also mit UVD und APP Enkodierung wäre das Ganze eine Sekunde langsamer als mit UVD Dekodierung und CPU Enkodierung...
Da stimmt wohl was gewaltig nicht, denn eine Beschleunigung ist das eben nicht, sondern eine Verlangsamung.
Allerdings scheinen die eine andere Version zu nutzen, jedenfalls habe ich den Schalter nicht gefunden, wo man das getrennt einschalten kann.
M.f.G.
 
Zurück
Oben Unten