AMD AM4 Plattform für Zen CPU und APU

Ich habe schon einen ~50" 4k Fernseher gesehen. Und ich sehe da keinen Unterschied.

Das ist das Problem, weshalb auch HDMI 2.0 ziemlich unsinnig ist. Bei der gängigen Entfernung im Wohnzimmer kannst du auch schon bei Full HD keine Pixel mehr erkennen. Das gibt das menschliche Auge einfach nicht mehr.

Trotzdem wird es immer Leute in Foren geben, die sich selbst und anderen das Gegenteil einreden wollen. Das sind die gleichen, die auch behaupten, den Unterschied einer 320 kbit/s MP3- zur CD sofort hören zu können. (obwohl nicht mal Berufsmusikern irgendeinen Unterschied hören :o)

Ich glaube, um diesen unerschütterlichen Glauben an die 8K-Auflösung des Fernsehers und die eigenen Sehfähigkeiten aufzulösen, müsste man massenhaft Blindtests machen.

Die Vorstellung wäre durchaus lustig, wenn Mediamarkt verpflichtet werden könnte, jeden Käufer eines 4K-Fernsehers einen Blindtest aus einer realistischen Entfernung machen zu lassen. Natürlich erst NACH seinem Kauf, damit der Lerneffekt lange anhält *buck*
 
Zuletzt bearbeitet:
Ist so ähnlich mit der Farbtiefe.
Ob nun True Color oder Deep Color, also 8 oder 10Bit pro Farbkanal, kann man eigentlich nicht unterscheiden.
Wenn ich dann meinen Laptopbildschirm neben meinem Desktopbildschirm sehe, dann liegt die Diskrepanz ganz woanders als in der Farbtiefe.
Der eine ist grünstichig und der andere blaustichig. Beide sind unkalibriert in bezug auf den RGB-Farbraum. Wie fast alle Monitore.
MfG
 
Das ist das Problem, weshalb auch HDMI 2.0 ziemlich unsinnig ist. Bei der gängigen Entfernung im Wohnzimmer kannst du auch schon bei Full HD keine Pixel mehr erkennen. Das gibt das menschliche Auge einfach nicht mehr.

Alles eine Frage des Bildmaterials.
Nimm ein Spiel ohne FSAA und du siehst die Pixel ganz fix anhand des Kantenflimmerns, selbst bei animierten Filmen kann man bei nativem 4K Material durchaus einen Unterschied erkennen gegenüber FullHD, nicht zuletzt weil der Matsch Faktor durch die Skalierung entfällt. Bei klassischen Filmen konnte man sich meiner Meinung nach aber auch schon FullHD fast sparen weil sie meist von Anfang an keine so hohe Bildschärfe haben und der Unterschied ganz einfach unter geht.
 
Ist so ähnlich mit der Farbtiefe.
Ob nun True Color oder Deep Color, also 8 oder 10Bit pro Farbkanal, kann man eigentlich nicht unterscheiden.
Wenn ich dann meinen Laptopbildschirm neben meinem Desktopbildschirm sehe, dann liegt die Diskrepanz ganz woanders als in der Farbtiefe.
Der eine ist grünstichig und der andere blaustichig. Beide sind unkalibriert in bezug auf den RGB-Farbraum. Wie fast alle Monitore.
MfG
Moment, der Unterschied zwischen 8-Bit und 10-Bit Farbtiefe, sind vielen mehr aufgefallen als von 4K auf 8K mit 8-Bit Farbtiefe.
Das Quell-Material muss "hochwertig" sein, sonst sieht man auch auf einem 16K keinen Unterschied.
Also Finger weg von Kameras mit "DiVX ready" da muss 8K@120Hz stehen. ;D
 
Kommt mir das nur so vor oder macht gigabyte und asus Asrock nach wegen wifi Modul.
 
Das ist ein Standard WiFi Modul von Intel und zum Glück machen sie nicht AsRock bei ITX nach sonst hätten sie auch kein USB 3.1 Gen2 ;)
 
kennste wayne, usb lol ist auch so wichtig tastatur&maus mehr hängt da nicht dran bei den meisten, ich hätte lieber mehr lanes für m.2.
 
Tatsache ist AsRock nutzt nicht alle Features der Plattform bei ITX, ob das einem wichtig ist kann ja jeder selber entscheiden. Und wenn du mehr PCIe Lanes haben möchtes darfst du kein AM4 kaufen. Da gibt es 16 für PEG, 4 für M.2/SATA und 4 zum Chipsatz.
 
sagt wer? es gibt eine maximale an anzahl an lanes, wie man sie verwaltet ist dem hersteller überlassen.
 
Wie viele Lanes zum M.2-Slot führen ist doch egal.

In der Praxis merkt man nicht mal den Unteschied zwischen SATA und NVMe, siehe c't. Von mehr Lanes merkt man dann erst Recht nichts. Ich meine, so lange es für das gleiche Geld etwas scheinbar "besseres" gibt, kann man das schon machen.

Man sollte sich nur nicht einreden lassen, das unbedingt zu brauchen oder das zum Kriterium machen. Da wären andere Dinge (mit Relevanz in der Praxis) wichtiger.
 
Zuletzt bearbeitet:
Genau ... so sieht es aus.
Der gefühlte Unterschied zwischen meiner älteren Samsung 840 Pro SATA-SSD und der jetzigen 960 EVO M.2-SSD ist wirklich gering.
Ich hatte die 960 EVO auch schon mal in dem M.2 Slot, der mit PCIe 2.0 angebunden ist. Da gibt es nur noch messbare Unterschiede, mehr nicht.

Gruß Lehmann
 
Bei dem derzeitigen Stand der bezahlbaren Technik würde auch ein M.2 Slot mit PCIe 3.0 1x Anbindung reichen. Bei SATA3 gehen ungefär 600 MB/s durch die Leitung, bei PCIe 3.0 1x sind es schon 985 MB/s (brutto). Ich denke das ein M2 Slot mit 2 Lanes durchaus reichen würde. Dann lieber 2x M2 mit 2 Lanes als 1 M2 mit 4.
 
Bei nur 1 Lane kann man auch bei SATA bleiben, der Vorteil eine PCIe x4 SSD liegt beim seq. Lesen und Schreiben. Um davon Nutzen zu ziehen muss man entsprechende Anwendungen und Vorraussetzungen haben. Wer z.B. mit diversen VMs hantiert wird bestimmt nicht schreiben das man in der Praxis nichts merkt.
 
Wer z.B. mit diversen VMs hantiert wird bestimmt nicht schreiben das man in der Praxis nichts merkt.

Doch, schon, weil das System in der VM auch seine Zeit zum Starten braucht.

Viel sinnvoller als 1x 4 Lanes wären 2x 2 Lanes. Leider kriegt man das den weniger informierten Leuten nicht vermittelt. Ich fürchte wirklich, dass diese Leute ohne mit der Wimper zu zucken einen 8K-Monitor kaufen werden. Weil sie glauben, dass "mehr" einfach besser sein muss. Der Bezug zur Realität geht so langsam verloren.
 
Doch, schon, weil das System in der VM auch seine Zeit zum Starten braucht.

Viel sinnvoller als 1x 4 Lanes wären 2x 2 Lanes. Leider kriegt man das den weniger informierten Leuten nicht vermittelt. Ich fürchte wirklich, dass diese Leute ohne mit der Wimper zu zucken einen 8K-Monitor kaufen werden. Weil sie glauben, dass "mehr" einfach besser sein muss. Der Bezug zur Realität geht so langsam verloren.

Nur weil man etwas optisch nicht wahrnimmt heisst es nicht das man es nicht merkt. Es ist leicht vermessen allen zu unterstellen das sie davon eh nicht profitieren etc.
Mir würden die 2*2 vermutlich auch reichen, aber starte mal ein paar Tools die nicht der Durchschnittsnutzer startet und teste mal die Unterschiede zwischen SataSSD und NVME über PCIe. Das sich vieles am Ende nicht 6mal so schnell anfühlt ist eine Sache, das es aber dennoch rasante Unterschiede gibt die andere. Ich nehme an die UE4 wird sich freuen, alle Nutzer die Visual Studio nutzen müssen vermutlich auch.

Das MP3 nicht besser abgespielt werden ist vermutlich klar. Ich werde demnächst mal Total War Wahammer testen. Die Ladezeiten zwischen den Gefechten dort sind gigantisch, ich wette das ich da über 4 Lanes auch glücklich bin. (allerdings blieb bisher immer Zeit dazwischen Kaffee zu kochen :))

Aber ganz grob hätte ich auch lieber 2 Slots mit 2*2 als einen Slot.
 
PCIe 3.0 x4 M.2 und U2 ist aber der Standard der sich durchgesetzt hat, wenn mir 1 x 4 nicht reicht nehme ich halt 2 x 4.

Das ist - um nicht ganz Off Topic zu werden - auch bei AM4 möglich wenn man es hinnimmt das die Grafikkarte mit x 8 arbeitet (PCIe 20 Euro Adapter Karte im 2. PEG Slot).

Größere HEDT und Serverplattformen bieten da noch mehr Lanes und Möglichkeiten.

Unter dem Strich muss das wie immer jeder für sich entscheiden was er haben will und wieviel er dafür ausgeben kann.
 
Zwei Dinge zu AM4-Boards:
Zum einen hat Asus mit dem Crosshair VI Extreme ein Monster-Board mit 14 Phasen auf den Markt gebracht. Dass es auch Kaffee kochen kann, muss nicht extra erwähnt werden:
https://geizhals.de/asus-rog-crosshair-vi-extreme-90mb0ud0-m0eay0-a1671233.html?hloc=at&hloc=de

Zum anderen liegen die günstigsten Boards mit HDMI jetzt auf der 50 €-Marke. Das ASRock A320M-HDV unterstützt CPUs bis 65 W, was ich gut finde. Die "Einschränkung" ist doch minimal, man hat auch bei Ryzen noch genug Auswahl bis 65 W. Dafür kann der Hersteller die Spannungsversorgung kleiner auslegen. Wobei hier trotzdem 7 Phasen angegeben werden. Wozu?
https://geizhals.de/asrock-a320m-hdv-90-mxb3t0-a0uayz-a1607957.html
 
Zuletzt bearbeitet:
Zum anderen liegen die günstigsten Boards mit HDMI jetzt auf der 50 €-Marke. Das ASRock A320M-HDV unterstützt CPUs bis 65 W, was ich gut finde. Die "Einschränkung" ist doch minimal, man hat auch bei Ryzen noch genug Auswahl bis 65 W. Dafür kann der Hersteller die Spannungsversorgung kleiner auslegen.
Zwei DIMM-Slots hätte er trotzdem noch spendieren können. Dafür den VGA-Anschluss entsorgen. Ist wohl angesichts des PS/2-Anschlusses wirklich für POS und Office gedacht. Nur ein Ryzen ist dann auch fehl am Platz. A12-9700 / 9800 rein und gut ist.
 
VGA finde ich auch unnötig. Kann man entsorgen und wenn es wirklich sein muss über einen DVI-Adapter gehen.

Zwei DIMM-Slots sind bei DDR4 kein Problem, weil du nur 8 GB-Kits kaufen kannst. Auch Einzelmodule sind quasi nur ab 4 GB aufwärts erhältlich [es gibt ein einziges 2 GB-Modul, was nur 2 Anbieter gelistet haben => Auslaufmodell]
Ein Office-Rechner wird dann entweder mit 4 GB (1 Riegel, aufrüstbar) oder 8 GB (Aufrüstung unnötig) konfiguriert. Selbst ich, der immer was höherwertiges als A320 kaufen würde, brauche beim RAM nur 8 GB.

Bei PS/2 frage ich mich, ob das in Firmen wirklich als "legacy" angesehen wird oder ob sie bewusst auf das problemlose PS/2 setzen. Bei meiner USB-Tastatur kommt es immer wieder vor, dass ich hinter den Rechner kriechen muss, um sie beim Booten aus- und wieder einzustecken. Das ist mir bei PS/2 nie passiert. Wenn deshalb in einer Firma die IT gerufen wird, kostet das Geld.
 
Zuletzt bearbeitet:
Zurück
Oben Unten