Gedanken zu 4K-Auflösungen - Die Nachfolge von Full-HD

MusicIsMyLife

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.02.2002
Beiträge
15.579
Renomée
2.567
Standort
in der Nähe von Cottbus
  • QMC Race
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • BOINC Pentathlon 2020
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21226&w=o" alt="Titelbild 4K2K - Die Nachfolge von Full-HD" border="1"></center>

Full-HD ist den Meisten ein Begriff. 1920 x 1080 hat sich im PC- und TV-Bereich durchgesetzt und stellt eine der gängigsten Auflösungen dar. Doch viele Grafikkarten-Reviews unserer Kollegen zeigen, dass für aktuelle Grafikbeschleuniger die Full-HD-Auflösung, auch 1080p genannt, keine Herausforderung mehr darstellt. Die vorhandene Rohleistung wird von vielen Nutzern in immer höhere Bildqualität investiert bzw. in intern höhere Auflösungen, welche für die native Monitorauflösung herunter gerechnet wird (Downsampling).

Doch das alles zeigt nur, dass Full-HD nicht mehr die Zukunft sein kann. Aber was kommt danach? 27-Zoll-Monitore mit einer nativen Auflösung von 2560 x 1440 sind mittlerweile in einem bezahlbaren Preissegment angekommen, 30 Zoll mit 2560 x 1600 sind nach wie vor Geräte mit Seltenheitswert.

Spätestens seit der Vorstellung von Apples iPad 3 mit hochauflösendem Retina-Display ist jedoch Bewegung in die Auflösungs-Frage gekommen. Auf weniger als 10 Zoll Bildschirmdiagonale stellt Apple den Nutzern eine 4:3-Auflösung von 2048 x 1536 Pixeln zur Verfügung, was eine deutlich höhere Pixeldichte als bei Full-HD ist.

Wir haben uns einmal Gedanken um den (möglichen) Nachfolger von Full-HD gemacht und die Hürden betrachtet, die auf dem Weg bis dorthin noch überwunden werden müssen.

Viel Vergnügen beim Lesen!
[break=Was bedeutet 4K2K?]
4K2K hat sich bisher als Synonym für die Kantenlänge der künftigen High-End-Auflösung durchgesetzt. K für Kilo, Äquivalent für 1.000, bedeutet 4K2K also eine Auflösung von rund 4000 x 2000. Wobei es genau genommen zwei Auflösungen gibt, welche dieses ungefähre Seitenverhältnis aufweisen. Vor einigen Wochen wurden diese <a href="http://www.itu.int/net/pressoffice/press_releases/2012/31.aspx" target="_blank">offiziell als Standard verabschiedet</a>.

Auf der einen Seite handelt es sich um die Auflösung von 3840 x 2160. Umgangssprachlich scheint sich bereits die Bezeichnung 2160p durchzusetzen, was ebenfalls an die 1080p von Full-HD angelehnt ist. Auch QFHD, also <b>Q</b>uad <b>F</b>ull-<b>HD</b>, wird für diese Pixelverhältnis als Bezeichnung verwendet, da sowohl die horizontale als auch die vertikale Auflösung exakt verdoppelt wird. Wir sprechen also über eine glatte Vervierfachung der Pixelanzahl. Das nachfolgende Bild verdeutlicht die Größenunterschiede in Sachen Bildpunktanzahl.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21220&w=o" alt="Größenverhältnisse Full-HD und 4K2K" border="1"></center>

Ein Vorteil von 3840 x 2160 ist zudem, dass selbst bisheriger 720p-Content, welcher ein Verhältnis von 1280 x 720 Bildpunkten aufweist, problemlos auf der neuen 4K-Auflösung wiedergegeben werden kann. Denn wird jeder 720p-Bildpunkt in Höhe und Breite verdreifacht, erhält man exakt die besagten 3840 x 2160 Bildpunkte. Somit ist die Abwärtskompatibilität von 4K2K sowohl mit 1080p- als auch mit 720p-Inhalten gegeben.

Auf der anderen Seite wird 4096 x 2160 zum Einsatz kommen, was ein "krummes" Seitenverhältnis von 256:135 darstellt. Diese Auflösung dürfte vor allem bei zukünftigen TV-Geräten interessant werden. Panasonic stellte <a href="http://www.tvfacts.de/artikel/739-ces-2010-152-zoll-3d-plasma-4k2k-aufloesung.html" target="_blank">im Rahmen der CES 2010</a> bereits ein entsprechendes Gerät als Machbarkeitsstudie vor. Sollte diese Auflösung jedoch auch im PC-Bereich Fuß fassen, so bestehen aufgrund des ungewöhnlichen Seitenverhältnisses weitere Hürden, die überwunden werden wollen. Und eines lässt sich zur neuen Spezifikation einwandfrei feststellen: Auflösungen im 4:3-, 5:4- oder 16:10-Format werden wohl aussterben.

Doch beginnen wir bei unserem Blick auf diese Hürden mit denen, welche bereits bei der Produktion auftreten.
[break=Kennzahlen bei der Herstellung]
<center><b>Bildpunkte</b></center>
Ein aktueller 27-Zoll-Monitor mit einer Auflösung von 2560 x 1440 Pixeln besitzt insgesamt knapp 3,7 Millionen Bildpunkte auf einer Fläche von rund 2.000 Quadratzentimetern, was einen Pixelabstand von etwa 0,23 Millimetern ergibt. Um genau zu sein sprechen wir von über vier Pixeln pro Millimeter. Würde man ein 27-Zoll-Gerät mit 3840 x 2160 Bildpunkten herstellen, so müsste man knapp 8,3 Millionen Bildpunkte auf der gleichen Fläche unterbringen. Die Pixelanzahl läge exakt 2,25 Mal so hoch wie aktuell, was einen Abstand von nur rund 0,156 Millimetern ergibt, oder anders herum 6,4 Pixel je Millimeter.

Solch eine Steigerung der Pixelanzahl und damit einhergehend der Dichte bedeutet für die Panelhersteller einen Balanceakt: Je mehr Bildpunkte, desto höher die Wahrscheinlichkeit von defekten Pixeln. Da gängige Bildschirme nach der <a href="http://de.wikipedia.org/wiki/ISO_13406-2" target="_blank">ISO-13406-2-Norm</a> mit Pixelfehlerklasse II klassifiziert werden, bedeutet dies bereits bei unserem aktuellen 27-Zoll-Modell mit 2560 x 1440 Bildpunkten bis zu 14 komplett defekte und bis zu 18 teildefekte Pixel. Behält man diese Norm bei, so reden wir über bis zu 32 defekte und bis zu 41 teildefekte Pixel bei 4K2K. Eine deutliche Steigerung (abermals um etwa den Faktor 2,25), welche trotz deutlich kleinerer Bildpunkte zu einem unangenehmen Nutzungsgefühl führen kann. Denn ISO 13406-2 regelt lediglich die reine Anzahl an Fehlern je eine Million Pixel, nicht aber deren Lage auf dem Panel selbst.

Zwar kann man nun argumentieren, dass selbst bei Ausschöpfung der Anzahl an defekten Pixeln und direkt benachbarter Position der blinde Fleck auf dem Monitor genau so groß wäre wie bisher (aufgrund der kleineren Bildpunkte), bei Ausschöpfung der Anzahl und gleichzeitig wilder Verteilung auf dem Monitor könnte das Panel im schlimmsten Fall jedoch sehr "löchrig" wirken. Und wer möchte schon über 70 (teil-)defekte Bildpunkte auf einem nagelneuen Monitor haben?

Um dem Endverbraucher auch für hochauflösende Monitore eine gewisse Sicherheit in Bezug auf die Ergonomie zu gewähren, könnte es Diskussionen für eine neue ISO-Norm geben. Ob diese Diskussionen tatsächlich stattfinden werden, steht natürlich den Sternen. Im Sinne des Kunden wäre dies aber wünschenswert.

<center><b>Herstellungskosten und Ausmaße</b></center>

Es ist leicht nachvollziehbar, dass eine deutlich gesteigerte Pixeldichte nicht spurlos an den Herstellungskosten vorbeigeht. Eizo hat mit dem <a href="http://www.computerbase.de/news/2011-11/36.4-monitor-mit-4-facher-full-hd-aufloesung-von-eizo/" target="_blank">FDH3601</a> bereits ein Modell vorgestellt, welches nicht mit einem normalen Geldbeutel vereinbar ist. Rund 25.000 Euro müssen für das Spitzenmodell (immerhin 36 Zoll) gezahlt werden, um in den Genuss von 4096 x 2160 Bildpunkten zu kommen.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21237&w=o" alt="Eizo FDH3601" border="1"><br><i>(Bildquelle: Eizo)</i></center>

Natürlich ist dieser Preis in erster Linie der Forschung/Entwicklung sowie einem momentan noch sehr kleinen Marktsegment geschuldet. Doch bis entsprechende Geräte im aktuellen Preissegment der 27-Zoll-Geräte oder gar der günstigen Full-HD-Monitore ankommen, dürften noch so einige Monate, wenn nicht gar Jahre, vergehen. Und selbst wenn wir eine rasche Preissenkung sehen, so werden wir sehr wahrscheinlich lange keine Preise sehen, welche das Niveau aktueller 30-Zoll-Geräte unterbieten.

Ein weiterer Aspekt sind die Ausmaße der Geräte. Der eben verlinkte Eizo-Monitor ist nicht gerade ein schlanker Weggefährte, bis zu aktuell verfügbaren Gerätedimensionen ist noch ein weiter Weg zu gehen. Hinzu kommt eine komplexere Steuerung sowie eine erhöhte Anforderung an die Hintergrundbeleuchtung. Dies führt zu derzeit noch gesteigerten Ausmaßen. Die gesteigerten Anforderungen bedeuten gleichzeitig einen erhöhten Bedarf bei der Leistungsaufnahme, weshalb Eizo beim FDH3601 ein externes 350-Watt-Netzteil beilegt. Auch das ist eine Steigerung mindestens um den Faktor zwei gegenüber derzeitig erhältlichen Geräten.
[break=Eine Frage der Skalierung!]
Verdoppelt man die Auflösung bei gleicher Fläche, so hat man es bei den momentan aktuellen Betriebssystemen automatisch mit um die Hälfte verkleinerten Symbolen zu tun. Denn Symbole werden in Ihrer ursprünglichen Größe angezeigt. Wird also ein 50 x 50 Pixel großer Button verwendet, so ist dieser bei doppelter Auflösung nur noch halb so groß. Einigen Nutzern sind selbst aktuelle Symboldimensionen zu gering, sodass noch kleinere Schaltflächen erst recht zu einem unangenehmen Arbeiten führen werden.

Abhilfe schafft dort eine entsprechende Skalierung, wo Symbole de facto wieder vergrößert werden. Nehmen wir das Beispiel von eben: Eine 50 x 50 Pixel große Schaltfläche wird durch die Verdoppelung der Auflösung in der Größe halbiert. Verdoppelt man nun die Kantenlänge auf 100 x 100, so ist das Objekt wieder exakt gleich groß wie vorher. Dummerweise hat diese Herangehensweise zwei Haken.

1. Ein derart vergrößertes Symbol trägt weniger Farbinformationen als ein Symbol, welches von Anfang an für diese Größe "produziert" wurde.
2. Dadurch vergibt man im Prinzip einen großen Teil des Sinns eines hochauflösenden Displays. Eine "rundere" Silhouette und harmonischere Farbverläufe sind damit zwar möglich, wenn man jedoch schlichtweg vorhandene Objekte hochskaliert bleibt optisch alles beim Alten.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21225&w=o" alt="Aussehen von hochskalierten Symbolen" border="1"></center>

Das Beispiel zeigt, was wir damit meinen. Hierzu haben wir ein Symbol von Gigabyte genutzt, da es aufgrund der geraden Kanten im Winkel von 45 Grad geradezu prädestiniert ist, den Effekt zu zeigen. Auf der linken Seite sieht man das Symbol, welches auf die fünffache Größe gebracht wurde. Man sieht deutlich "Treppen" die sich aufgrund der pixelgenauen Vergrößerung ergeben. Auf der rechten Seite haben wir die Treppenstufen per Hand "geglättet" - so könnte ein Symbol aussehen, welches von vornherein für eine größere Darstellung gedacht war.

Zugegeben, der gezeigte Vergleich ist ziemlich unfair. Schließlich haben wir ein Symbol um das fünffache vergrößert, der Sprung von Full-HD zu 4K2K würde hingegen "nur" eine Verdoppelung der Kantenlänge mit sich bringen. Doch die bewusste Übertreibung soll den Effekt eindrucksvoll zeigen, der zum Teil eben auch im Alltag auftreten wird, wenn hohe Auflösungen zum Einsatz kommen - ohne dass das Betriebssystem davon vollständig Gebrauch machen kann.

Eines darf man zudem nicht vergessen: Wird ein Objekt von 1080p auf 2160p "hochgerechnet", so deckt jeder Bildpunkt statt einem nun exakt vier Pixel der höheren Auflösung. Das klappt aber ausschließlich bei 3840 x 2160 - bietet ein Monitor 4096 x 2160 Bildpunkte, so stimmen die hochgerechneten Bildpunkte nicht mit dem Pixelabstand überein und es kommt unter Umständen zu Unschärfeeffekten.

Moderne Betriebssysteme bieten bereits heute Möglichkeiten, um den optischen Auftritt zu skalieren. Bei Windows 7 sieht die entsprechende Option in der Systemsteuerung so aus, wie sie auf dem kommenden Screenshot verewigt wurde. Schaltflächen und Schriftgrößen können um bis zu 50 Prozent vergrößert werden.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21227&w=o" alt="Einstellung zu Symbolgrößen in Windows 7" border="1"></center>

Auf dem folgenden Screenshot ist zu sehen, was bei der Nutzung von 50 Prozent größeren Anzeigeobjekten passiert. Mit dieser Funktion könnte man eine notwendige Skalierung umsetzen, jedoch sieht man am folgenden Bild, dass unser Windows 7 stellenweise deutlich unruhiger wirkt. Die Größe von Schaltflächen und Schriften passt teilweise nicht mehr mit der Größe von Fensterrahmen zusammen und wirkt "unrund" (besonders in den per Pfeil markierten Ecken). Zudem wirken einige Bereiche leicht unscharf, da die von Windows berechneten Bildpunkte nicht mit den physischen Bildpunkten des Monitors übereinstimmen.

<center><a href="http://www.planet3dnow.de/photoplog/images/6838/1_windows_gro__e_darstellung_l.jpg" target="_blank"><img src="http://www.planet3dnow.de/photoplog/file.php?n=21229&w=o" alt="unruhiges Bild mit großen Symbolen" border="1"></a><br><i>(ein Klick auf das Bild öffnet eine größere Version)</i></center>

Durch diese Unruhe, welche wohl kaum ein Nutzer permanent nutzen wollen wird, steht man letztendlich vor der Entscheidung, mit dieser optischen Unruhe oder aber mit stark verkleinerten Bedienelementen zu leben. Beides keine schönen Aussichten. Hier muss also seitens der Betriebssysteme nachgebessert werden, um hochauflösende Bildschirme auch genießen zu können. Das kommende Windows 8 von Microsoft könnte hier ein Schritt in die richtige Richtung sein (zumindest in puncto Skalierung, die restlichen Vor- und Nachteile dieses Betriebssystems wollen wir hier nicht thematisieren) und auch die Entwicklung von Linux wird in diese Richtung gehen. Anfänge mit vektorbasierten Grafiken, welche beliebig skaliert werden können, sind gemacht und werden hoffentlich überall Einzug halten.

Doch nicht nur das Betriebssystem muss auf hochauflösende Monitore vorbereitet werden, auch Internetseiten stehen Veränderungen ins Haus. Denn während bereits heute jeweils Vor- und Nachteile für feste bzw. dynamische Breiten bestehen, so wird die Kluft zukünftig noch größer. Wie man am folgenden Bild sieht, wirkt eine Internetseite mit fester Breite selbst bei 2560 x 1600 auf 30 Zoll verloren.

<center><a href="http://www.planet3dnow.de/photoplog/file.php?n=21221&w=o" target="_blank"><img src="http://www.planet3dnow.de/photoplog/file.php?n=21222&w=o" alt="Internetseite feste Breite" border="1"></a><br><i>(ein Klick auf das Bild öffnet eine größere Version)</i></center>

Rechts und links sind bereits heute breite, ungenutzte Streifen. Mit noch höheren Auflösungen verschlimmert sich diese Situation weiter. Im Gegenzug dazu können wir auf dem folgenden Bild eine dynamisch generierte Internetseite sehen, auf welcher sich die Informationen verlieren.

<center><a href="http://www.planet3dnow.de/photoplog/file.php?n=21223&w=o" target="_blank"><img src="http://www.planet3dnow.de/photoplog/file.php?n=21224&w=o" alt="Internetseite variable Breite" border="1"></a><br><i>(ein Klick auf das Bild öffnet eine größere Version)</i></center>

Bereits jetzt werden Abschnitte, welche im Normalfall aus mehreren Zeilen bestehen, durch eine 2560er-Auflösung soweit auseinander gezogen, dass Abschnitte zum Teil auf eine Zeile reduziert werden. Das sieht nicht nur unschön aus, dass ist auch für die Arbeit suboptimal. Denn beim Lesen muss der Kopf samt Augen einen relativ großen Radius abdecken, um vom Zeilenanfang bis zum Ende lesen zu können. Ganz zu schweigen davon, dass die Schrift natürlich immer kleiner wird (womit wir wieder beim Thema Skalierung wären).
[break=Datenmengen]
Ungeachtet der Skalierung sorgt ein weiterer Aspekt für Nachholbedarf: Stichwort Datenmengen.

Eine 4K2K-Auflösung mit 32 Bit Farbtiefe produziert soviele Daten, die vom Grafikbeschleuniger zum Monitor gesendet werden müssen, dass herkömmliche Anschlüsse mit Ihren Standards überfordert sind. Der bereits erwähnte Eizo-Monitor verwendet zwei HDMI-Anschlüsse, welche jeweils für eine Bildhälfte zuständig sind. Bevor der Grafiktreiber geladen ist, hat man aus technischer Sicht zwei eigenständige Monitore - so sieht es zumindest Windows. Erst mit der Aktivierung von Eyefinity (AMD) bzw. 3D Vision (NVIDIA) lässt sich der Monitor als Einheit benutzen. Das bedeutet im Umkehrschluss, dass man den FDH3601 nicht vollumfänglich nutzen kann, wenn die Grafikkarte nicht über entsprechende Mechanismen verfügt. Mit Onboard-Geräten, die teilweise keine Nutzung von zwei digitalen Anschlüssen gleichzeitig unterstützen, oder APUs (deren Fähigkeiten mit der Umsetzung auf dem Mainboard-Unterbau stehen und fallen), steht man hier wahrscheinlich auf weiter Flur. Zugegeben: Wer sich heute ein 4K-Gerät kauft, der wird auch über das nötige Kleingeld für eine dedizierte Grafikkarte verfügen. Dennoch erscheint ein zusätzlicher Grafikbeschleuniger nur für den Zweck der Monitoransteuerung nicht sonderlich sinnvoll.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21236&w=o" alt="DisplayPort und HDMI" border="0"><br><i>links DisplayPort, rechts HDMI (Bildquelle: Wikipedia)</i></center>

Um eine 2160p-Auflösung nutzen zu können, ohne zwei Anschlüsse an der Grafikkarte zu belegen, müssen sowohl der Monitor als auch der Pixelbeschleuniger entweder über einen HDMI-Anschluss ab Version 1.4 oder über einen DisplayPort-Anschluss ab Version 1.2 mit vier Leitungen verfügen. Dann ist die Nutzung mit nur einem belegten Anschluss und aus technischer Sicht nur einem Monitor möglich. Endgeräte müssen also flächendeckend einen dieser beiden Standards unterstützen, damit der problemlose Einsatz am Wald- und Wiesen-PC möglich wäre. Auf der Monitorseite dürfte die Durchsetzung dieser Standards kein Problem darstellen, da die Monitore ohnehin erst massentauglich gemacht werden müssen - und dabei werden die Hersteller mit Sicherheit auch darauf achten, eine möglichst breite Marktabdeckung zu erreichen.

Doch nicht nur der Datenweg zwischen Grafikkarte und Monitor hat mit enormen Datenmengen zu kämpfen - auch Film-Datenträger müssen dem wohl Rechnung tragen. Ein Film auf Blu-ray sieht auf einem entsprechenden Endgerät sehr detailreich und scharf aus &ndash; doch was, wenn man die Auflösung vervierfacht? Dann wirkt ein Film mit 1920 x 1080 Pixeln zwar immer noch sehr gut, aber es ginge besser. Doch schon heute trägt eine Blu-ray mitunter 50 Gigabyte an Daten &ndash; für einen Film samt Zusatzmaterial. Mit erhöhter Auflösung würde man diese Grenze wahrscheinlich sehr schnell sprengen. Zwar geht die Entwicklung der Blu-ray bereits seit Jahren immer weiter, entsprechende Medien sind bis heute jedoch noch nicht im Alltag vertreten. Sehr wahrscheinlich wird auch, bei Erhöhung der Datendichte pro Schicht, ein neues Abspielgerät notwendig.

Denkt man hier noch weiter, dann wird diese Entwicklung auch an Breitbandverbindungen ins Internet nicht spurlos vorbeigehen. Wer bei Videodiensten wie Youtube oder MyVideo Videos in 1080p anschaut oder gar herunterlädt, der wird bereits heute eine schnelle Internetverbindung jenseits der 6.000 Mbit/s zu schätzen wissen. Bei vierfacher Auflösung werden die generierten Uservideos noch voluminöser, weshalb VDSL bald die untere Grenze dessen darstellen dürfte, was für derartige Videos nötig ist.
[break=Grafikhardware]
Der neueste Grafik-Blockbuster in Full-HD mit maximalen Details und Kantenglättung? Für Pixelbeschleuniger vom Schlage einer Radeon HD 7970 oder der GTX 680 ist das alles andere als ein Problem. Im Gegenteil: Die Leistung beider Karten ist unter Full-HD nahezu identisch und reicht locker aus, um alle Spiele mit flüssigen Frameraten darzustellen. Wer es nicht gerade mit der Kantenglättung übertreibt, wird eine derartige Grafikkarte kaum in die Bredouille bringen. Anders sieht es da bei 2560 x 1440 oder 2560 x 1600 aus. Eine einzelne Grafikkarte kommt hier schnell ans Limit, wenn neben hohen Details auch noch Antialiasing zum Einsatz kommen soll.

<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21324&w=o" alt="AMD Radeon HD 7970" border="1"><br><i>AMD Radeon HD 7970</i></center>

Oft wird bei diesen Auflösungen bereits zur Multi-GPU-Lösung gegriffen, was abseits des Performance-Zuwachses natürlich einen großen Haken in Form der <a href="http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844" target="_blank">Mikroruckler</a> mit sich bringt. Wenn man nun eine noch höhere Auflösung nutzt, wird zwar Antialiasing an Bedeutung verlieren (da die Kanten de facto durch die höhere Auflösung von selbst geglättet werden), ganz verschwinden wird sie jedoch nicht. Aber selbst wenn, sind derzeitige High-End-Grafikkarten nicht in der Lage, derartige Auflösungen mit maximalen Detailgraden zu befeuern. Multi-GPU wird deshalb wohl weiterhin ein großes Thema bleiben. Doch nicht nur deshalb.

Wer zudem bereits einmal mit 3D-Gaming in Kontakt gekommen ist, der wird wissen, dass sich bei den aktuellen 3D-Verfahren mit Shutterbrille die Framerate virtuell halbiert - weil ein Bild pro Auge gerendert wird. Jedes Auge bekommt also nur jedes zweite Bild, und damit insgesamt die Hälfte an Bildern, zu sehen, welche im PC erzeugt werden. Will man also ein Spiel in 3D genießen, so benötigt man statt der landläufigen 25 bis 30 FPS für einen spielbaren Wert (jeder nimmt diesen Wert anders wahr, als Faustformel hat er sich hingegen durchgesetzt) derer 50 bis 60 FPS. Nimmt man dann noch die Funktionsweise von VSync hinzu (auf welches viele User schwören), dann benötigt man für 3D mit Shutterbrille im Minimum 60 FPS. Besser sind natürlich 120 FPS, damit jedes Auge exakt 60 Bilder pro Sekunde angezeigt bekommt.

Eine derartige Leistung können aktuelle Grafikbeschleuniger bei einer 4K2K-Auflösung schlichtweg nicht erbringen. Hier müssen die beiden großen Grafikkarten-Hersteller die Entwicklung weiter vorantreiben, damit solche Leistungswerte irgendwann erreicht werden können. Bis dahin wird wohl auch der VRAM, also der Grafikspeicher, noch ordentlich anwachsen. Derzeit sind zwei bis drei Gigabyte Standard, bis 3840 x 2160 flächendeckend zum Einsatz kommen, werden wir wohl im Bereich zweistelliger Gigabyte-Werte sein.

Möglicherweise wird man bei entsprechenden Auflösungen auch einen Unterschied sehen, wenn verschiedene PCI-Express-Bandbreiten zum Einstatz kommen. Theoretisch wurde die PCIe-Bandbreite seit dem Standard 1.0 nahezu vervierfacht, doch bereits heute kann man mit speziellen Anwendungen einen deutlichen Performance-Vorteil von PCIe 3.0 gegenüber 2.0 sehen. Zwar sind diese Beispiele rar gesät, doch zeigen sie, dass PCIe-Bandbreite mitunter ein limitierender Faktor sein kann. Eine vervierfachte Pixelanzahl kommt potenziell für ein solches Beispiel in Frage.

Abseits dieser Ausführungen darf natürlich nicht vergessen werden, dass Grafikkarten überhaupt erst einmal eine 4K2K-Auflösung an einem Ausgang unterstützen müssen. Denn selbst wenn man sich aktuelle Grafikbeschleuniger in puncto Spezifikationen anschaut, so wird man häufig die Angabe von maximal 2560 x 1600 Pixeln vorfinden. Diese Angabe wird zwar immer in Verbindung mit einem DVI-Anschluss genannt, eine Angabe je HDMI- oder DisplayPort-Anschluss wird hingegen nicht gemacht. Möglich, dass 4K2K unterstützt wird, es muss aber auf jeden Fall in die Spezifikationsliste aufgenommen werden. Ob nur rein symbolisch oder aber erst noch technisch.
[break=Fazit]
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=21226&w=o" alt="Titelbild 4K2K - Die Nachfolge von Full-HD" border="1"></center>

Unsere Gedanken rund um die kommenden 4K-Auflösungen (auch bekannt als Quad-Full-HD oder 2160p) zeigen, dass es noch einige Hürden gibt, die bis zum flächendeckenden Einsatz genommen werden müssen. Und das, obwohl unsere Überlegungen keinerlei Anspruch auf Vollständigkeit erheben. Dabei sind es weniger die Hürden, welche die Auflösungen technisch überhaupt möglich machen. Denn dass es funktioniert, zeigt der Eizo FDH3601 &ndash; ein Monitor mit 36,4 Zoll Bildschirmdiagonale und einer Auflösung von 4096 x 2160 Pixeln.

Vielmehr sollten rund um die technische 4K-Spezifikation Aspekte geklärt werden, die einen Einsatz von hochauflösenden Displays erst sinnvoll werden lassen. Was nutzt ein 4K-Display, wenn die Skalierung des Betriebssystems nicht optimal ist und entweder vergrößerte Symbole mit pixeligen Kanten angezeigt werden oder aber das Bild insgesamt unruhig wirkt, weil Symbolgrößen nicht mehr zu Fensterrahmen und anderen Elementen passen? Was nutzt ein 2160p-Monitor, wenn 3D-Content nach wie vor aus Performancegründen in 720p/1080p wiedergegeben wird? Wie sinnvoll ist 4K2K, wenn die Performance von Grafik-Beschleunigern nicht ausreicht, um grafiklastige Spiele in hohem Detailgrad wiederzugeben und deshalb nach wie vor in Full-HD gespielt wird? Diese und noch weitere Fragen stellen sich, bevor der Einsatz eines 4K2K-Gerätes sinnvoll erscheint.

Die Situation dürfte mit Full-HD vergleichbar sein. Erste Geräte gab es bereits frühzeitig, doch eine hohe Marktdurchdringung wurde erst einige Jahre später realisiert. Auch hier gab es offene Fragen zu beantworten, bevor ein Einsatz im Alltag sinnvoll war. Und kaum ist Full-HD zum Standard geworden, reden wir schon wieder vom Nachfolger &ndash; in diesem Fall 4K2K. Es bleibt daher zu vermuten, dass wir auch bei diesem Thema noch einige Jahre vor uns haben, bis entsprechende Endgeräte sinnvoll eingesetzt werden können.

Interessant wird zudem, ob es zwischen Full-HD und Quad-Full-HD noch irgendwelche Zwischenschritte geben wird. Informationen oder gar Spezifikationen liegen hierzu nicht vor, der sehr große Abstand von 1080p zu 2160p legt entsprechende Zwischenlösungen jedoch nahe. Wobei dann bisheriger HD-Content nicht mehr pixelgenau hochgerechnet werden kann und es so zu Unschärfeeffekten kommen wird.

In den nächsten Monaten und Jahren dürfen wir also gespannt sein. Und vielleicht werden sogar auf der am 31. August eröffnenden IFA einige unserer Gedankengänge bzw. Fragen beantwortet. Auch wird man auf der IFA über <a href="http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/UHDTV-Standard-fuer-16-fache-HD-Aufloesung-mit-120-Hz-beschlossen-1020233/" target="_blank">noch ambitioniertere Auflösungen</a> sprechen.

<center><a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=163">...weitere Artikel</a><br><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=407450">...diesen Artikel im Forum diskutieren</a></center>
 
Zurück
Oben Unten