ab wann 40Bit "Farbtiefe"?

themk

Grand Admiral Special
Mitglied seit
08.06.2002
Beiträge
7.996
Renomée
94
Standort
Salzburg || Karlsruhe
Wie bekannt wird Display Port eine genauere Farb-/ und Helligkeits-darstellung (40 satt 32 Bit für RGBA, also 10 statt 8 Bit pro Kanal) erlauben.
Eine Hand voll Display Port Grafikkarten und Monitore sind auch bereits auf dem Markt.

Aber lässt sich mit diesen Geräten bereits 40 Bit verwenden? Also in den Grafikoptionen einstellen?

Und ist die Unterstützung von 40Bit in der DisplayPort Spezifikation für Monitore und Grafikkarten festgeschrieben?

Betreibt jemand bereits einen Monitor per DP und kann dazu etwas sagen?
 
Wie bekannt wird Display Port eine genauere Farb-/ und Helligkeits-darstellung (40 satt 32 Bit für RGBA, also 10 statt 8 Bit pro Kanal) erlauben.
Eine Hand voll Display Port Grafikkarten und Monitore sind auch bereits auf dem Markt.
Was hat das mit Displayport zu tun, das geht auch mit DVI und HDMI schon länger!
Auch Grafikkarten die das können gibt es spätestens seitdem es Matrox Parhelia gibt und auch ATI kann das spätestens ab der Radeon9500...

Aber lässt sich mit diesen Geräten bereits 40 Bit verwenden? Also in den Grafikoptionen einstellen?
Bei professionellen Programmen und Karten zur Bildbearbeitung schon, für Video ist es aber eher Sinnfrei weil die Quelldaten das so garnicht anbieten. Bei Spielen könnte man es evtl. nutzen, nur wer würde für das bischen an kaum sichtbarer Zusatzqualitätbei farbübergängen schon das kleinste bischen Performance opfern?

Und ist die Unterstützung von 40Bit in der DisplayPort Spezifikation für Monitore und Grafikkarten festgeschrieben?
Wie sollte es, das ist ein KANN Feature!
 
Dass das DVI schon konnte, wusst ich gar nicht - sonst hätte ich diesen Thread auch nicht verfasst. ;D

Ist es nicht so, dass die 8Bit Genauigkeit des Alpha-Kanal insbesondere bei Kontrastreichen Szenen in Spielen Grenzen setzen?


edit:
Auch Grafikkarten die das können gibt es spätestens seitdem es Matrox Parhelia gibt und auch ATI kann das spätestens ab der Radeon9500...

Und wie lässt sich das einstellen?
 
Zuletzt bearbeitet:
Die meisten TFT-Monitore können eh nur 6Bit pro Kanal (TN-Panel) und du willst 10Bit? Oo
 
Zuletzt bearbeitet:
Quake Engine Guru John Carmack fordete bereits 2000 mehr Farbtiefe für künftige Projekte: .plan 2000 (ab Seite 14)

In Doom 3 verschaffte er sich durch irgendeinen Trick (natürlich nur softwareseitig) den Anschein von mehr Farbtiefe. Wie weiß ich aber nicht.
 
40 bit? für was?

Die Anzahl der vom Menschen wahrnehmbaren Farben ist auf 380 000 beschränkt.
Und der Mensch kann auch nur zwischen ca.15 verschiedenen, gleichzeitig dargestellten Farben unterscheiden.
 
Die meisten TFT-Monitore können eh nur 6Bit pro Kanal (TN-Panel) und du willst 10Bit? Oo

Ich bin immer noch davon überzeugt, dass es eine Zeit nach TN geben wird. :w_grins:

Und es gibt ja bereits heute Monitore, die mehr als 8 Bit darstellen können. Warum sollte man, sofern man ein solches Gerät hat, nicht auch dessen Möglichkeiten ausreizen?

40 bit? für was?

Die Anzahl der vom Menschen wahrnehmbaren Farben ist auf 380 000 beschränkt.
Und der Mensch kann auch nur zwischen ca.15 verschiedenen, gleichzeitig dargestellten Farben unterscheiden.

Dazu kann ich nichts sagen, bleibt aber immer noch die Helligkeit als Argument für >32 Bit bzw. >8 Bit / Kanal.
 
40 bit? für was?

Die Anzahl der vom Menschen wahrnehmbaren Farben ist auf 380 000 beschränkt.
Und der Mensch kann auch nur zwischen ca.15 verschiedenen, gleichzeitig dargestellten Farben unterscheiden.

*chatt* :w_vogel:

Woher hast du denn diesen Quark?
 
40 bit? für was?

Die Anzahl der vom Menschen wahrnehmbaren Farben ist auf 380 000 beschränkt.
Und der Mensch kann auch nur zwischen ca.15 verschiedenen, gleichzeitig dargestellten Farben unterscheiden.

Bei mir sinds noch weniger Farben! Ich habs so gar nicht mit grün und rot! Muss das von meinem Vater haben! Der hats aber mit gelb und blau. Lustige Sache das! Shoppen gehen macht dann echt Laune, wenn uns dann Blicke zugeworfen werden bei den tollen Farbkombis!

@topic
Ich wüsste auch nicht wofür man 40bit braucht. Schon den Übergang von 24 zu 32bit sieht man kaum! Das war noch zu Win2000/NT -Zeiten. Und dann nochmal 8bit mehr zu fordern grenzt schon an Vermessenheit. Das kann dann aber schön von den Werbeleuten verwendet werden. Genauso wie dieser Bravia-Fernseher mit 200Hz-Technik.*suspect*

MfG, Paule
 
@topic
Ich wüsste auch nicht wofür man 40bit braucht. Schon den Übergang von 24 zu 32bit sieht man kaum! Das war noch zu Win2000/NT -Zeiten. Und dann nochmal 8bit mehr zu fordern grenzt schon an Vermessenheit. Das kann dann aber schön von den Werbeleuten verwendet werden. Genauso wie dieser Bravia-Fernseher mit 200Hz-Technik.*suspect*

MfG, Paule

Mann sieht beim Wechsel von 24bit zu 32 bit nichts, weil es an den statisch verfügbaren Farben auch
rein garnichts ändert. Es bleibt bei 8 bit pro Farbkanal, also bei 16,77Mio. Farben. Die zusätzlichen
8bit für den Alphakanal stellen keine Farben dar, sondern liefern einen Überlauf-Buffer, um die
mehrfache Überlagerung von Farben korrekter berechnen zu können. Auffällig wird der Unterschied
zwischen 24- und 32bit "Farb"tiefe also nur dort, wo mehrere transparente Farben übereinander
gerendert werden, und hier merkt man den Unterschied ob mit oder ohne 8bit Alphakanal ge"blendet" wurde.

Das Aufstocken von 8 auf 10 bit Pro Kanal hingegen erhöht tatsächlich das Farbvolumen.
Ob die damit erreichten, noch feineren Farbunterschiede wirklich noch Verbesserungen bringen,
wird von Mensch zu Mensch unterschiedlich sein. Mit relativ "schlechter" Farbwahrnehmung
schafft man es auf 7-9 Millionen Farben, durchschnittliche Augen liegen mit knapp 15 Mio. Farben
sehr dicht am 24bit RGB-Farbraum. Es gibt aber auch viele Menschen, die eine überdurchschnittliche
Farbwahrnehmung haben. Natürlich muss das Display hier mitmachen. Bisher jedenfalls werden die
10bit Farbtiefe, mit denen die aktuellen Grafikkarten intern eh schon rechnen auch nur dazu verwendet,
genauer zu rechnen um dann bei der endgültigen Darstellung mit 8bit/Kanal weniger Fehler zu produzieren.
 
Zuletzt bearbeitet:
[ApoC];3816438 schrieb:
*chatt* :w_vogel:

Woher hast du denn diesen Quark?

Im Zwischenhirn wird aus den drei einzelnen Signalen für Rot, Grün und Blau drei neue Signale gebildet. Ein Summensignal aus Rot und Grün(R+G), ein Differenzsignal aus Rot und Grün(R-G) und einem Differenzsignal aus Gelb(entspricht dem Summensignal von Rot und Grün) und Blau((R+G)-B). Dabei sind R-G sowie (R+G)-B für Unterscheidung der jeweiligen Farbtöne verantwortlich(Rot/Grün und Blau/Gelb), wohingegen R+G vorrangig die Aufgabe der Helligkeitswahrnehmung übernimmt.
Durch diesen menschlichen Sehapparate lassen sich 128 verschiedene Farbtöne, 130 verschiedene Farbsättigungen und 16(im blauen Bereich) bzw. 26(im gelben Bereich) verschiedene Helligkeitswerte unterscheiden. Das hat zur Folge, dass die Anzahl wahrnehmbarer Farben auf 380 000 beschränkt ist, also beispielsweise von einem Monitor mit einer Farbtiefe von 24 bit weit mehr Farben dargestellt werden können, zusätzlich muss beachtet werden, dass der Mensch(mit 95%iger Sicherheitheit) nur ca.15 verschiedene Farben), die gleichzeitig dargestellt werden unterscheiden kann.
 
Könntest du das mit dem Unterscheiden von maximal 15 gleichzeitig dargestellten Farben bitte näher erläutern? Ich versteh das nicht so ganz, da man ja sehr wohl den Unterschied zwischen 8bit und 24bit/32bit Farbdarstellung erkennen kann. Und dazu muss man mehr als 15 Farben gleichzeitig erkennen können, denke ich mal.
 
Andere Quellen behaupten auch man könne 200 Farbtönen, 26 Sättigungs- und 500 Helligkeitsstufen unterscheiden. Also insgesamt ca. 2,6 Millionen verschiedenen Farben.

Wie auch immer in keinem Fall kommt man auch nur in etwa an 24bit dran. Und an 40Bit somit schon mal überhaupt nicht.
 
Bei mir sinds noch weniger Farben! Ich habs so gar nicht mit grün und rot! Muss das von meinem Vater haben! Der hats aber mit gelb und blau. Lustige Sache das! Shoppen gehen macht dann echt Laune, wenn uns dann Blicke zugeworfen werden bei den tollen Farbkombis!

OT, aber: Nee, die rot-grün Schwäche ist in aller Regel X-Chromosomal. Da Du von Deinem Vater nur das prokelige Y-Chromosom geerbt hast, ists Deine Mutter, die Trägerin der rot-grün Schwäche ist. Da die halt noch ein zweites X-Chromosom hat, ist sie selber nicht betroffen (auch da gibts zumindest theoretisch Ausnahmen, Stichwort nicht-zufällige X-Inaktivierung). Kannst ja mal in der mütterlichen Familie nachforschen, ob es da weitere Betroffene gibt......

Die Blau bzw- Blau-Gelb-Schwäche (sog. Tritanopie) ist dagegen autosomal-dominant vererbt. Wenn Du damit keine Probleme hast, hast Du Glück gehabt, da ist das Risiko für Kinder nämlich 50% und beide Schwächen können durchaus zusammen auftreten.....
 
Ich glaube auch, dass wohl kein Mensch alle 16,78 Millionen Farben unterscheiden kann. Aber man braucht extrem viele Farben, wenn in jedem Bereich die Farben dichter zusammen liegen sollen, als das unterscheidungsvermögen. Ich habe es nicht ausprobiert, aber ich vermute, dass ich unter gewissen umständen, unterschiede zwischen 40bit und 24bit mit blossem Auge feststellen könnte. Natürlich müsste der Monitor dafür auch extrem hohen Kontrast darstellen können.
 
Also ich muss zu meinem Befinden sagen, dass bei egal welchem Monitor die Schwarzverläufe in Spielen (32bit) eindeutig abgrenzbar sind und ich jeweilige "Farbflächen" ausmachen kann. Ähnlich wie in schlecht enkodierten Videos...

Von daher finde ich eine Intensivierung des bisherigen 32bit-Farbraumes auf 40bit keine schlechte Innovation, wenn sie auch noch ein paar jahre braucht, bis sie sich auf dem Massenmarkt durchsetzt.

@olafk:
Ich glaube der Unterschied von 32 auf 40bit wird bei den heutigen Grafikkarten nur wenig Leistungsverlust verbuchen. Aktuelle Spiele kann man ja schon nicht mehr bezüglich der Farbtiefe beschränken, da der Leistungsgewinn zu marginal wäre.
 
40 bit? für was?

Genau dafür:
Die zusätzlichen
8bit für den Alphakanal stellen keine Farben dar, sondern liefern einen Überlauf-Buffer, um die
mehrfache Überlagerung von Farben korrekter berechnen zu können. Auffällig wird der Unterschied
zwischen 24- und 32bit "Farb"tiefe also nur dort, wo mehrere transparente Farben übereinander
gerendert werden, und hier merkt man den Unterschied ob mit oder ohne 8bit Alphakanal ge"blendet" wurde.

Bei bewegten Bildern kann es genau bei den Fall der transperten Farben zu fehlerhaften Berechnungen kommen. Bei 32bit sind die Fehler nicht mehr so groß wie bei 24bit oder 16bit. Diese Fehler zeigen sich Computerspielen wo mit transperenten Rauch gearbeitet wird, sehen tut man dann einen leichten grün Stich im Rauch. 40bit bringt also nicht mehr Farben sondern macht die Berchungen "fehlerfreier" als 32bit, das wiederrum hebt die Bildqualität.
Ich hatte dazu mal nen Artikel gelesen... das is aber auch schon etwas her. Muss mal schaun ob ich den noch finde zwischen meinen Magazinen.
 
Die meisten TFT-Monitore können eh nur 6Bit pro Kanal (TN-Panel) und du willst 10Bit? Oo
Das ist bei TN-Panels in der Tat ein Problem. Aber was will man für den Preis erwarten? Dann lieber ein gutes Panel mit echten 8Bit usw.

Vieleicht sowas wie der neue nec MD304MC für Medizinbereich. Der ist auch ohne Display Port "Wenn ichs richtig sehe hat der 12Bit LUT"
Und grade für den Einsatzbereich dürfte das auch entscheidend sein.
Bitte 12Bit LUT nicht mit 12Bit Panel verwechseln... Die 12Bit Look-Up-Table (LUT) sorgt nur dafür, dass sich bei der Berechnung der entsprechenden Farbwerte keine Rechenfehler einschleichen. Mehr Farben als ein anderes 8Bit Panel können auch sie nicht darstellen. Die Übergänge sind aber vielleicht etwas besser...
 
....Diese Fehler zeigen sich Computerspielen wo mit transperenten Rauch gearbeitet wird, sehen tut man dann einen leichten grün Stich im Rauch.
Das war bei 16bit so und mit 24bit war das schon weg.
 
Was wohl auch nicht an 24 Bit liegt sondern am Monitor oder auch an dem abgespielten Material.
 
Korrekt, selbst in einigen 32bit Games sieht man ab und zu sogar noch das alte Color Banding, eigentlich ein Relikt aus 16bit-Tagen...

Der Fehler liegt dann oft an der verwendeten Palette bzw. den Texturen.
Korrekt angewendet sollte man unter 32bit absolut keine Farbuebergaenge mehr sehen koennen, wenn der Monitor sie sauber darstellt.
 
Zurück
Oben Unten