Digital ist eben (nicht) egal, die kleinen Unterschiede zu HDMI, DVI, DP

G

Gast29012019_2

Guest
Hi..

Suche eine Erklärung für folgendes Beispiel.

Habe diese Woche bei einem Kollegen in seinem alten 955er Rechner, mit 8GB-Ram, 256er SSD, meiner 1050TI (Leihgabe) zocken lassen, lief gut aber nicht perfekt. Dann habe ich eine 1060TI verbaut, es lief fast perfekt. Lediglich mal ganz kleine Zuckler in STW BF-1.

Das kuriose der FHD-Bildschirm war die ganze Zeit per DVI verbunden, seit ich auf HDMI umgestellt habe so laut seiner Aussage.

1. Bildqualität ist besser, sollte ja bei digitalen Übertragungen (Identisch) sein.

2. Absolut flüssiges Gaming möglich vom Spielstart bis zum Ende.

In kommender Woche wird er sein vorbestelltes STW BF-2 erhalten, die Demo mit 3 Levels hatte er schon durch.

Nichts desto trotz wird der Rechner im kommenden Jahr erneuert, mit AMD 1700 JIUHB Prozessor und 16GB 3200er CL-14er Ram. :)
 
Zuletzt bearbeitet:
1. inwiefern besser? Und was ist besser als was?
Farben kann man bei HDMI vielfälig verstellen. Nicht immer ist das von Vorteil.

2. Eine 1060 ist halt deutlich leistungsfähiger, klar wird’s damit flüssiger.

Allerdings ist mir noch nicht ganz klar, was Deine Frage ist, kann es sein, dass da ein paar Details verloren gegangen sind?
Waren womöglich hdmi und dvi gleichzeitig verbunden in einem der Fälle? Dann hat die Karte evtl. 2 Monitore vermutet.
 
Der Rechner mit dem Bildschirm war über Jahre mit DVI verbunden, die ehemals verbaute GTX 460 mit 1GB-Ram war nun nicht mehr zu gebrauchen. Die 1050TI als auch die 1060 waren ebenfalls per DVI verbunden.

Sprich der Kollege der regelmäßig dran zockt hat dadurch ein Gefühl entwickelt wie es bisher lief.

Als die dann die 1060 erstmals mit HDMI verbunden habe, kam ihm das Bild subjektiv besser auch und das das Spiel nun 100% flüssig läuft während der per DVI mit der gleichen Karte ganz kurze Zuckler drin hatte.

Ich vermute mal das es mit dem Content Zusammenhängt der auch üer DVI möglich ist, aber das Signal digital bearbeitet wird und nicht 1:1 durchgereicht wird. BR benötigt ja eine digitale HDCP fähige Kette, ist zwar über DVI auch möglich, als auch über DP aber sicher nicht ohne Veränderung oder vielmehr eine Verzögerung des Signals entsteht.

Keine Ahnung wie ich es beschreiben soll.

Auf der anderen Seite wenn man ein FHD Bildschirm hat, sollte HDMI auch die sinnvollste Verbindung sein. DVI ist nie HDCP fähig gewesen und war dafür auch nicht gedacht, DP ebenso wenig.

Möglicherweise, können das hier einige User die zocken mal bitte nachstellen. Erst eine ganze Weile ne Woche per DVI oder DP zocken mit vorhandenem FHD-Bildschirm und dann bitte auf HDMI umstellen und den Rest so lassen wie er ist. Möglicherweise nehmen da einige Unterschiede war, und andere wiederum nicht.
 
Zuletzt bearbeitet:
DVI und HDMI sind fast identisch. Eher hat das Kabel einen weg.

Und klar hat man für DP auch an HDCP gedacht.
 
Wenn, dann geht ja bei hdmi noch anderes als nur das Bild über die Leitung.
DVI macht nur das Bild, sonst nix, mal abgesehen von den zusätzlichen Pins fürs analoge Signal.

Wie waren die Bildwiederholfrequenzen jeweils ?
Ich hatte mi dvi manchmal seltsam krumme Werte wie 59,78Hz statt runder 60. Sowas kann ich mir neben dem Kabel eher noch als Ursache vorstellen.
 
Ja, HDMI überträgt noch Audio. Der sonstige Unterschied ist gering. Dual-DVI braucht zum Beispiel einen aktiven Adapter, weil die Leiterbahnen wohl nicht einfach durchgeschleift werden können.
 
Was ist das für ein Monitor? 144Hz? Wenn DVI nur Single-Link war, dann lief der Monitor nur mit 60Hz, da man für 144Hz schon Dual Link braucht. Und ein 144Hz-Monitor mit 60Hz eingestellt fühlt sich echt grausam an.
 
Ich tippe auch auf das Kabel.
 
Das mit den ~59.9Hz passt schon, ist bei HDMI genau so nur zeigt der dann die rund 60Hz an.
Hat was mit dem NTSC Standart oder Vsync zu tun, schon zu lange her das ich es gelesen habe...

DVI-D kann ebenfalls Audio übertragen, deswegen haben damals ein paar billige Sat-Reveiver auch DVI verbaut anstatt HDMI, um sich die Lizenzkosten für dem HDMI Stecker zu ersparren.

Tippe ebenfalls auf Kabel. In jedem Fall ist der PC-Standart zu bervorzugen, denn der ist immer besser, außer er wird alt^^ DP 1.4 ist aber wieder in jeder Hinsicht HDMI 2.1 überlegen.
 
Es ist ein ganz normaler Full-HD-TFT, kein Gamerteil mit 144Hz oder dergleichen. Der hat FHD@60Hz. Benötigt daher kein Dual-Link DVI Kabel. Er hatte den Bildschirm sogar wie mir eingefallen ist in der Anfangszeit mit VGA verbunden. Der hat VGA + DVI + 2x HDMI.

Mag sein das das Kabel eine Macke hatte, gut die HDMI Verbindung wird belassen.
 
Es ist ein ganz normaler Full-HD-TFT, kein Gamerteil mit 144Hz oder dergleichen. Der hat FHD@60Hz. Benötigt daher kein Dual-Link DVI Kabel. Er hatte den Bildschirm sogar wie mir eingefallen ist in der Anfangszeit mit VGA verbunden. Der hat VGA + DVI + 2x HDMI.

Mag sein das das Kabel eine Macke hatte, gut die HDMI Verbindung wird belassen.
Der Kopierschutz HDCP ist es unter Umständen schon, nicht alle Leitungen haben diesen Schutz.
Für nicht BD oder DVD Inhalte ist das kein Problem, nur beim Abspielen von diesen meckert dann der Player.
Gut Möglich, dass die Spiele Industrie diesen Schutz inzwischen auch nutzt. ;)

Ich nutze z.B. den DVI Ausgang an der GPU welcher direkt auf HDMI in den TV geht (DVI-D 24+1 auf HDMI)
Darüber geht auch der Sound zum TV. ;)

In den Radeon Einstellungen "Anzeige" unter Spezifikationen lässt sich der aktuelle HDCP-Status auslesen.
 
HDCP geht, zeigt mir so als Kette in NV-Menü an.

Dann hätte er ja kein Bild, bei Content Inhalten, wenn dem so wäre. Alternativ könnte ich ihm zwar mal ein andere DVI Kabel geben, da aber nun läuft und er sehr zufrieden ist, es so lassen wollte.
 
Zuletzt bearbeitet:
Ich weiss jetzt nicht wie das bei der Geforce ist aber gab es seinerzeit nicht bei den Intel GPUs nicht Probleme mit einem regelmäßigen Stocken bei Videos weil diese nicht synchron mit dem Bild Refresh liefen? Vielleicht hat das bei nvidia ja eine ähnliche Ursache und es wird nur der HDMI Ausgang entsprechend behandelt.
 
Nur welches DVI?
Es gibt auch noch DVI-I (analog und digital) und DVI-A (analog).
Auch wenn die GPU DVI-D hat, weiß man dass der Monitor auch DVI-D hat? Nicht dass es ein Kabel DVI-A/I auf DVI-D hat und der Monitor DVI-A/I hat.
 
HDCP geht, zeigt mir so als Kette in NV-Menü an.

Dann hätte er ja kein Bild, wenn dem so wäre. Alternativ könnte ich ihm zwar mal ein andere DVI Kabel geben, da aber nun läuft und er sehr zufrieden ist, es so lassen wollte.
Dann kann es (HDCP) der Monitor und die GPU aber welche Version und ob es das "Kabel" kann? *noahnung*

Die werden eher freesync nutzen als die Bildinhalte zu verschlüsseln.
Zudem lassen sich so auch 10Bit Farbtiefe realisieren, aber eben nur wenn die Leitung dafür ausgelegt ist (Zertifiziert).
 
Ein Monitor nutzt immer die digitalen Signale, egal ob DVII oder D. Ob die zusätzlichen VGA Signale Anliegen, ist ihm Wurscht. Diese 3 DVI Arten sagen doch nur, welche Pins vorhanden sin. DVIA hab ich eh noch nie irgendwo gesehen. Da nimmt man meist VGA.
 
Im Beispiel meines Eizo 1932, der kann HDCP hat aber keinen HDMI Eingang, und kann entsprechende BR-Filme mittels BR-Laufwerk gucken. Verbunden mit dem damals beiliegenden DVI Kabel.
 
der hauptunterschied - neben der form der buchse -> über DVI wird immer fullrange (farbbereich) ausgegeben. über HDMI hat man die wahl ob begrenzter oder voller farbbereich übertragen werden soll. je nachdem, was das endgerät erwartet, wie es eingestellt ist und wie es mit dem erhaltenen format umgeht, kann die reine darstellung zwischen DVI und HDMI dementsprechend unterschiedlich sein.

solange ich mit AVRs und grafikkarten rummache, war DVI immer zu HDMI pinkompatibel und ersterer hat per adapter oder adapterkabel auch immer ton mit übertragen.

just my 2 cents


(..)

mfg
tobi
 
Zurück
Oben Unten