News [Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync

Was soll immer dieser Mist mit dem "Schmu"? Das ist Betrug, so einfach. Nennt das Kind doch beim Namen!
...Ich stelle mir die Leute, die diesen alten Begriff in alle deutschsprachigen Foren hämmern, gerade vor, wie sie sich im Sexualkundeunterricht an der Tafel / in der Klausur ausdrücken.
 
"Betrug" ist mir ne Spur zu hart, das kannste bei der 970 anbringen. Aber es weiß noch keiner, was nun genau im G-Sync-Modul drinnen steckt (also was der FPGA tatsächlich tut) und was da über die AdaptiveSync-Fähigkeiten ausm DP-Standard hinaus passiert.

Was du meinst ist übrigens Snu Snu ;D
 
Adaptive Sync ist jedoch schon länger Teil vom eDP Standard. Für DP wurde es erst nach der Einführung von G-Sync spezifiziert. Vergesst das nicht, bevor ihr Betrug schreit.
 
Der Betrug besteht im unnötigen GSync-Modul wie ja offensichtlich deutlich wurde. Weder der Aufpreis noch das proprietäre Design haben einen technischen Hintergrund. Und hier wird Nvidia wohl auch das Problem bekommen haben - Laptops hatten sie wohl gar nicht vorgesehen, da das GSync-FPGA für mobile Geräte zu viel Strom benötigt.
 
Du tust ja gerade so als würde das G-Sync Modul Däumchen drehen. Es übernimmt alle Aufgaben des (nicht zu Adaptive Sync fähigen) Scaler Chips, der sich sonst an der Stelle befindet.
 
Na, weil die Scaler Chips von externen Monitoren vor der Einführung von G-Sync und FreeSync eine fixe Refreshrate vorausgesetzt haben. In der Regel waren dies 60 Hertz. nVidia verwendet in der Anfangsphase einen kostspieligen FPGA um solche überholten Scaler Chip durch einen zu ersetzen, der mit einer variablen Refrehsrate zurecht kommt. Bemängeln muss man an dieser Stelle, dass G-Sync proprietär bleibt. Vom technischen Aufwand her ist jedoch FreeSync nicht weniger fordernd (beziehungsweise schlicht). Beim Einsatz veralteter Scaler Chips scheitert die AMD Lösung ebenso. Der Scaler muss Adaptive Sync unterstützen, indem er zum Beispiel aus dem mobilen Sektor entstammt, wo variable Refreshrates zuvor schon für eDP spezifiziert waren. Bei FreeSync kommen von Anfang an ASICs zum Einsatz. Wenn Samsung oder LG günstig an FPGAs kommen ist jedoch nicht gesagt, dass diese nicht als Scaler für FreeSync herhalten müssen, anstatt dass die Funktion in Hardware gegossen wird. Das ist unwahrscheinlich, weil es FPGAs selten zum Schnäppchenpreis gibt, aber denkbar wäre es schon. Diese Freiheit ist doch das Schöne an FreeSync. Man kann einen FPGA als Scaler nehmen oder eben einen ASIC. Diesen Schritt wird nVidia bei G-Sync ebenfalls noch vollziehen. Womöglich wurde er sogar schon vollzogen und es gibt bereits ASICs für G-Sync.

Es ist jedenfalls sehr zu begrüßen, dass AMD den Weg über die VESA gegangen ist. FreeSync ist im Ergebnis das vielversprechendere Feature. Im Grunde tun G-Sync und FreeSync nämlich exakt dasselbe. Bloß hat der Monitorhersteller bei FreeSync die freie Wahl zwischen allen kompatiblen Scaler Chips und bei G-Sync muss er die Chips verwenden, die nVidia einem aufzwingt. Verdrängt dabei jedoch nicht den Umstand, dass die nVidia Lösung die erste auf dem Markt war. Da es vorher keinen verbindlichen Standard gab, hatte nVidia bei der Umsetzung sozusagen Narrenfreiheit und konnte dies ausnutzen. Kundenfreundlich ist G-Sync keinesfalls. Allerdings auch keine Bauernfängerei. G-Sync erfüllt schließlich den beworbenen Zweck einwandfrei.

Es ist denkbar, dass man eine GeForce Karte dazu bringen kann, mit einem FreeSync Monitor zusammen zu arbeiten. Das ist dann dieselbe Geschichte, wie damals, als man durch Treibermodifikationen SLI auf Chipsätzen zum Laufen gebracht hat, die nicht von nVidia stammen. Es steht jedem frei die Treiber (zu privaten Zwecken) anzupassen, aber man kann nVidia nicht zwingen es zu tun. Das war übrigens bei CrossFire von ATi/AMD dasselbe.

Lange Rede, kurzer Sinn: Hätte es den VESA Standard zuerst geben, hätte man nVidia einen Riegel vorschieben können. Aber nVidia kam AMD einfach zuvor und konnte so die Spielregeln festlegen. Nicht für den gesamten Markt, weil G-Sync nicht offen ist, aber für die eigenen Produkte.
 
Zuletzt bearbeitet:
Wozu entwickelt Nvidia etwas, das es schon längst in Notebooks gibt? Entweder benutzen Notebooks scaler die das können, die ebenso in jedem Monitor verbaut werden können oder eDP braucht keinen scaler und wäre die zu verbauende vorhandene Technik. Egal warum es in Notebooks geht - es geht auch auf jedem Monitor. Also wozu da ein ominöses nutzloses Modul erfinden? Aus technischer Sicht völliger Unsinn und keinesfalls billiger als die vorhandene und seit Jahren funktionierende Technik. Das hat ja AMD AdHoc bewiesen wie schnell der vorhanden VESA Standard auf DP 1.2a erweitert wurde. Ob das GSync-Modul schneller entwickelt war?

--- Update ---

Z.B. diesen ASIC hätte man nehmen können:
http://www.st.com/web/en/catalog/mmc/FM128/CL1746/SC991/PF252130
The Athena SoCs allow for a flexible LCD/notebook panel interface by providing high-speed dual (STDP73x0) and quad (STDP93x0/STDP9210) LVDS transmitters as well as iDP/eDP1.2 transmitters.
Den kann man auch in jeden normalen Monitor verbauen und stammt ebenfalls von Athena und vergleiche mal die Featureliste mit dem GSync Modul:

Single-chip WQXGA (2560 x 1600) monitor scaler (STDP93x0)
Single-chip 3D FHD (1920 x 1080 120 Hz) monitor scaler (STDP9210)
Single-chip WUXGA (1920 x 1200) monitor scaler (STDP73x0)
Integrated DisplayPort® (DP) 1.2 compliant Rx and Tx with support for eDP, multistream, and 3D video formats
Supports VESA Mobility DisplayPort (MyDP) standard
Video processing supports full or partial capture of 4096 x 2160 format scaled to 2560 x 2160 output format
Integrated HDMI 1.4 and dual-DVI receiver to support 3D video
10-bit triple ADCs (sampling rate up to 205 MHz)
Integrated 2:1 MUX to receive VGA and component input
High-speed dual LVDS Tx (STDP73x0) or quad LVDS Tx (STDP93x0/STDP9210)
DDR2/DDR3 memory interface 32 bits wide (STDP93x0/STDP9210) or 16 bits wide (STDP73x0)
Supports daisy chaining of monitors of up to four streams (STDP9320/STDP7320)
Video window detection for multimedia content display
Panel backlight RGB uniformity compensation
Advanced Faroudja® video processing: MADi and DCDi
6-axis color control independent of ACC
Advanced bit-mapped OSD controller
3D Frame Rate Conversion (FRC) and advanced overdrive to support 3D video
4K x 2K screen resolution support
Advanced PIP for all input sources
 
Also wozu da ein ominöses nutzloses Modul erfinden?
Das war wohl nur eine Übergangslösung. Jetzt zertifiziert man Scaler von der Stange mit dem Label "nVidia powered G-Sync".

Das werden dieselben Scaler sein, wie bei FreeSync. Bloß, dass AMD keine Lizenzgebühren dafür einstreichen kann, während nVidia am Logo-Programm verdient.

Die zuvor am Markt befindlichen Scaler werden nVidia aus welchen Gründen auch immer nicht gepasst haben. Vielleicht waren sie inkompatibel zu den Wunschpanels.
 
Zuletzt bearbeitet:
Dabei kommt mir jetzt sogar der Verdacht, das selbst für AdaptiveSync gar keine neuen Scaler nötig sind, sondern die schon längst erhältlichen lediglich über eDP angeschlossen werden müssen intern um Freesync möglich zu machen:
The Athena SoC family provides additional digital-video and audio connectivity, such as dual Digital Visual Interface (DVI), analog component, TTL and SPDIF/I2S inputs. Panel interface options are Quad Low-Voltage Differential Signaling (LVDS) and Internal DisplayPort (iDP) or Embedded DisplayPort (eDP) formats.
Und das der einzige Grund für die Wartezeit bei den Monitoren ist.

Jedenfalls können die Gsync Module nicht mal annähernd was die vorhandenen ASIC können und waren selbst als Übergangslösung nur eine schlechte Kopie vorhandener Technik die standardisiert ist.
 
Zuletzt bearbeitet:
Bei dem von dir verlinkten Monitor Controller ist nirgends von Adaptive Sync die Rede. Ob er überhaupt mit variablen Refreshrates zurecht kommt? Oder schließt du das aus dem eDP Eingang? Adaptive Sync war und ist bei eDP jedoch ein optionaler Bestandteil des Standards. Nicht jeder Scaler Chip für eDP wird variable Refreshrates beherrschen. Es könnte sogar die Ausnahme sein.
 
Schön für dich - es wird kein GSync Modul gebraucht. Das ist getestet und belegt. Es ist nutzlos. Es gab Chips die mehr konnten als Nvidias angebliche "Erster-Am-Markt"-Eigenbau. Dieser hatte nur einen einzigen Grund - einen Standard proprietär zu nutzen.

Da kannst du nun noch so viel aussen herum reden. Wenn es in Laptops läuft, läuft es auch auf Monitoren.
Die Jungs haben es mit 3 Handgriffen vor zwei Jahren schon geschafft eDP an einem PC zu betreiben ohne eine eigenes Modul zu basteln:
http://emerythacks.blogspot.de/2013/04/connecting-ipad-retina-lcd-to-pc.html
What is great about this panel (except its resolution) is that it has an eDisplayPort interface (which is supposed to replace LVDS in the near future), and as this hack proves it is compatible with traditional DisplayPort outputs found on all modern video cards.
 
Ich persönlich finde FreeSync besser, aber wozu G-Sync mit an den Haaren herbei gezogenen Argumenten schlecht reden?
Es gab Chips die mehr konnten als Nvidias angebliche "Erster-Am-Markt"-Eigenbau.
Das G-Sync Modul erfüllt doch alle Aufgabe eines Scalers, wie man es erwarten würde und obendrein noch Adaptive Sync.
Die Jungs haben es mit 3 Handgriffen vor zwei Jahren schon geschafft eDP an einem PC zu betreiben...
eDP ungleich DP. Ohne Scaler Chip kommt man übrigens ebenso wenig bei eDP aus. Und nicht alle unterstützen Adaptive Sync. Variable Refreshrates sind bei Notebooks nicht an der Tagesordnung, sondern selten anzutreffen. Außerdem wird dieser Hack wegen HDCP nicht zulässig sein. Schließlich wird bei eDP der Audio- und Videostream nicht verschlüsselt, weil er sich bei Notebooks und AiO PCs nicht ohne größeren Aufwand abgreifen ließe. Würden nVidia Karten eDP bei externen Anschlüssen anbieten, hätten sie sofort Intel im Nacken.

Wenn Scaler für DP, die Adaptive Sync unterstützen, vor der Einführung von G-Sync an der Tagesordnung gewesen wären, dann hätte nVidia zu Beginn bestimmt kein teures FPGA verbaut (inzwischen tun es 08/15 ASICs) und für FreeSync würden sich die Monitorhersteller überstürzen abertausende Firmware Updates nachzureichen. Bloß blieb die Firmware Schwemme bisher aus. Auch bei den Neuvorstellungen ist FreeSync bei einer Minderheit an Bord. Das belegt doch, dass die Scaler Chips mit Adaptive Sync nicht so verbreitet waren, wie von dir kolportiert.

G-Sync eignet sich nicht als Angriffspunkt auf nVidia. Besser man geht andere Baustellen an, wie CUDA, PhysX oder Mantle.
 
Zuletzt bearbeitet:
Ich glaube, ihr redet aneinander vorbei. Bleibt aber bitte sachlich, werdet nicht ausfallend.
 
G-Sync eignet sich nicht als Angriffspunkt auf nVidia. Besser man geht andere Baustellen an, wie CUDA, PhysX oder Mantle.
Da haben wir ja das Probelm. Du denkst hier wird Nvidia angegriffen nur so aus Spaß. Dass Gsync funktioniert streitet niemand ab. Der Punkt ist der Haufen Lügen in der Kommunikation über die verwendete Technik. GSync ist ein großer Bluff der aus nichts anderem besteht als AdaptiveSync und einem DRM-Modul. Was du daran so Toll findest ist mir eigentlich völlig unklar.

Auf der Negativseite stehen:
  • erhöhte unnötige Kosten für Hersteller und Kunden
  • Höherer Stromverbrauch und daher für Mobile nicht geeignet
  • fehlende Anschlüße oder 2 Scalerchips für DVI, HDMI und VGA um das zu kompensieren (noch höhere Kosten und noch höherer Stromverbrauch)
  • 30Hz als unteres Limit und somit keine Hilfe für Cineasten im Bereich 23,97-30 FPS
  • Beschränkung auf einen Hersteller (auch wenn das der einzige Grund ist warum GSync existiert ist es ein Negativpunkt aus Kundensicht)
Diese Negativpunkte sind künstlich und wären nicht nötig wenn man sich an den VESA-Standard hielte - aber Moment...das tut man, hat es aber nur nicht richtig und mit allen Features implementiert. Hinzu kommt, dass Nvidia trotz blumiger Versprechen noch nicht mal Ansatzweise mitgeteilt hat worin denn GSync besser sein soll und welche Eigenschaften denn dazu führen sollen. Die technischen Spezifikationen bieten hierbei lediglich 768 MB Speicher auf dem Modul an, welche AdaptiveSync Technik nicht benötigt - GSync aber auch nicht da die gerenderten Frames direkt an den Monitor gehen und üblicherweise die GPU genug Platz hat im VRAM für Backbuffer und Frontbuffer - ausser natürlich sie haben das als Ersatz für die Speicherlüge bei der GTX970 gedacht.

Nachdem das Modul nun entzaubert wurde und offensichtlich nicht benötigt wird um Adaptive Frameraten zu erreichen, steht du hier und sagst ist ja alles Toll?
Wenn Scaler für DP, die Adaptive Sync unterstützen, vor der Einführung von G-Sync an der Tagesordnung gewesen wären, dann hätte nVidia zu Beginn bestimmt kein teures FPGA verbaut (inzwischen tun es 08/15 ASICs) und für FreeSync würden sich die Monitorhersteller überstürzen abertausende Firmware Updates nachzureichen.
Diese Einschätzung geht aber völlig an der Realität vorbei die Nvidia mit seinen Kunden praktiziert. Das ist weder ein Argument noch kann irgendjemand bestätigen, dass diese eigenen ASICs mit GSync existieren. Wo soll es einen Monitor damit geben?
Firmware Updates gehen nur bei intern mit eDP angebundenen Monitoren und nicht mit LVDS - die meisten Monitore sind aber intern nicht mit eDP angeschlossen. Ausser eben einigen Notebook-Modellen die jetzt schon den Beweis antreten, dass Nvidias Modul nicht benötigt wird.

Reicht es nicht wenn Nvidia selber einen Haufen falscher Technischer Daten kommuniziert - du solltest nicht noch mehr Eigenschaften dazu dichten wenn du sie nicht harten Fakten untermauern kannst. Wo sind die technischen Dokumente die auch nur eine Behauptung deinerseits stützen? Du kannst dich hier gerne weiter als Nvidias PR-Manager betätigen, doch bitte nur mit Links zu Beweisen zu dem was du dir zusammen dichtest. Dies ist nicht der Spekulationsthread.

Und eDP ungleich DP ist der unsinnigste Satz in deinem Beitrag und zeigt dass du gar nicht verstehst was damit bewiesen ist. Mit interner eDP Anbindung sind Monitore alls ASycn-fähig. DP lässt sich an eDP anbinden um GPUs mit DP zu verwenden. Lies den Link und lerne wie man es macht ohne ein eigenes Modul zu kreieren - Aber dafür war wohl kein Budget mehr übrig nachdem alle an dem tollen Modul gearbeitet haben das nicht mal die Standard-Features für Monitore bieten kann.

Wie kann man es Gutheißen wenn ein Unternehmen völlig ohne eigene Entwicklung einen VESA-Standard versucht zu maskieren und sich daran zu bereichern? Jemand der auch nur einen Cent im Leben für einen Monitor ausgeben musste kann das doch auf keiner Ebene gut finden und auch noch verteidigen. An deiner Stelle würde ich jetzt mal ein paar Tage ruhig abwarten, bis die ganzen Fakten Stück für Stück aus Nvidias Lügnernase gezogen wurden bevor du hier weiterhin falsche Dinge erzählst die teilweise schon längst widerlegt sind. Das nenne ich Wunschdenken - wobei ich mich Frage warum du dir das wünschst. Halt dich an die Fakten und hör auf hier Nebelkerzen zu streuen. Du argumentierst aus Unternehmersicht und nicht aus Verbrauchersicht.

--- Update ---

Mehr Informationen die das bestätigen:
http://www.gamestar.de/hardware/news/grafikkarten/3082497/nvidia_g_sync.html
Die Tatsachen liegen allerdings etwas anders. Der Betreiber von GameNab hatte vom Asus Nordic Support einen Treiber zugeschickt bekommen, in dem aus Versehen eine experimentelle Funktion eingebaut war, die G-Sync betrifft. Mit diesem Treiber ist G-Sync tatsächlich ohne Modul möglich, allerdings nur auf speziellen Displays. die vor allem in Laptops verbaut werden und einen »embedded DisplayPort« (eDP) unterstützen. Das ist beispielsweise bei einem Asus G751 der Fall. Pikanterweise waren es auch genau diese eDP-Displays, die AMD seinerzeit für die ersten Präsentationen von Freesync verwendete. Die Funktionen, die in eDP-Displays vorhanden sind, sind auch die Grundlage für die neuen Freesync-Monitore.
 
Zuletzt bearbeitet:
GSync ist ein großer Bluff der aus nichts anderem besteht als AdaptiveSync und einem DRM-Modul.
G-Sync bringt Adaptive Sync. Mehr aber auch nicht. Hat nVidia je etwas anderes behauptet?
Höherer Stromverbrauch und daher für Mobile nicht geeignet
Nur dann, wenn man wie bei der ersten Generation der G-Sync Monitore einen FPGA als Scaler Chip verbaut.
...wären nicht nötige wenn man sich an den VESA-Standard hielte...
Vor der Einführung von G-Sync gab es keinen VESA Standard, der Adaptive Sync für DP spezifiziert. Lediglich bei eDP war dies der Fall mit dem Ziel den Stromverbrauch zu senken.
...GSync aber auch nicht da die gerenderten Frames direkt an den Monitor gehen...
Der ST Monitor Controller auf den du oben verweist, steuert ebenfalls DDR2/DDR3-RAM an. Ich könnte mir vorstellen, dass man ihn beispielsweise für OverDrive benötigt.
Nachdem das Modul nun entzaubert wurde und offensichtlich nicht benötigt wird um Adaptive Frameraten zu erreichen...
Es braucht nun einmal einen Scaler Chip, der Adaptive Sync unterstützt. Da führt kein Weg drum herum. Und diese Aufgabe übernimmt das G-Sync Modul. Es ist vielleicht nicht die beste Lösung, aber halt doch eine Lösung.
Wo soll es einen Monitor damit geben?
Der BenQ XL2420G kommt angeblich mit ASIC statt FPGA. Das wollen Nutzer daran festgemacht haben, dass der Scaler Chip ungekühlt ist und Signale über DVI, DP und 2x HDMI entgegen nimmt.
Firmware Updates gehen nur bei intern mit eDP angebundenen Monitoren und nicht mit LVMS
Ein USB oder RS-232 Port als Service Port am Monitor würden ausreichen, um ein Firmware Update einzuspielen. Das hat nicht jeder Monitor, aber manche schon. Insbesondere diejenigen aus der gehobenen Preisklasse.
Mit interner eDP Anbindung sind Monitore alls ASycn-fähig.
Falsch, denn mit eDP steuert man nicht das Panel direkt an, sondern den Scaler Chip und dieser muss Adaptive Sync explizit unterstützen. Bei Notebooks ist Adaptive Sync jedoch optional und kein fester Bestandteil des VESA Standards. Also beherrschen nicht alle Scaler Chips durch die Bank dieses Feature.

Ich hoffe ich konnte einige Unklarheiten beheben. Im Grunde ist es gar nicht so schwer zu verstehen.

Es gab einst ein Feature namens TruForm von ATi. Damit konnten gewölbte Oberflächen mit geringem Aufwand dargestellt werden. Das hat man sich bei der Spezialhardware von Renderfarmen abgeschaut. Gänzlich neu war TruForm somit nicht. ATi hat dieses Feature jedoch als Erster in Desktop Hardware portiert. (Viel) später wurde dieses Feature auf eine andere Weise von Microsoft in den Direct3D Standard aufgenommen und nannte sich fortan Tesselation. Verkommt TruForm damit nachträglich zu einem "Betrug"? Ich würde sagen "Nein", denn ATi kam dem Standard (lange) zuvor. Siehst du die Parallelen?
 
Zuletzt bearbeitet:
G-Sync bringt Adaptive Sync. Mehr aber auch nicht. Hat nVidia je etwas anderes behauptet?
Ja - sie sagen deutlich dass GSync nicht kompatibel ist zu Adaptive Sync Monitoren ohne GSync Modul. Im Adaptive Sync Standard ist keine GSync Modul erwähnt. AMD hat AdaptiveSync umgesetzt ohne ein GSync-Modul, es nennt sich Freesync und ist kompatibel zu allen AdaptiveSync fähigen Monitoren.

Da AdaptiveSync ein freier Standard ist, kann GSync nicht AdaptiveSync bringen. Nvidia kann höchsten beides Unterstützen.
Nur stellt sich wohl immer mehr heraus, dass GSync ein beschnittenes AdaptiveSync ist. Nur hat Nvidia das ja abgestritten.
Nur dann, wenn man wie bei der ersten Generation der G-Sync Monitore einen FPGA als Scaler Chip verbaut.
Andere Scaler gibt es bisher nicht und ich dene es werden gar keine anderen kommen - oder hast du einen Link zu einer zweiten Generation oder zu einer Meldung wer denn diese Asics bauen will und wann die anfangen diese zu produzieren?

Hier höre ich auf weiter auf deinen Beitrag einzugehen, da erneut keine einzige Quelle dazu geliefert wurde. Die Hälfte deiner Beiträge könntest du dir sparen wenn du eine kurze Recherche machen würdest um einen Link zur Bestätigung deiner Behauptungen zu finden.

Alleine das hier:
Vor der Einführung von G-Sync gab es keinen VESA Standard, der Adaptive Sync für DP spezifiziert.
hättst du bei der VESA nachschlagen können und dir diese falsche Behauptung sparen können. Denn eDP ist Teil des DP-Standards. Und mit der Einführung von Gsync wurde auch kein Standard gegründet.

Aber das hier schießt mir echt den Vogel ab:
Ein USB oder RS-232 Port als Service Port am Monitor würden ausreichen, um ein Firmware Update einzuspielen. Das hat nicht jeder Monitor, aber manche schon.
BITTE lies mal nach was eDP ist!!!!! Und verschone mich bitte damit. eDP ist kein Anschluß der nach aussen führt, sondern ersetzt LVDM als interne Monitor-Verbindung.. Wie soll man darüber Updates machen? Es geht darum, dass ein Firmware Update bei Monitoren mit eDP anstatt LVDM Anbindung des Panels die adaptive Refreshrate wie an den Notebooks beherrscht - was denkst du wo ein Adaptive Sync Scaler herkommt in einem 2 Jahre alten Notebook?

Es wurde bewiesen dass keine neuen Scaler nötig sind, nur das scheint nicht zu dir durchzudringen, wenn eDP verwendet wird!

VESA sollte deine nächste Station sein wenn du zu dem Thema etwas Konstruktives beitragen möchtest - und lies mal meine Signatur, denn für Forenuser wie dich habe ich sie eingebunden. Ansonsten empfehle ich dir hier etwas mehr zu lesen als zu schreiben.
 
Möglicherweise, weil TruForm erst später in einen Standard aufgenommen wurde, Adaptive Sync und G-Sync aber fast gleichzeitig spezifiziert wurden.
 
Bitte geh nicht auf die nächste Offtopic-Nebelkerze ein. Das ist ja grausig welche Rundumschläge hier stattfinden nur um des diskutieren willens. Aber so zerredet man eben Themen die einem nicht passen oder die man nicht begreifen kann.
 
Ja - sie sagen deutlich dass GSync nicht kompatibel ist zu Adaptive Sync Monitoren ohne GSync Modul.
G-Sync und FreeSync bringen beide Adaptive Sync für Desktop Monitore auf eine technisch eng verwandte Weise. Wenn G-Sync etwas umgesetzt hätte, was bei Desktop Monitoren längst Gang und Gäbe war, dann hätte es übrigens nicht FreeSync bedurft. Ich würde FreeSync jedoch keinesfalls als überflüssig bezeichnen. FreeSync war erforderlich und ist als offener Standard in meinen Augen G-Sync vorzuziehen. Besitzt man eine GeForce Grafikkarte hat man jedoch keine Wahl. Man sollte die Lizenzpolitik hinter G-Sync bemängeln, aber technisch gibt es daran leider wenig auszusetzen.
Andere Scaler gibt es bisher nicht und ich dene es werden gar keine anderen kommen
Dann schau dir den genannten BenQ Monitor mal näher an.
eDP ist kein Anschluß der nach aussen führt, sondern ersetzt LVDM als interne Monitor-Verbindung...
Erstens heißt es LVDS und zweitens geht es bei G-Sync doch um externe Monitore. Für Notebooks hat es niemals G-Sync gegeben. Dort setzt nVidia auf das für eDP durch die VESA offiziell spezifizierte Adaptive Sync. Das geht aus dem Zitat in deinem eigenen Beitrag #24 (indirekt) hervor. Bloß war Adaptive Sync vor der Einführung von FreeSync eben nur für eDP, aber nicht für DP, spezifiziert. So konnte nVidia ungehindert seinen Sonderweg einschlagen.

Das VESA Konsortium hat es wohl einfach nicht kommen sehen. Pech gehabt...

Ergänzung: G-Sync braucht keine Hardware, die groß anders ausfällt als bei FreeSync. Es ist inzwischen ein Logo-Programm, wie 3D Vision (in Teilen).
 
Zuletzt bearbeitet:
Was du da immer über externe Monitore erzählst. Mag sein dass es bei GSync darum geht, doch bei der VESA geht es um alle Monitore und Displays, inkl. Tablet und Mobile, Videokameras etc. Alle neueren Monitore nutzen eDP auch im Desktop als Anbindung. Jetzt da du das Kürzel LVDS richtig buchstabieren kannst, lies doch mal einfach die VESA Dokumente anstatt hier so öffentlich dein Unwissen zu demonstrieren.

eDP ist im DP-Standard definiert. Die beiden Dinge kannst du nicht separieren. Ich mach das jetzt so:

G-Sync bringt Adaptive Sync.
Falsch

Vor der Einführung von G-Sync gab es keinen VESA Standard, der Adaptive Sync für DP spezifiziert. Lediglich bei eDP war dies der Fall mit dem Ziel den Stromverbrauch zu senken.
Falsch.

Der ST Monitor Controller auf den du oben verweist, steuert ebenfalls DDR2/DDR3-RAM an. Ich könnte mir vorstellen, dass man ihn beispielsweise für OverDrive benötigt.
irrelevant
Es braucht nun einmal einen Scaler Chip, der Adaptive Sync unterstützt. Da führt kein Weg drum herum.
Quelle? Das waren bisher Vermutungen weil NVIDIA das behauptet hat um GSync zu rechtfertigen. AMD hat nie gesagt es bräuchte einen neuen Scaler.

Der BenQ XL2420G kommt angeblich mit ASIC statt FPGA.
Gerücht und unwahr. Beweise für diese Gerücht? Fehlanzeige.
Das wollen Nutzer daran festgemacht haben, dass der Scaler Chip ungekühlt ist und Signale über DVI, DP und 2x HDMI entgegen nimmt.
Der Monitor hat 2 Scaler weil GSync das nicht kann:
NVIDIA’s latest G-SYNC revolution requires monitor manufacturers to replace their scalar with a G-SYNC, trading in the freedom to scale settings like input frame, color hue, intensity and contrast for pure speed and smoothness of the game. With the best efforts of our R&D champions, we’ve found a way to keep your options open with the world’s first hybrid engine design. So you are in control of matching your choice of gameplay.
BenQ wirft hier weitere Unzulänglichkeiten des GSync-Moduls auf!

Wieso googelst du diese Quellen nicht selber bevor du hier Müll schreibst?
http://gaming.benq.com/gaming-monitor/xl2420g/
Ergänzung: G-Sync braucht keine Hardware, die groß anders ausfällt als bei FreeSync. Es ist ein Logo-Programm, wie 3D Vision (in Teilen).
Na das wissen wir jetzt auch alle, nur Nvidia behauptet was völlig anderes.

--- Update ---

Um nun mal wieder vorwärts zu kommen mit dem Thema und den Nachhilfe Unterricht hier im Thread zu beenden:
Aktuelle Panels die mit eDP angebunden sind die man testen kann:
http://www.panelook.com/modelsearch...&signal_type_category=eDP&production_state=-1
 
AMD hat nie gesagt es bräuchte einen neuen Scaler.
Dann müsste FreeSync mit jedem Monitor klappen, der einen DP Eingang hat. Tut es aber nicht.

Ich würde dir raten, dich besser in die Thematik einzulesen, bevor du dich weiter hinein reitest.
 
Nein du raffst es nicht. Mit jedem der über eDP angebunden ist intern. DAS ist der Nachweis der hier durch die mobilen Nvidia GPUs erbracht wurde. Eben habe ich doch einen Link zu den Panels gepostet.

BITTE LIES NACH WAS eDP IST!!!!!
Das schrieb ich dir nun mehrfach. Mach mal deine Hausaufgaben.
 
BITTE LIES NACH WAS eDP IST!!!!!
Das ist allseits bekannt, aber die Folgerungen, die du draus ziehst, sind trotzdem fehlerhaft. Verkürzt sagt du, dass bei eDP immer Adaptive Sync mit an Bord wäre, was schon einmal unzutreffend ist. Dann sagst du weiter, dass eDP als Unterart von DP anzusehen ist, was zutrifft. Allerdings folgerst du dann, dass DP alle Features von eDP unterstützt, was wiederrum nicht der Fall ist. Man kann nicht den Schluß ziehen, dass jeder Scaler für Desktop Monitore automatisch Adaptive Sync unterstützt, weil er mit den Scalern in Notebooks verwandt ist. Diesen Schritt haben erst G-Sync und FreeSync vollzogen.
 
Vielleicht helfen dir ja Bildchen
DP8640-Block-Diagram-20140325.png


DP703-Block-Diagram-20131017.png


Denkst du wirklich irgendein Monitor oder eine GPU erhalten einen eDP Anschluß? Es ersetzt intern die LVDS-Anbindung. Oder kennst du GPUs mit LVDS-Anschluß????

--- Update ---

Verkürzt sagt du, dass bei eDP immer Adaptive Sync mit an Bord wäre, was schon einmal unzutreffend ist.
Bitte widerlege das wenn du denkst es sei falsch. Wieder nur Behauptungen
Dann sagst du weiter, dass eDP als Unterart von DP anzusehen ist, was zutrifft.
Wo sage ich das. Es ist keine Unterart von DP sondern bei der VESA im DP-Standard spezifiziert.
Allerdings folgerst du dann, dass DP alle Features von eDP unterstützt, was wiederrum nicht der Fall ist.
Wo schreibe ich das? Zitat?
Man kann nicht den Schluß ziehen, dass jeder Scaler für Desktop Monitore automatisch Adaptive Sync unterstützt, weil er mit den Scalern in Notebooks verwandt ist. Diesen Schritt haben erst G-Sync und FreeSync vollzogen.
Wo schreibe ich das.....ich rede nicht über scaler, das machst du. eDP hat gar nichts mit scalern zu tun und es spricht ausser dir auch keiner von scalern.

Ich schrieb, dass ich mitlerweile spekuliere, dass die Scaler völlig unwichtig sind für AdaptiveSync und dass es wohl auf die richtige Anbindung ankommt über eDP. Scaler werden neue gebracht, weil die älteren über LVDS angeschlossenen eine deutlich niedrigere Auflösung handhaben mussten. Durch die erhöhten Bandbreiten werden neue scaler nötig - was nicht bedeutet, dass ASync ebenso bei FullHD funktioniert, dafür aber KEINEN neuen Scaler braucht wie es ja BEWIESEN wurde in Notebooks. Der Scaler von Nvidia ist eine Mogelpackung. Die Scaler die AMD angekündigt hat, sind lediglich die neue Generation für die höheren Auflösungen die eDP ermöglicht und diese werden zeitgleich in den Markt gebracht in diesem Quartal in neuen Monitoren.

--- Update ---

Hier noch ein Bild das zwar schon 2011 veröffentlicht wurde aber es zeigt die Basics:
attachment.php


Kommt dir das bekannt vor? - Es zeigt exakt die Frameraten bei AdaptiveSync im Vergleich zu fixierter Monitorfrequenz.
Findet sich auf Seite 10 hier: http://home.sogang.ac.kr/sites/aipr...plications_LG전자_홍국태 발표자료_HS Interface_V10.pdf
Und es benötigt keinen Scaler besonderer Bauart. Nur muss der scaler über eDP angeschlossen sein im Monitor und diese gibt es nun mal schon lange waren aber teuren Modellen und Mobile vorbehalten.
 

Anhänge

  • eDP.JPG
    eDP.JPG
    101,1 KB · Aufrufe: 1.870
Zuletzt bearbeitet:
Zurück
Oben Unten