News [Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync

Was soll man dazu noch grossartig sagen? Bei so dreisten Geschäftsgebaren fehlen einem mittlerweile nur noch die Worte. Wenn das ganze ohne G-Sync Modul auf Notebooks funktioniert, dann wüsste ich nicht, warum es nicht auch bei Monitoren funktionieren sollte, sofern diese den gleichen DP Support mitbringen. Da kann sich Nvidia auch die Ausflüchte sparen, von wegen nicht die gleiche Erfahrung oder dergleichen. Typische Bauernfängerei.

Naja, vielleicht kapieren ja jetzt einige mal, dass es Nvidia nicht um gute und sinnvolle Lösungen für uns geht. Denen geht es nur um proprietäre und überteuerte Lösungen, um die Konkurrenz gezielt auszuschliessen und uns zu schröpfen. Wobei mir Nvidias Softwaresupport noch deutlich mehr gegen den Strich geht, siehe Gameworks.
 
@Complicated: Eines verstehe ich nicht? Was soll das noch mit G-Sync zu tun haben. G-Sync beseitigt doch in erster Linie die fixe Refreshrate auf der Kabelstrecke zwischen Grafikkarte und Bildschirm. Die Verbindung zwischen dem TN/VA/IPS Panel und dem Scaler Chip war doch niemals die primäre Baustelle. LVDS war zwar nie für variable Refrehsrates konzipiert, aber weil der Monitorhersteller hier seine Hände schützend drauf legen kann, kräht kein Hahn danach, wenn man Anpassung vornimmt. Schließlich ist die Verbindung zwischen Panel und Scaler Chip von außen (für GPU und deren Treiber) unsichtbar; egal ob über LVDS oder eDP. FreeSync setzt vorrangig an derselben Stelle an. Nämlich der externen Verbindung über ein DP Kabel.

Langsam kommt mir der Verdacht, dass du von irgendetwas ablenken möchtest. Ich weiß nur nicht wovon. Gehen wir die Sache anders an. Lassen wir einmal die G-Sync Module der ersten Generation außer Acht und fragen uns, was FreeSync anschließend besser macht als G-Sync. Da wäre natürlich der äußerst gewichtige Pluspunkt, dass FreeSync offen ist. Mir käme aus diesem Grund übrigens niemals ein G-Sync Monitor ins Haus. Ich könnte zwar keinen Vorteil daraus ziehen, weil ich eine Radeon HD 7870 habe; aber selbst wenn ich zum Beispiel jemals eine GeForce GTX 960 erwerben sollte, würde ich mich gegen G-Sync entscheiden, um dieses Geschäftsgebahren von nVidia nicht zu unterstützen.

Jetzt bist du gefragt, was macht FreeSync außer der Offenheit besser als G-Sync? Also rein auf der technischen Ebene. Beide Techniken drehen doch am Blanking Intervall. Vergiss nicht, dass nVidia nach und nach Scaler zertifiziert oder zertifizieren möchte, die nichts mehr mit dem FPGA in der ersten Generation zu tun haben. Leider werden bei Reviews die Gehäuse von Monitoren im Regelfall nicht zerlegt. So sind Bilder von den Steuerungsplatinen rar. Mit Gewissheit weiß man nicht, ob mittlerweile schon andere Scaler als der (zweckentfremdete) Altera Arria V GX zum Einsatz kommen.

Geplant war es jedoch von Anfang an, wie ein Artikel vom Dezember 2013 belegt:
The first G-Sync module only supports output over DisplayPort 1.2, though there is nothing technically stopping NVIDIA from adding support for HDMI/DVI in future versions. Similarly, the current G-Sync board doesn’t support audio but NVIDIA claims it could be added in future versions (NVIDIA’s thinking here is that most gamers will want something other than speakers integrated into their displays). The final limitation of the first G-Sync implementation is that it can only connect to displays over LVDS. NVIDIA plans on enabling V-by-One support in the next version of the G-Sync module, although there’s nothing stopping it from enabling eDP support as well.
Quelle: http://www.anandtech.com/show/7582/
Wobei mir Nvidias Softwaresupport noch deutlich mehr gegen den Strich geht, siehe Gameworks.
Ja, die Grabenkämpfe mit Gaming Envolved und GameWorks auf den Rücken der Kunden sind der eigentliche Skandal. Wobei TressFX und die anderen AMD Features im Vergleich zu den unter Verschluss gehaltenen Shaderroutinen bei GameWorks ziemlich harmlos sind. Dazu sollte man eine User News machen. Dann wäre die Aufregung berechtigt, weil nVidia damit AMD Nutzern schadet, während unter G-Sync ausschließlich nVidia Kunden zu leiden haben.
 
Zuletzt bearbeitet:
Was Freesync besser macht?
Ganz einfach es ist ein offener Standard, es benötigt keine neue Hardware im Monitor, es verbraucht weniger Strom, es läuft auf allen Display -Geräten, an Desktop Monitoren können VGA, DVI und HDMI angebunden werden, es biete Frequenzen zwischen 9-240 Hz, es hilft auch zwischen 24-30 FPS, es kostet keinen Aufpreis.
Vergiss nicht, dass nVidia nach und nach Scaler zertifiziert oder zertifizieren möchte, die nichts mehr mit dem FPGA in der ersten Generation zu tun haben.
Das macht Nvidia um einen Hardware-Bestandteil mit seinem Logo zu Stempeln. Es benötigt keine neuen Scaler um ASync zu nutzen, da ansonsten die älteren Laptops auch nicht gehen würden ohne das nutzlose GSync-Modul.

Nvidia ist offensichtlich nicht in der Lage DVI oder HDMI Support zu bringen, da alle GSync-Monitore zusätzliche scaler verbauen (denn dafür braucht man sie!) um die Anschlüße zu ermöglichen und weitere Standardfeature.

Eines verstehe ich nicht? Was soll das noch mit G-Sync zu tun haben. G-Sync beseitigt doch in erster Linie die fixe Refreshrate auf der Kabelstrecke zwischen Grafikkarte und Bildschirm. Die Verbindung zwischen dem TN/VA/IPS Panel und dem Scaler Chip war doch niemals die primäre Baustelle.
Das ist eben der Punkt. Wer hat den behauptet es werden neue scaler benötigt für Freesync? AMD hat lediglich gesagt wir bringen Freesync mit den neuen Scalern zusammen auf den Markt. Denn dort sind nun eDP Verbindungen die das veraltete LVDS ersetzen vorhanden - im Monitor, nicht im scaler.

Und nicht GSync beseitigt die fixe Framerate, sondern AdaptiveSync, welches von GSync genutzt wird. Das einzige was GSync beiträgt ist die Verschlechterung des Stromverbrauchs, der Monitoreigenschaften, Reduzierung der Anschlüße und der höhere Kaufpreis dafür, dass man sich für immer an Nvidia-GPUs bindet - na dann viel Spaß.

Nvidia muss keine Scaler zertifizieren - sie müssen nur VESA-kompatible nehmen.
 
Zuletzt bearbeitet:
Nvidia muss keine Scaler zertifizieren - sie müssen nur VESA-kompatible nehmen.
Bloß wurde Adaptive Sync erst Bestandteil vom DP Standard 1.2a. Als G-Sync kam, war Version 1.2 aktuell.

Damit hätten wir die Angelegenheit wohl abschließend geklärt.
 
Falsch...lies bei der VESA im Standard nach.

--- Update ---

Und was hat das mit den scalern zu tun?
 
Falsch...lies bei der VESA im Standard nach.
Du verwechselts abermals den DP und eDP Standard. Diese haben abweichende Versionsschemata.

Vielleicht schenkst du der VESA Pressmeldung auf P3DN mehr Glauben: Klick (bitte lesen)
 
Ich verwechsel gar nichts. Lies bei der VESA nach. Könntest du aus der Pressemeldung zitieren wo du das raus liest?

--- Update ---

Denn würdest du auch mal etwas lesen aus besagter Pressemedung:
The Technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009. As a result, Adaptive-Sync technology is already incorporated into many of the building block components for displays that rely on eDP for internal video signaling. Newly introduced to the DisplayPort 1.2a specification for external displays, this technology is now formally known as DisplayPort Adaptive-Sync.
 
Denn würdest du auch mal etwas lesen aus besagter Pressemedung.
Du hast die betreffenden Stellen schon makiert. Adaptive Sync gibt es bei eDP seit 2009 und bei DP erst seit (Mitte) 2014.
Und wann kam G-Sync raus? Ende 2013 und damit zweifelsohne bevor die VESA Adaptive Sync für DP 1.2a spezifiziert hat.

nVidia hatte damit zuerst alle Bausteine in der Signalkette beisammen. Vorher galt dies nur für einzelne Strecken.
 
Also wurde AdaptiveSync Standard in 2009 und Nvidia hat gar nichts neu erfunden oder eingeführt. Wann die VESA ASync in DP 1.2a mit aufnimmt spielt dafür keine Rolle.

Und welchen Baustein hat Nvidia denn GSync-fähig gemacht? Sie haben nur alle schon länger vorhandenen Bausteine, die allesamt Lizenzfrei sind, in eine Blackbox gepackt und behauptet sie haben es erfunden. Leute wie du glauben das auch noch unbesehen.
 
Zuletzt bearbeitet:
Also wurde AdaptiveSync Standard in 2009 und Nvidia hat gar nichts neu erfunden oder eingeführt.
Doch, nVidia hat diese in Notebooks eingesetzte Technik für Desktop Monitore portiert. Daran war vorher niemandem etwas gelegen.
Sie haben nur alle schon länger vorhandenen Bausteine, die allesamt Lizenzfrei sind, in eine Blackbox gepackt...
So ist es. Das wollte ich nie bestreiten. Schau dich in der IT Branche um und du wirst entdecken diese Taktik ist an der Tagesordnung.

Ergänzung: Nimm Thunderbolt von Intel. Die einzelnen Bestandteile sind altbekannt, aber in der Gesamtheit wirken sie neu.
 
Nvidia hat nichts portiert. Und Lizenzgebühren für freie Standards zu verlangen magst du ja gut heissen - ich nenne es einen Bluff um Geld aus deiner Tasche zu ziehen. Und das ist auch die Überschrift dieses Threads!

Und jetzt zeigst du auch noch, dass du von dem Offtopic Thunderbolt auch keine Ahnung hast.
 
Und jetzt zeigst du auch noch, dass du von dem Offtopic Thunderbolt auch keine Ahnung hast.
Dann klär mich mal auf (gern über PN), was an Thunderbolt so bahnbrechend und nie da gewesen ist. Ich bin gespannt.
 
Offtopic und ich habe dich heute genug aufgeklärt. Das ist echt ermüdend und grenzt am Trollen...
 
Ändere die reißerische Überschrift lieber in:

"G-Sync: GeForce 6xx bis 9xx Serie durch Treiberhack ebenso kompatibel zu FreeSync"

Das kame der Wahrheit deutlich näher und du bekommst keinen Ärger mit der Rechtsabteilung von nVidia.
 
Na, ich habe ja schon viel erlebt wenn jemandem die Argumente ausgehen, aber eine Rechtsberatung ohne juristische Grundkenntnisse ist neu. Mir scheint du schätzt deine Sachkenntnis in vielen Bereichen falsch ein.
 
Habt Ihr es dann? Und Du lieber complicated solltest das lieber per PN regeln.
 
Ich weiß zufällig, dass SPINA in der Richtung sehr wohl etwas Ahnung hat. Und Rechtsabteilungen sind heutzutage leider sehr schnell dabei.
 
Dann wäre es an einem der Moderatoren das einzuschätzen oder als Team zu entscheiden ob man eine Autor anspricht diesbzgl.

Die Art und Weise das so in einem Thread zu posten ist alles andere als Zeugnis über rechtliches Feingefühl. Daher kann man mir auch glauben, dass es in der Überschrift nichts rechtlich bedenkliches gibt. Ich hab da auch "ein bißchen" an Kenntnissen. Und die PN hätte man ja wohl mir schicken können, da es wohl klar ist dass ich das nicht unkommentiert so stehen lasse. Die Moderation hatte ich umgehend informiert und auch darum gebeten das einzuschätzen und mir mitzuteilen wie deren Sicht darauf ist.

--- Update ---

"G-Sync: GeForce 6xx bis 9xx Serie durch Treiberhack ebenso kompatibel zu FreeSync"
Vor allem wäre es technisch falsch. Und rechtlich eher angreifbar als die jetzige Überschrift. Nvidia nutzt ASync und ist nicht kompatibel mit Freesync wegen dem Treiberhack. Freesync funktioniert immer noch nur auf AMD Karten, da dafür AMDs Treiber Voraussetzung wären. Man kann rechtlich nur beraten wenn man die Materie versteht und weiss was richtig und was falsch ist.
 
Zuletzt bearbeitet:
Für mich stellt sich die Lage für Desktop Monitore halt dergestalt dar:

attachment.php


Selbst das Panel ist gelb markiert, weil nicht bei jedem Panel das Backlight flexibel genug ist (gilt nur für LEDs). Daraus kann andernfalls ein Flackern resultieren.
Wenn es nach Complicated geht, war die Kette scheinbar schon vor der Einführung G-Sync und FreeSync durchgehend grün. Es hätte also beider Features nicht bedurft.
 

Anhänge

  • async.png
    async.png
    14,6 KB · Aufrufe: 835
Nein, du hast die Fakten falsch dargestellt.
  1. Der DP-Link den du rot gefärbt hast ist schon Unsinn, da GPUs über DP keine fixen Refreshraten liefern, sondern variable Frames/s. Was du vermutlich meintest und technisch falsch ausdrückst ist das VBLANK Signal, welches an den Monitor mit jedem fertigen Frame mit gesendet wird. Daher muss hier grün stehen da AMD seid 2013 ausschließlich eDP unterstützt und LVDS gar nicht mehr in Hardware. Bei Nvidia weiss ich es nicht und dies war auch ursprünglich meine Vermutung für die Notwendigkeit des GSync-Moduls. Dies hat sich als nicht zutreffend erwiesen mit dem Beweis durch PCPer der im Startpost verlinkt ist. Also auch für Nvidia hier grün offensichtlich seit der GTX6xx Generation.
  2. Was soll denn teilweise Unterstützung von variablen Refreshraten bedeuten? Mir sind bisher nur zwei Zustände bekannt es geht oder es geht nicht.
  3. Welche Aufgabe da der "Monitor Controller" für diese variablen Frequenzen haben soll muss du erklären. Ich vermute dass du den Scaler meinst - nun bitte ich dich um eine Quelle dafür, dass Scaler hierbei überhaupt eine Funktion übernehmen. Den solltest du ganz raus nehmen aus der Kette da er die Frames wie sie kommen in die gewünschte Auflösung skaliert - in welchen Abständen spielt für ihn keine Rolle und auch nicht ob fix oder variabel. Das kriegt der gar nicht mit. Der Beweis sind ebenfalls die Tests durch PCPer.
  4. Das entscheidende Feature hast du gar nicht aufgelistet: PanelSelf Refresh, welches das LCD Panel selber können muss um die variablen Frequenzen


Also eigentlich war da alles schon grün in 2013 wenn es darum geht welche Technik schon vor Nvidia bekannt war. Nichts davon wurde grün durch den Release des GSync Moduls, da schon lange vorhandene und genutzte Standards verwendet wurde. Nvidia hat es als erstes in einen Monitor verbaut der auf dem Desktop mit einer GPU als Massenware verkauft wird. Denn Bastler haben das ganze schon vor Jahren als Howtos im Internet veröffentlicht.

Also: Was hat Nvidia nun erfunden, damit sie dafür Lizenzgebühren rechtfertigen können, was nicht vorher schon durch die VESA an sie heran getragen wurde und sie darauf kostenlos Zugriff hatten?

Nvidia hat als erstes ein fertiges, nutzbares Produkt für Gamer hergestellt mit Hilfe einiger Monitorhersteller. Das ist absolut klasse und lobenswert. Sie hätten einfach nur mit offenen Karten spielen sollen bzgl. der Technik, doch das scheint ja ein grundsätzliches Problem von Nvidia zu sein. Warum teilt man den Kunden nicht mit, dass ein offener Standard ihre Produkte aufwertet und sie Monate vor der Konkurrenz den ASync-Markt alleine für sich haben. Mit GSync haben sie da keine Zeit gewonnen, sondern lediglich versucht abzukassieren.

Ein grosser Bluff auf Kosten der Early Adopter und Enthusiasten - Wenn du das gut heißt, bitte schön. Doch dein Unverständnis, dass andere das nicht Gut heißen ist nicht nachvollziehbar.
 
Zuletzt bearbeitet:
Wir reden aneinander vorbei. Es geht um Desktop Monitore mit DP Input (ich hätte es fett drucken soll) und nicht um Notebooks mit eDP Panel. Bei Desktop Monitoren bekommt die Grafikkarte gar nicht mit, ob der Monitor Controller nun intern über LVDS oder eDP mit dem Panel kommuniziert.
Nvidia hat als erstes ein fertiges, nutzbares Produkt für Gamer hergestellt mit Hilfe einiger Monitorhersteller.
Das kann ich so ohne weiteres unterschreiben. In dem Punkt sind wir uns wohl einig. Ich bestreite nicht, dass nVidia dabei auf VESA Standards (aus anderen Bereichen) zurück gegriffen hat. Bloß war Adaptive Sync für den gebräuchlichen DP 1.1/1.2 Link zuvor eben nicht offiziell spezifiziert. Die interessanteste Frage stellt sich jedoch erst noch. Was geschieht, wenn Adaptive Sync zwingend vorgeschrieben wird von der VESA? Unterstützt nVidia dann weiterhin den veralteten DP 1.2 Standard, während AMD den Zähler auf 1.4 oder 2.0 steigern konnte oder gibt man G-Sync klammheimlich auf und zieht mit. Dann dürften sich einige Käufer eines G-Sync Monitors ziemlich veralbert vorkommen.
 
Zurück
Oben Unten