News [Update] GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync

Siehe Beitrag #92; darum dreht sich die aktuelle Unterhaltung auch.
 
http://ht4u.net/news/30723_nvidias_...mit_gsync_schwaechelt_-_viele_fruehe_defekte/

Update 27. Februar 2015:
Nach unserer ursprünglichen Meldung vom 25. Februar 2015 hat uns ASUS Computer heute kontaktiert. Unser Monitor ist von Interesse und wird vom Hersteller nun auch zur Überprüfung abgeholt. Wir baten ASUS an dieser Stelle um Feedback, um welches Problem es sich genau handelt, sobald der Monitor geprüft wurde.

Unterdessen stellte ASUS noch einmal klar, dass man gerade bei seinen Monitoren ein Austauschprogramm biete. Sollte ein Kunde mit einem fehlerhaften Gerät Probleme bekommen, veranlasst ASUS über ein Antragsformular auf der Website einen Austauschservice, so dass der Anwender nicht ohne Monitor verbleiben muss.

In unserem Fall habe eben das Problem vorgelegen, dass das Gerät laut Seriennummer aus den USA stammt, was für die Abwicklung in Deutschland absolut erhebliche Probleme darstelle.
.....
 
In unserem Fall habe eben das Problem vorgelegen, dass das Gerät laut Seriennummer aus den USA stammt, was für die Abwicklung in Deutschland absolut erhebliche Probleme darstelle.

...als ob es Problem des Kunden sein sollte, welche Seriennummern von welchem Kontinent und von welcher Steuerspar-Tocherfirma auf einem regulär hier gekauften Gerät draufpappt (siehe auch OEM-Problematik bei Platten...). Das ist zwar bei nem Pressesample aus finanzieller Sicht n bisschen anders, aber hey, wenn sich eine Hardware-Testredaktion über solche Zustände öffentlich beklagen muss, dann bringt das dem Hersteller NIE Sympathiepunkte ein. Dass die mit dem G-Sync-Modul n bisschen zwischen den Stühlen sitzen machts nicht besser, was wenn ein Panelhersteller, ein Standfußproduzent oder von mir aus auch der Schraubenheini als Präsentation ihres Könnens den damit gebauten Monitor zum Testen rausschicken? Dann reklamiert man auch nicht bei denen, sondern bei der Firma, die dreisterweise ihr Logo an möglichst vielen und möglichst unübersehbaren Stellen aufs Gerät anbringt. In dem Fall also...Asus.
 
Bei Guru3D kommt der modifizierte Treiber nicht gut weg:
...but even then it's not ideal since it drops out of sync without a module long before a real G-Sync monitor does.
Quelle: G-Sync? Nvidia did not cheat anyone

Ins Bild passt, dass ein "senior AMD engineering executive" behauptet, dass nVidia auf G-Sync angewiesen wäre:
The exec's puzzlement over Nvidia's use of external hardware was resolved when I spoke with him again later in the day. His new theory is that the display controller in Nvidia's current GPUs simply can't support variable refresh intervals, hence the need for an external G-Sync unit.
Quelle: http://techreport.com/news/25867/

nVidia hätte seinen Schnitt dadurch machen können, dass sie das mit eDP eingeführte Adaptive Sync 1:1 (unter anderem Namen) umsetzen und Geld für die Freischaltung von den Monitorherstellern verlangen. Diese "dürften" dann im Gegenzug mit dem G-Sync Logo werben. Ein entsprechendes Flag (ggf. mit einem Zertifikat gesichert) ließe sich leicht über E-DDC aushandeln. Das wäre ein Geschäftsmodell gewesen, welches nVidia mehr Gewinn verspricht. Dass man statt dessen den Aufwand mit dem teuren und aufwändigen Modul betrieben hat, welches Einschränkungen mit sich bringt, spricht dafür, dass AMD Recht hat und die GeForce GPUs nicht soweit entwickelt waren wie ihre Radeon Konterparts, sodass nVidia gezwungen war den steinigen Weg zu gehen.

Ergänzung: nVidia hat behauptet, dass die Scaler Chips in den Monitoren nicht weit genug entwickelt waren und damit den schwarzen Peter von sich geschoben. Das mag zum Teil der Wahrheit entsprechen, aber es könnte dennoch gleichsam Defizite auf Seiten der Grafikbeschleuniger geben. Das würde bedeuten, dass AMD immense Vorteile in Next Generation Gaming Notebooks hätte, wenn varibale Refresh Rates bei den mobilen GeForce mit Hardwarebeschränkungen zu kämpfen haben. Das könnte für den einen oder anderen Design Win auf Seiten von AMD sorgen.

Auch die Audio-Kanäle des DP wurden für GSync geopfert, neben den anderen Anschlußmöglichkeiten.
Das könnte Absicht gewesen sein, denn wieviele Gaming Monitore kommen mit eingebauten Lautsprechern auf den Markt? Meist verzichtet die Hersteller darauf, weil sie wissen, dass Spieler lieber mit Headsets oder 5.1 Systemen ihrer Leidenschaft nachgehen. Außerdem stellt sich wieder die Frage, ob dies eine Einschränkung der ersten FPGA basierenden G-Sync Generation ist oder ob alle folgenden ASIC Lösungen davon ebenfalls betroffen sein werden.
 
Zunächst einmal kommen die modifizierten Treiber nirgends gut weg, da sie ein EDID nutzen das nicht dem Monitor entspricht den sie befeuern um das freischalten zu können.

Und zum zweiten habe ich im Januar 2014 genau das selbe als aller erstes gedacht und auch irgendwo gepostet. Doch dies ist deutlich widerlegt, indem eben die mobilen GPUs ja doch GSync ohne dieses Modul können - und Nvidia wird dies ja offiziell sogar anbieten, dann mit den richtigen EDID Profilen für den jeweils betriebenen Monitor - von daher kann ich kaum glauben, dass Nvidias GPUs dies nicht unterstützen. Sollte es sich allerdings bewahrheiten, dann hätte Nvidia wirklich ein massiveres Problem als bisher angenommen. Sie würden noch 1 Jahr auf ihrem proprietären System fest hängen und Neukäufer von Monitoren würden eher die leistungsfähigeren Monitore mit VESA-Standard kaufen, somit aber tatsächlich auf AMD GPUs angewiesen sein. Dieser unnötige Zug könnte sie mehr Marktanteile kosten eine schnellere R9 390X und der GTX970-fail zusammen genommen. Und das vor allem langfristig.
 
Ich denke schon, dass an dieser Stelle etwas im Argen liegen könnte, obwohl man es nicht als erwiesen ansehen kann. Zumindest spricht ein Blick auf die Riege von "3D Vision Ready" und "LightBoost" Monitore dafür. Dort zahlt der Hersteller seinen Obolus für ein verkaufsförderndes Zertifikat an nVidia und damit hat es sich für beide Seiten. FPGAs, denen man unterstellt den gesamten Datenstrom zu verschlüsseln oder anderes Hexenwerk zu treiben, sucht man dort vergebens. nVidia scheint demnach bei G-Sync auf die Verwendung eines auf die eigenen Bedürfnisse angepassten Scalers angewiesen zu sein.

Ergänzung: Die Aussage vom "senior AMD engineering executive" wurde im offiziellen FreeSync FAQ indirekt bestätigt:
There are three key advantages AMD FreeSync technology holds over G-Sync: no licensing fees for adoption, no expensive or proprietary hardware modules, and no communication overhead.

The last benefit is essential to gamers, as AMD FreeSync technology does not need to poll or wait on the display in order to determine when it’s safe to send the next frame to the monitor.

AMD FreeSync technology uses industry-standard DisplayPort Adaptive-Sync protocols to pre-negotiate supported min/max refresh rates during plug’n’play, which means frame presentation to the user will never be delayed or impaired by time-consuming two-way handshakes.
Quelle: http://support.amd.com/en-us/search/faq/219

With AMD FreeSync technology, an AMD Radeon graphics card directly controls display timings. Direct control eliminates the need for polling or waiting on the display, which could impact latency and performance.

Upon connecting a AMD FreeSync technology-enabled monitor to a compatible AMD Radeon graphics card, the minimum and maximum times between the display of new frames (the vblank period) is exposed to the GPU via DisplayPort Adaptive-Sync.

Because the minimum/maximum vblank period is known to the graphics card, successive frames will intelligently be sent within those boundaries. Predictive or speculative timing is not required under this model, and the GPU will adjust the display's refresh rate to match the current frame rate.

If an upcoming frame is delivered outside of the monitor's supported vblank period, that frame will be immediately presented on-screen when available to ensure the fastest possible screen update.
Quelle: http://support.amd.com/en-us/search/faq/226

Scheinbar sind die GeForce GPUs nicht in der Lage ohne Rückmeldung vom Monitor variable Refresh Rates zu fahren.

nVidia behauptet natürlich das Gegenteil:
Enter NVIDIA G-SYNC, which eliminates screen tearing, VSync input lag, and stutter.

To achieve this revolutionary feat, we build a G-SYNC module into monitors, allowing G-SYNC to synchronize the monitor to the output of the GPU, instead of the GPU to the monitor, resulting in a tear-free, faster, smoother experience that redefines gaming.

Je nachdem wer Recht behält, könnte sich G-Sync doch deutlicher von Adaptive Sync der VESA unterscheiden, als zeitweise vermutet wurde. Für Notebooks könnte dies bedeuten, dass Adaptive Sync nur mit den allerneuesten oder sogar erst kommenden Grafikprozessoren von nVidia möglich wird.
 
Das bestätigt doch was ich sage: Die minimum und maximum periode für Vblank wird durch die korrekte EDID übermittelt. Die widersprechen sich nicht. Da aber Nvidia nicht auf eDP Panels warten wollte und den Refreshspeicher selber konstruiert hat in ihrem Modul sind das Probleme die dort entstehen und nicht bei der GPU. Ansonsten müsste das Modul dieses VBLANK noch huckepack mit senden und damit wäre definitiv Adaptive Sync nicht möglich. Und es gäbe eine zusätzliche Latenz dadurch.

Notebooks haben ein eDP Panel und daher auch einen PSR Speicher.
Und alle GSync Monitore haben den selben Controller und dessen EDID, daher könnte Nvidia diese Werte auch fest im Treiber verankert haben, damit eben andere Monitore nicht sauber mit der GPU synchronisieren.
 
Zuletzt bearbeitet:
Und es gäbe eine zusätzliche Latenz dadurch.
AMD sagt doch, dass bei G-Sync ein "poll oder wait" fällig ist, während nVidia meint G-Sync wäre "lag-free". Ich sehe darin einen Widerspruch.

Wie auch immer; die Schlacht ist geschlagen und AMD hat mit FreeSync den Sieg davon getragen. Das ist es, was einzig und allein zählt.
 
Was denn für ein Widerspruch?
Was verstehst du unter poll and wait und welche Latenz siehst du da?
Nvidias Marketing sagt es gibt keine Latenz und nutzt poll and wait.
AMD sagt wir nutzen poll and wait.
 
Und trotzdem ist GSync langsamer. Passt ja irgendwo was nicht.
 
Gsync ist minimal langsamer, weil das GSync-Modul noch Daten an den gerenderten Frame anhängen muss und niemand weis was für einen Speicher Nvidia da in seinem Controller verbaut. Weil das Gsync-Modul von allem möglichen Balast befreit wurde um die DP 1.2 Bandbreite nutzen zu können. Selbst das Audiosignal geht bei Gsync nicht mehr über den DP. Auch ist GSync ja derzeit nur mit DP 1.2 und nicht mit DP 1.2a verfügbar, oder habe ich einen übersehen? Weniger FPS muss nicht immer mit der Latenz zu tun haben.
 
Es Häufen sich die Berichte, dass Gsync mit deaktiviertem VSync in einigen Spielen Tearing in der gesamten GSync-Range verursacht:
https://www.reddit.com/r/nvidia/comments/3ne6lg/gsync_tearing_with_vsync_off/
I've spoken to manualG from NVidia's driver group. Capping FPS doesn't change the way Vsync works with Gsync.
I've confirmed with ManualG and My friends at EVGA that as of right now in order for Gsync to work Vsync must be enabled. Turning off Vsync with disable Gsync.
Demnach funktioniert GSync nicht mit Vsync off.

Dies scheint seit diesem Update der Fall zu sein: http://www.geforce.com/whats-new/articles/g-sync-gets-even-better
 
Zuletzt bearbeitet:
War es nicht immer Vorraussetzung für G-SYNC das V-Sync aktiv ist?

Jedenfalls verstehe ich da die Aussagen von Blaire so:

Dafür gibts ja den G-Sync Indicator , welcher initialisiert ob G-Sync aktiv oder nicht. Stell sicher, das V-Sync im Treiber (oder Ingame) aktiviert und lediglich der G-Sync Vollbild-Modus ausgewählt wurde, dann sollte es auch keine Probleme geben. Gegen Game-bedingte Ruckler kann ein G-Sync logischerweise wenig ausrichten.

NVIDIA GeForce Drivers 361.82 Hotfix-Release (3D Center Forum)

Eigene Erfahrungen habe ich nicht, zwar NV Karten vorhanden aber keinen G-Sync Monitor und auch nicht vor einen zu kaufen.

MfG
 
the option to have GSYNC ON + Vsync off was a new feature that allows GSYNC to work within it's range, then once exceeding monitors HZ Gsync turns off.
Das war ja das Treiber-Update vom Juni welches ich verlinkt habe.
 
Ok das Zitat ist aus dem Thread aus dem aktuellen Treiber, auch nv hat diverse Baustellen gegebenenfalls haben sie eine neue aufgemacht.
 
Vermutlich wurde der Typ mit der Weile von NV geschmiert und er hat die Entwicklung eingestellt oder der Gleichen ;)
 
Selbst die neue Generation von GSync nutzt Altera FPGAs:
https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/
PC Perspective hat den Asus PG27UQ auseinander genommen und einen der Gründe für den hohen Preis offenbart: Das neue G-Sync-Modul trägt einen teuren Altera-FPGA-Chip sowie 3 GB DDR4-RAM.
Für Monitorhersteller wird der FPGA zwar weitaus günstiger zu haben sein, doch einen großen Teil der Materialkosten ausmachen. PC Perspective schreibt, „wir wären nicht überrascht, wenn dieser FPGA allein 500 US-Dollar am Gesamtpreis der neuen Displays ausmacht“.
 
Zurück
Oben Unten