AMD Free Sync - Die G-Sync Alternative

Duplex

Admiral Special
Mitglied seit
02.05.2009
Beiträge
1.909
Renomée
57
http://www.anandtech.com/show/7641/amd-demonstrates-freesync-free-gsync-alternative-at-ces-2014

AMD Demonstrates "FreeSync", Free G-Sync Alternative, at CES 2014

According to AMD, there’s been a push to bring variable refresh rate display panels to mobile for a while now in hopes of reducing power consumption (refreshing a display before new content is available wastes power, sort of the same reason we have panel self refresh displays). There’s apparently already a VESA standard for controlling VBLANK intervals. The GPU’s display engine needs to support it, as do the panel and display hardware itself. If all of the components support this spec however, then you can get what appears to be the equivalent of G-Sync without any extra hardware.
 
Zuletzt bearbeitet:
lol... einen alten Hut als neu verkaufen wollen und unnötige Hardware dafür verkaufen.
 
Naja wichtiger währe ja das der Kram in ordentlichen und bezahlbaren Bildschirmen ankommt und auch wirklich genutzt werden kann. Mal schauen wie das in ein Paar Monaten im Handel aussieht und welche Bildschirme es mit FreeSync und G-Sync so wirklich zu kaufen gibt bzw ob AMDs Treibersupport zur Abwechslung mal gut wird.
 
bzw ob AMDs Treibersupport zur Abwechslung mal gut wird.

*Gähn*
Wenn man erst eine Odyssee mit Intel HD-Grafik hinter sich hat, merkt man erst wie gut die sind.
Ich halte AMDs einheitliche Treiberstruktur für ziemlich gut und pflegeleicht.
So Spielereien wie nVidia Optimus, die funktionieren eine Zeit lang und nach irgendeinem Update war es das dann mit der Herrlichkeit.
 
Und der nächste Nackenschlag für Nvidia. Damit war's das wohl für G-Sync. Gut so.

FreeSync hört sich auf jeden Fall wesentlich massentauglicher an, wenn die VESA Spezifikation tatsächlich ausreichen sollte.
 
@Krieger
Ich glaube er bezieht das auf nVidia.
 
In der Tat bezog ich das auf Nvidia, welche ja die bei AMD GPUs verbaute Hardware in extra Hardware auf Monitorseite verbauen wollten.... beide nutzen dieselbe VESA Spezifikation VBLANK.
 
Und der nächste Nackenschlag für Nvidia. Damit war's das wohl für G-Sync. Gut so.
Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.

Von sich aus, hätte AMD niemals mit FreeSync aufgewartet. Insofern war G-Sync nicht überflüssig.
 
Wurden G-Sync und FreeSync nicht im Abstand weniger Wochen angekündigt? Falls ja, wie kommst du dann auf die Aussage im zweiten Satz?
Ich frage mich mittlerweile auch, ob DSR so viel früher geschaffen wurde als VSR - angesichts AMDs Aussage, dass man seit März 2014 am Catalyst Omega saß, dürfte der Zeitabstand der eigentlichen Entwicklung nicht sehr groß gewesen sein.
Aber gut, so oder so sind einige Monate nicht sonderlich beeindruckend.
 
Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.

Von sich aus, hätte AMD niemals mit FreeSync aufgewartet. Insofern war G-Sync nicht überflüssig.
G-Sync als offener Standard wäre ja OK gewesen, wär AMD evtl. mit aufgesprungen. Aber als proprietäres NVIDIA only Feature...
Man sieht ja auch, was aus deren Physics geworden ist.
 
Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.
Ja, danke für den Witz des Tages. Aber gut, wenn für dich proprietäre, teure und marktdestruktive Lösungen Innovationen sind, bitteschön. Kann mich ehrlich gesagt an keine nennenswerten Innovationen von Nvidia erinnern.

Übrigens, FreeSync und G-Sync wurden über Jahre hinweg quasi parallel entwickelt. Nvidia hatte G-Sync letztendlich nur ein paar Wochen vorher angekündigt. Dass FreeSync lediglich eine Reaktion auf G-Sync gewesen sein soll, ist also völliger Quatsch. Das sieht man auch schon daran, dass bereits Bonaire FreeSync voll unterstützt, welcher in Form der HD 7790 in Q1 2013 gelaunched wurde. Ältere GPUs von AMD unterstützen FreeSync ja nur teilweise. G-Sync wurde aber erst in Q4 2013 von Nvidia angekündigt.
 
G-Sync als offener Standard wäre ja OK gewesen, wär AMD evtl. mit aufgesprungen. Aber als proprietäres NVIDIA only Feature...
Man sieht ja auch, was aus deren Physics geworden ist.

Physx ist noch nicht einmal deren Kind sondern wurde lediglich aufgekauft und im Punkt Hardware Beschleunigung auf die eigenen Produkte beschränkt, was letztendlich für die Spieler ein Rückschritt war denn die zuvor erhältlichen PPU Karten waren für jeden nutzbar.

--- Update ---

Übrigens, FreeSync und G-Sync wurden über Jahre hinweg quasi parallel entwickelt. Nvidia hatte G-Sync letztendlich nur ein paar Wochen vorher angekündigt. Dass FreeSync lediglich eine Reaktion auf G-Sync gewesen sein soll, ist also völliger Quatsch. Das sieht man auch schon daran, dass bereits Bonaire FreeSync voll unterstützt, welcher in Form der HD 7790 in Q1 2013 gelaunched wurde. Ältere GPUs von AMD unterstützen FreeSync ja nur teilweise. G-Sync wurde aber erst in Q4 2013 von Nvidia angekündigt.

Meinetwegen kann es auch eine Reaktion darauf sein denn letztendlich basieren beide Lösungen auf etwas was bereits Teil der DisplayPort Spec war und letztendlich nur eine Abwandlung dessen sind. Was daran jetzt so wahnsinnig innovativ sein soll ist mir schleierhaft. Das ist lediglich eine Weiterentwicklung dessen was man mal wieder unter eigenem Namen und auf die eigenen Produkte beschränkt verkaufen will.
 
Andererseits muss man nVidia zu Gute halten, dass man der Innovationsmotor der Branche ist.

Von sich aus, hätte AMD niemals mit FreeSync aufgewartet. Insofern war G-Sync nicht überflüssig.

Was ist mit Mantle? Das halte ich für einen wesentlich größeren Meilenstein.

AMD hat zahlreiche Innovationen vorzuweisen. Die Lorbeeren bekommen aber immer andere.
 
Zuletzt bearbeitet:
Mantle ist zwar proprietär, aber in meinen Augen sehr innovativ, weil es ein Befreiungsschlag ist.
Alle anderen Hersteller hatten sich auf die faule Haut gelegt, um den Stillstand für ihre Sache zu nutzen. Intel profitierte am meisten davon, dass man Highend CPUs benötigte, um das Potential der GPUs zu nutzen.
Nach Mantle sah sich Microsoft gezwungen, das absichtlich narkotisierte OpenGL hinsichtlich Mantle-vergleichbarer Effizienz weiter zu entwickeln.
Lediglich Apple, das immer gerne sein eigenes Süppchen kocht, ist mit Metal freiwillig einen ähnlichen Weg gegangen. Übrigens halte ich die Namensähnlichkeit "Metal" zu "Mantle" keineswegs für einen Zufall.
MfG
 
Nach Mantle sah sich Microsoft gezwungen, das absichtlich narkotisierte OpenGL hinsichtlich Mantle-vergleichbarer Effizienz weiter zu entwickeln.

Du meinst vermutlich DirectX?! Mit OpenGL hat Microsoft nicht all zu viel am Hut.
 
Was ist mit Mantle? Das halte ich für einen wesentlich größeren Meilenstein.
Finde ich nicht, denn Mantle besetzt anders als zum Beispiel CUDA keine Nische, die vorher (beinah) unbesetzt war. Spieleentwickler haben durch den Wegfall einiger Layer zwar mehr Kontrolle über Shader Units und VRAM als bei OpenGL oder Direct3D, aber Mantle ermöglicht keine Effekte, die vorher nicht möglich gewesen wären. CUDA hat seiner Zeit in meinen Augen mehr bewegt. Vor CUDA war die Verwendung von Grafikprozessoren für massiv parallele Aufgaben ein äußerst schwieriges Unterfangen. Heutzutage empfinde ich CUDA dagegen als überflüssig. OpenCL und C++ AMP sind weit genug entwickelt, sodass es keines geschlossenen Standards mehr bedarf. Trotzdem hat CUDA lange Zeit die Entwicklung vorangetrieben und geprägt. Ohne CUDA würden die freien Alternativen womöglich noch in den Kinderschuhen stecken. Mittlerweile dient CUDA jedoch nur noch dazu AMD aus dem HPC Bereich fernzuhalten. Dies lässt sich nVidia einiges kosten, indem sie ein großes Budget für SDKs und externe Projekte aufwenden. Allerdings befindet sich CUDA auf einem absteigenden Ast und dürfte sich bald von selbst erledigt haben. Mantle hat jedoch ein Gutes. Zumindest hat AMD nun ebenfalls eine Leiche im Keller liegen. Bisher wurde immer auf nVidia und CUDA geschimpft. Teilweise war diese Kritik durchaus berechtigt. Mantle ist im Vergleich keinen Deut besser. Die Offenheit existiert schließlich nur auf dem Papier. Im Grunde dient Mantle nur dazu Intels Stellung auf dem iGPU Markt mit unlauteren Mitteln zu schwächen. Ich würde daher Mantle niemals mit FreeSync vergleichen. FreeSync ist eines anderes Geistes Kind, weil AMD den (steinigen) Weg über die VESA beschritten hat. Bei Mantle hat man es sich einfach gemacht und die API aus dem Hut gezaubert, anstatt mit einem Industriekonsortium an einer gemeinsamen Lösung zu arbeiten. Eigentlich das typische Vorgehen von nVidia. Letzt genanntem Hersteller würde man ein solches Verhalten ankreiden; bei AMD überstürzen sich jedoch alle vor Lob.
 
Zuletzt bearbeitet:
CUDA hat doch auch nichts neu besetzt. Es hat nichts ermöglicht, was vorher nicht möglich war. GPGPU gab es da schon länger. CUDA hat es nur zugänglicher gemacht. Wobei das auch andere boten. CUDA war halt lediglich eine Zeit lang am populärsten. In dem Punkt sind Mantle und CUDA gar nicht so verschiedenen. Der Unterschied ist lediglich, Nvidia hat CUDA bisher einzig und allein für exklusive Zwecke missbraucht. Das schaut bei AMD und Mantle nicht so aus.

Und dass Mantles Offenheit nur auf dem Papier existiert, ist ebenso Quatsch. DirectX 12 ist unter der Haube quasi nichts anderes als Mantle. AMD hat da schon mit Microsoft zusammengearbeitet. Und AMD hat ebenfalls der Khronos Group angeboten, Mantle zu übernehmen. Wann hat Nvidia mal solche Offenheit gezeigt?

Mantle wurde übrigens auch nicht einfach mal so nebenbei aus eigenem Antrieb aus dem Hut gezaubert. DICE wollte so eine Schnittstelle von den Grafikkartenherstellern und AMD hatte sich offenbar als einziges Unternehmen bereit erklärt, dies umzusetzen. Man hat ebenfalls gesagt, dass man einen Industriestandard damit anstrebt. Mit Nvidia ist das doch überhaupt nicht zu vergleichen. Nvidia macht in der Tat nur Alleingänge. Ob es jemand will oder nicht, ist denen völlig Wurscht. Und hinzu kommt, dass die Lösungen immer teuer sind, damit Nvidia absahnen kann. Von offenen Lösungen haben die noch nie was gehört. Sry, aber wie kann man beides nur in einen Topf werfen? *nein*
 
... Mantle ist im Vergleich keinen Deut besser. Die Offenheit existiert schließlich nur auf dem Papier. Im Grunde dient Mantle nur dazu Intels Stellung auf dem iGPU Markt mit unlauteren Mitteln zu schwächen.

Den letzten Satz verstehe ich nicht. Weder wieso es auf Intels iGPUs zielt noch wieso das jetzt unlautere Mittel sind?

Auch bei dem Rest würde ich nicht unbedingt zustimmen. Ich hatte mal gelesen das fast alle Veränderungswünsche durch AMD bei der Khronos Group durch andere Mitglieder nicht durchkommen. in dieser Zusammen wurde auch Nvidia genannt. Sie haben innerhalb der Khronos Group durch ihre besser Vernetztung und bessere Stellung mehr Macht als AMD. Demnach blieb ihnen nur der Weg über eine eigene Schnittstelle. Selbst innerhalb eines neuen Industriekonsortiums wäre der Mantle wohl durch die Zweifler untergegangen.
 
Finde ich nicht, denn Mantle besetzt anders als zum Beispiel CUDA keine Nische, die vorher (beinah) unbesetzt war. Spieleentwickler haben durch den Wegfall einiger Layer zwar mehr Kontrolle über Shader Units und VRAM als bei OpenGL oder Direct3D, aber Mantle ermöglicht keine Effekte, die vorher nicht möglich gewesen wären.
Wenn ich mir die Mantle Erweiterungen anschaue, könnte man schon annehmen, dass hier optisch was möglich ist: http://abload.de/img/boinc_avx_collatz_aidhmqtb.png
(z.B. Advanced_MSAA oder Border_Color_Palette)
Insgesamt kann ich dir jedoch zustimmen, schön wenn die Schuld im Kreis herum geschoben wird. *chatt*
 
Finde ich nicht, denn Mantle besetzt anders als zum Beispiel CUDA keine Nische, die vorher (beinah) unbesetzt war. Spieleentwickler haben durch den Wegfall einiger Layer zwar mehr Kontrolle über Shader Units und VRAM als bei OpenGL oder Direct3D, aber Mantle ermöglicht keine Effekte, die vorher nicht möglich gewesen wären. CUDA hat seiner Zeit in meinen Augen mehr bewegt. Vor CUDA war die Verwendung von Grafikprozessoren für massiv parallele Aufgaben ein äußerst schwieriges Unterfangen.

Korrigiere mich wenn ich mich irre aber das was mit CUDA berechnet werden kann war vorher auch mit CPUs möglich, nur ebend schneller.
Auch war es vorher bereits möglich anderweitige Berechnungen auf der GPU auszuführen, wenn ich mich recht erinnere war hier ATIs x1000 Serie einer der Vorreiter.
Damit bliebe der einzige Punkt das CUDA die Programmierung vereinfachte und das man neue Funktionen schneller einführen konnte weil man sich nicht mit anderen Hardware Herstellern absprechen musste.

Bei der Mantle Geschichte ist es auch nicht nur beim Wegfall von Layern geblieben sondern es sind auch mehr draw calls als bei Direct3D möglich, was passier wenn dies nicht oder nur unzureichend beachtet wird sah man ja scheinbar beim letzten assassins creed Teil. Die Befehle stauen sich und die Framerate geht in den Keller obwohl die Hardware mehr könnte.
Ist sowas etwar zusammen mit der deutlichen Senkung der CPU Last und einer anscheinend besseren Multicore Unterstützung nicht als neuer Effekt einzuordnen oder zählt dazu nur die Bling Bling Effekte auf dem Bildschirm?

Diese Frage ist natürlich nicht ohne Hintergedanken denn wenn die Effizienz und damit auch die Performance egal ist ist CUDA letztendlich noch schlechter dran.

FreeSync kann man letztendlich auch als kreative Auslegung einer Energiespar Funktion bezeichnen denn wenn ich das richtig verstanden habe dann bedient es sich letztendlich einer Funktion die schon länger besteht aber praktisch nur im mobilen Bereich zum Einsatz kam.

Mal ganz ehrlich, unterm Strich hat AMD für die Spielergemeinde mehr auf die Beine gestellt als nvidia, welche zwar eher mit Neuerungen raus kommen aber diese nur dazu nutzen sich dahinter einzumauern und die Kunden an sich zu ketten. Sei es im GPGPU Bereich mit Cuda oder im Hardware Bereich mit G-Sync und 3D Vision.
Kaum einer verzichtet schließlich freiwillig auf teuer die Funktion der teuer erstandenen Hardware und Programme und ist letztendlich gezwungen wieder ihre Grafikkarten zu kaufen. Da nehmen dann auch viele Geschichten wie höhere Preise oder eine schlechtere Speicher Ausstattung hin und verdrengen nur allso gern die erkauften Nachteile.
 
@sompe: Ich möchte CUDA keineswegs schönreden. Ich habe einiges daran auszusetzen. Insbesondere die Bindung an nVidia Hardware. Für mich schlägt Mantle jedoch in dieselbe Kerbe, weil dadurch, dass AMD die Entwicklung in Händen hält, die Mitbewerber gehemmt sind. AMD hat offen damit geworben, dass Mantle auf die hauseigene GNC Architektur optimiert ist. nVidia und Intel hätten das Nachsehen, wenn sie Mantle ebenfalls unterstützen würden, weil AMD die Weiterentwicklung der Schnittstelle immer zu Gunsten der eigenen Produkte oder zum Nachteil der beiden genannten Konkurrenten steuern könnte. Deswegen werden sich nVidia und Intel hüten diese Low Level API zu unterstützen, solange AMD nicht einen Teil seiner Kontrollmacht über die API abgibt. Wenn AMD diesen Schritt geht, könnten sich jedoch Fortschritte wegen Unstimmigkeiten der beteiligten Parteien verzögern. Alle Interessen zufrieden zu stellen wird nicht möglich sein. Es ist spannend wer zuletzt leer ausgeht: Die GPU-Hersteller, die Entwickler von 3D-Engines oder die zahlenden Kunden?
 
Zuletzt bearbeitet:
Ich sehe da niemanden leer ausgehen. AMD hat genau gesagt was sie mit Mantle machen:
Fertig entwickeln für GCN.
Nach Beta offen legen. Danach kann AMD nichts mehr steuern
Jeder kann auf seine Architektur optimieren der möchte.
 
Zurück
Oben Unten