NVIDIA - Pascal

Naja, die Sache mit der Stromaufnahme ist schon nicht so toll und schmälert den Eindruck eines runden Produktes durchaus.
Hab früher immer Wert auf relativ sparsame Grafikkarten gelegt und dementsprechend kleine Netzteile bis 400Watt verbaut.
Der Rechner, mit dem ich momentan ab und an spiele, arbeitet mit einer 7870 1Ghz. So überschlagen verbraucht die beim spielen
110-130 Watt, der gesamte Rechner samt Ph.II 955 (C3) zwischen 200 und 250 Watt. Würde ich da die RX 480 reinstecken, würde es schon eng.
Man sollte doch meinen, dass es nach 3-4 Jahren (weiss ich jetzt nicht so genau) und mehreren Generationen + Technologieschritt
möglich sein sollte, dass eine Mittelklassekarte (war die 7870 auch) in ähnlichen Preisregionen auch eine ähnliche Energieaufnahme aufweisst.
Ja ich weiss, die 7870 war mit höherer TDP angegeben. Nur ist sie offenbar sparsamer (Skyrim mit Grafikmods), die 480 dagegen durstiger
als angegeben.

@ Idle: Eine 4670 wurde mit 7 oder 8 Watt gemessen. ...in 55nm, soweit ich mich erinnere.
Wieso kann das eine brandneue Karte in neuester Fertigung mit viel ausgereifteren Stromspartechniken nicht mehr?
 
Also effizientes Videoplayback kann AMD eigentlich..

Das eigentlich hilft aber nicht wenn die Produkte es nicht bieten, schlechter als Tahiti 1.0.
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index16.php

Warum man einen derart hohen Strombedarf beim einfachen Abspielen eine Blu-Ray so hohe Powerstates fahren muss? Ich weiß es nicht.

Das ist nett, aber ein wirkliches Kaufkriterium ist es nicht. Sollte jemand doch seine Kaufentscheidung davon abhängig machen, dann nur, weil ihm das irgendeine Review eingeredet hat und er wie ein Lemming dem folgt. Benutze deinen Verstand, 2 oder 3 oder 4 Watt kann man vernachlässigen!

Niemand sollte seine Kaufentscheidung von wenigen Watt abhängig machen, sind es aber statt den niedrigen, einstelligen Wattagen, 40 Watt, sieht die Welt schon anders aus.
Multimonitor, Youtube, Blu ray, Gaming. Riskiert man einen Blick durch die Reviews ist das ein dicker Minuspunkt.
Die wenigsten betreiben 2 gleiche Monitore, leider kann nur da AMD einen niedrigen Strombedarf aufweisen.

Während ich mit dem rudimentären Support von AsyncShader noch leben könnte,

Ich finde die Skalierung von Pascal im neuen Directx12 Benchmark gar nicht mal so schlecht, auf dem Level der rx480, 1 oder 2% weniger.
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

finde ich den mäßigen Support von MultiGPU schon tragischer.

Bei den ganzen Problemen die AFR Rendering bietet, ist die Zielgruppe für solche Experimente ziemlich klein.
Überraschend dass du das so siehst. Mangelnde Profile und exe. renaming musste man eigentlich immer AMD vorwerfen. Die haben Multi GPU Support die letzten Jahre stiefmütterlich behandelt, es gab kein Framepacing und abseits der AAA Titel ist Multi GPU Support bei beiden Herstellern abgeebbt. Würde ich mir nicht antun wollen.
Lieber eine gute und schnelle GPU, kein CF oder SLI --> Der Diretx12 Multi GPU Adapter ist nett, so denn er mal implementiert wird.

Unter den 71 Modellen wird man schon etwas finden, auch für ein schmales Budget ab 120 Euro.

Ja, schmales Budget aber Müll. Sry wenn ich es so krass sage, aber wer will schon mit einer 48 zu 75 Hertz Spanne ernsthaft Gamen?
Hier würde ich vorschlagen sich Freesync dann lieber zu sparen und auf einen Non G-sync Non Freesync 120/144 Hertz Monitor zu schielen oder denn eben einen teuren Freesync oder G-syn Monitor zu kaufen.
Preisvorteil ja, die Umsetzung oftmals ungenügend.
 
Zuletzt bearbeitet:
hm MickFoley

es macht relativ wenig sinn erst etwas wie generelle Verfügbarkeit der Monitore anzuzweifeln und dann wenn das widerlegt wird Rosinen picken ...
es gibt auch gute sehr gute freesync Monitore.
Die future Sets von Maxwell muss sich noch beweisen siehe Vukan , das auch ein negativ Punkt in Sachen Software als bsp.
Dx12 wird wie am bsp. Tomb Raider wird versucht mit "Verschlimmbesserung" HBO versucht wieder das blat für NV besser darzustellen.

Aber sein wir realistisch egal was so diskutiert wird, es wird wenig an dem Markt leider verändern und das ist halt fakt....
 
Lieber eine gute und schnelle GPU, kein CF oder SLI --> Der Diretx12 Multi GPU Adapter ist nett, so denn er mal implementiert wird.

Nenn mir bitte einen Titel, bei dem es nicht implementiert ist.

Noch ein Wort zur Stromaufnahme bei BR Playback. Eigentlich sollte das funktionieren. Die APUs glänzen mit niedrigen Verbrauchswerten und die RX480 beinhaltet die gleiche VCE. Aber ich gebe dir recht, das ist unnötig.

Für 120 Euro sollte man nicht ein Spitzenpanel erwarten. Die Auswahl ist mit FreeSync deutlich größer und man bekommt mehr für das Geld.
 
hm MickFoley

es macht relativ wenig sinn erst etwas wie generelle Verfügbarkeit der Monitore anzuzweifeln und dann wenn das widerlegt wird Rosinen picken ...
es gibt auch gute sehr gute freesync Monitore..

Klar gibt es die, ich hab mich mal umgeschaut und ein gutes Modell fängt bei Freesync ab etwa 250 Euro an.
Zwar noch mit Betatreibern, aber prinzipiell sollte es schon gut funktionieren, dann hat man immerhin über 100 Euro gegenüber G-sync gespart.
Man muss halt ohne Fenstermodus leben, das können wohl die meisten Kunden verschmerzen.

http://geizhals.de/aoc-g2460pf-a1318972.html?hloc=at&hloc=de

Nenn mir bitte einen Titel, bei dem es nicht implementiert ist.

Warhammer, Hitman, Quantum Break und Tomb Raider bis vor 6 Tagen unterstützen/unterstützten es nicht.
 
Zuletzt bearbeitet:
Warhammer unterstützt es: http://www.pcgameshardware.de/Total...arks-Test-DirectX-12-1196355/galerie/2579765/
Hitman unterstützt es im Prinzip. In der Praxis klemmt es noch. Hitman hat die DX12 Implementierung zu schnell auf den Markt geschmissen, um die mediale DX12 Aufmerksamkeit zu nutzen. Damit hat man der Sache keinen gefallen getan.
Tomb Raider unterstützt es seit dem letzten Patch.

Die nächsten größeren Titel, die im 2.Hj erscheinen, werden es durchgängig unterstützen. Probleme haben mehr die kleineren Studios die ohne große Unterstützung von AMD auskommen müssen. Dafür ist in kürze ein Framework angekündigt, welches die Entwicklung sehr vereinfachen soll. Es ist sehr viel Dynamik in dem Thema, man sollte es nicht klein reden.
 
@ Idle: Eine 4670 wurde mit 7 oder 8 Watt gemessen. ...in 55nm, soweit ich mich erinnere.
Wieso kann das eine brandneue Karte in neuester Fertigung mit viel ausgereifteren Stromspartechniken nicht mehr?

Die Ursache nennt man "Statische Leakage", also so etwas wie Leckströme, die vorhanden sind, auch wenn gar keine Transistoren schalten. Die SL nimmt mit kleiner werdenden Strukturen massiv zu. Mit 14/16nm sind Chips überhaupt nur ohne massive SL realisierbar, weil eine Logik ständig Teilbereiche abschaltet, die gerade nicht benötigt werden. Wenn ein neuer Treiber die Idle Leistung reduzieren soll, dann ist er genau in dem Punkt verbessert worden.
MfG
 
Warum muss man immer so sehr nVidia anhängen und wehement ein Unternehmen verteidigen, dass Spielestudios und auch die eigenen Kunden wie Dreck behandelt und alles dran setzt, sie möglichst gut auszunehmen?! Verstehe ich nicht...

Auch das raustragen von Spezifikationen aus Standardisierungsgremien, um dann einen Zaun drum zu spannen, ist einfach nur mies.
Dennoch gibt es einige Herrschaften, die diesen Müll auch noch toll finden...
Ja, ich meine G-Sync.
nVidia sitzt ja auch in der VESA und dürfte von VESA adaptive Sync gewusst haben - und hat dann schnell noch einen FPGA gebastelt, um das nur mit nVidia Hardware nutzen zu können, obwohl man wusste, dass der Standard, den AMD Freesync nennt, vor der Tür steht...

Auch dass man solch einen Mist wie Gameworks macht, wo man den Entwicklern einfach eine Black Box vorsetzt, die sie dann zu implementieren haben, ist einfach nur unterste Schublade.

Und genau dieses Verhalten, der Umgang mit den Entwicklern, scheint jetzt so langsam auch seinen Tribut zu fordern.
Denn, wie die Asiaten sagen: Wer wind sät, wird Sturm ernten. Und der Sturm steht nun vor der Tür und ist schon absehbar!
Die Entwickler müssen eh (wg. der Konsolen) mit AMD zusammenarbeiten, auf nVidia können sie dabei verzichten.
Zumal viele, dank des Umgangsformen von nVidia, darauf eh kaum mehr Lust zu haben scheinen...

Und dazu kommt, dass wohl gerade nVidia auch einer derjenen welchen war, die die Low Level APIs verhindert haben...

Und das hat dann dazu geführt, dass AMD erst einmal die gesamte Industrie vor vollendete Tatsachen gestellt hat und die gezwungen hat, das zu implementieren...

Und wenn man ganz gemein ist, bezeichnet man Vulkan als Open Mantle!
Denn AMD hat der Khronos Gruppe die Spezifikationen von Mantle überlassen, woraus dann letztendlich Vulkan wurde.

Und jetzt schauen halt die mit der 10 Jahre alten, immer wieder aufgehübschten, Architektur mal blöd aus der Wäsche...
 
Dein ständiges Genöle das mit: nvidia behandelt Kunden, Spielehersteller, Hardwarehersteller usw. mies. Kunden werden nur betrogen. Die Hardware ist ein 10 Jahre alter Aufguss und im Prinzip totaler schrott. Propietäre Entwicklungen zu Lasten der Kunden. Viel zu hohe Preise. Ausnutzen der Marktmacht. Bla bla bla.

Als Kunde der bisher von den Produkten von nvidia, und den gelieferten Treibern, bisher nicht enttäuscht wurde, lese ich deine Beiträge so: Man seid Ihr alle dumm und dämlich diesen unsäglichen Schrott zu wahnsinnig überteuerten Preisen auch noch zu kaufen. Ihr werdet nur verarscht und merkt es noch nicht mal. So blöd seid ihr. => Genau das ist weder nett, freundlich noch informativ oder gerecht.

Daher bitte ich dich einfach deine Äußerungen auf ein den Forenregeln entsprechendes Maß herunterzuschrauben. Deine Vorhaltungen und Anschuldigungen mit Fakten zu belegen und nicht wilde Theorien aufstellen die nur dazu dienen deinen persönlichen Erzfeind nvidia zu diskreditieren. Ob jemand seine Grafikkarte nach wirklich fundierten Tests, den entpsrechenden technischen Grundlagen und den dazu gehörenden Treibern und 3D-Befehlssätze (DX11/12, Vulkan oder OpenGL) aussucht oder halt nur nach Preis und Design der Verpackung kann dir doch eigentlich nur egal sein.
 
Auch wenn du es nicht mehr hören kannst, es ändert nichts daran das Payne recht hat. Alles war nVidia macht hat nur ein Ziel: Den Kunden möglichst tief in die Tasche zu greifen.
G-Sync? Warum entwickelt man soetwas? Innovation? Niemals! Wer sich einen G-Sync Monitor kauft wird niemals mehr eine AMD-GPU kaufen. So bindet ein Marktführer seine Kunden.

AMD investiert in Dinge die wesentlich kundenfreundlicher sind. MultiGPU z.B. Ich kann erst klein anfangen und ergänze bei Bedarf mit einer zweiten GPU. Gibt es etwas kundenfreundlicheres? Nein! nVidia hat kein Interesse an diesem Feature, sollen die Kunden sich doch eine schnellere GPU kaufen...
AMD dagegen muss das, weil sie in der Defensive sind und punkten müssen.
Was machen die Kunden? Sie beten nVidia an, weil ihre GPUs lächerliche 30W weniger Strom verbrauchen. Was für ein Irrsinn! Wenn Strom sparen will, lässt man die Kiste aus. Spart am meisten. Das erinnert mich an Frauen, die immer das Arschloch als Mann suchen...
 
Mir geht es nicht um das was, sondern wie etwas rüber gebracht wird. Ich will jetzt keine Totschlagargumente vortragen wie: Es wird ja keiner gezwungen... muss ja keiner kaufen...

Ob Payne recht hat oder nicht, hab ich auch bewusst nicht bezweifelt. Für mich als "normaler" Spieler mit einem guten Monitor der einfach nur ab und an mal ein älteres Spiel spielt und nicht ständig jedem neuen dämlichen Trend hinterherrennt ist es doch ausschließlich wichtig, welche Leistung bekommt er zu welchem Preis. Nur "scheint" die R480 derzeit gut zu sein, es bleibt aber abzuwarten wie die 1060 wird. Und genau das sollte man abwarten.
 
Warhammer unterstützt es: http://www.pcgameshardware.de/Total...arks-Test-DirectX-12-1196355/galerie/2579765/
Hitman unterstützt es im Prinzip. In der Praxis klemmt es noch.

OK danke für die Recherchen, aber genau das meinte ich im Prinzip, die liebe Praxis und das verspätete Nachliefern, dann wenn die Titel schon lange gespielt werden wollen oder es einfach ewig spät oder gar nicht mehr nachgereicht wird.
Ich glaube einfach nicht dass die Programmierer auf solche Frickellösungen großen Wert legen.

Dafür ist in kürze ein Framework angekündigt, welches die Entwicklung sehr vereinfachen soll. Es ist sehr viel Dynamik in dem Thema, man sollte es nicht klein reden.

Bisher ist die Entwicklung unter Directx12 schwerer als noch unter Directx11, dieses Framework von Microsoft bringt es so wie ich das verstanden habe wieder auf den alten Stand.

[3DC schrieb:
Payne]Und jetzt schauen halt die mit der 10 Jahre alten, immer wieder aufgehübschten, Architektur mal blöd aus der Wäsche...

Wer oder was ist dir denn über die Leber gelaufen? AMD würde es doch genauso machen, wenn sie in der Position wären, das sichert den Absatz der eigenen Produkte.

Dennoch gibt es einige Herrschaften, die diesen Müll auch noch toll finden...
Ja, ich meine G-Sync.

Es verwundert auch nicht dass es viele toll finden, denn unter dem Strich ist es teuer, aber es kam früher auf den Markt und ist immernoch ein kleines bisschen besser, also eine Art Premiumprodukt. Bei AMD ist schon lange nichts mehr besser als bei Nvidia. Weder Treiber, noch Effizienz, noch Features.

Damals als man Eyefinity eingeführt hatte oder Sparse Grid Supersampling oder Anfangs noch Mantle, da hatte man etwas exclusives, aktuell geht man voll auf open Source da man keine Gelder mehr hat für etwas eigenes um Kunden zu binden.
 
Auch wenn du es nicht mehr hören kannst, es ändert nichts daran das Payne recht hat.
der ton macht die musik.

Sie beten nVidia an, weil ihre GPUs lächerliche 30W weniger Strom verbrauchen. Was für ein Irrsinn!
mein lieblingsthema ...

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1146680923

http://www.planet3dnow.de/vbulletin...D-FX-Vishera?p=4687957&viewfull=1#post4687957

aber das wollen wir lieber nicht vertiefen. ;)
 
Jeder der 30W bemäkelt oder von mir aus 100W fährt hoffentlich ausschließlich Fahrrad, oder zumindest Öffi, hat kein KFZ und fliegt nie mit dem Flugzeug auf Urlaub.
Achja Kartoffelsack als Kleidung ist Pflicht.
Alles andere wäre in hohem Maße inkonsequent.

Ja das ist echt auch mein Lieblingsthema ;)
Fehlt nurnoch dass man sich zusätzlich noch von Intel verarschen lässt.
 
So und jetzt schaue mal bitte hier:
https://en.wikipedia.org/wiki/Nvidia_GameWorks#cite_note-youtube.com-2

Ich weiß, ist Wikipedia, aber in einem Interview hat jemand von AMD gesagt, die Unternehmen, die Gameworks einsetzen, nicht mal mit AMD (oder auch Intel) reden dürfen.

Hier ist auch etwas in dt.
http://www.pcgameshardware.de/AMD-R...s-Gameworks-bremst-laut-AMD-alle-aus-1166501/

Das schlimme an Gameworks ist ja auch nicht nur, dass es auf AMD mies läuft, sondern auch, dass es auf nVidia Hardware mies läuft - nur auf AMD etwas mieser...

Und auch der Chef Engine Programmierer vom CDProject (The Witcher 3) hat auch so gut es ging, gegen die Geschossen bzw sogar die eigenen Firma Kritisiert, mit dieser Aussage:
Török Balázs schrieb:
Diese Aussage ist schon ziemlich heftig, meinst du nicht auch? (OK, wurde auch noch übersetzt).
Es gibt mehr als genug Beispiele und auch belastbarere Fakten, die zu meiner Aussage passt.

Und das beste Beispiel dafür ist die Sache mit der GTX 970 und wie nVidia damit umgegangen ist...
Das ist eine Situation, in der sie die (möglichen) User einfach nur nach Strich und Faden verarscht und über den Tisch gezogen haben...
Aber statt irgendwie zu versuchen, das wieder gerade zu biegen, macht man genau ddas eben nicht. Man versucht das nicht 'gerade zu biegen', man haut nur ein Statement raus, in dem man sagt, dass die 970 so ist, wie vorgesehen...
Und auch die Preise der 1070 sowie insbesondere der 1080 sind auch schon ziemlich dreist...

Aber genau DAS sind Dinge, die dich interessieren sollten!

Denn, wenn man jetzt böse wäre, würde man dir unterstellen, dass es dir völlig egal wäre, wenn für ein Unternehmen irgendwelche Kinder misshandelt oder gar getötet werden würden. Oder dass für ein Objekt einfach mal 'nen ganzer Landstrich in der Größe von Deutschland entweder verseucht oder aber umgegraben (Tagebau) werden musste, um das Produkt erschaffen zu können.

Das muss jetzt wirklcih nicht sein, man sollte sich schon ein wenig mit den Produkten auseinandersetzen und auch darauf achten, dass das Unternehmen, dass dafür verantwortlich ist, auch halbwegs respektabel agiert und eben NICHT andere Leute mit Füßen tritt...

Hier ein paar Links:
[url]http://www.golem.de/news/richard-huddy-im-interview-amd-verliert-einen-benchmark-den-nvidia-geschrieben-hat-1406-107523.html
http://www.pcgameshardware.de/AMD-R...s-Gameworks-bremst-laut-AMD-alle-aus-1166501/
"Nvidia scheint sich nicht darum zu kümmern, welchen Wirkung Gameworks auf Spiele hat.
http://www.techradar.com/news/gamin...ia-gameworks-talks-amd-s-new-attitude-1255538

Und, wie im 3DC geschrieben, ist das so langsam der Sturm, den nVidia gesät hat.
Eben weil die ganzen Studios mit AMD zusammenarbeiten müssen, da sie in allen nennenswerten Konsolen verbaut werden...
 
Hi Mickfoley

das kann man sehen wie man will, aber em welcher Standard war er angekündigt freesync oder G-Sync na schaue mal genau nach ;)
Wenn ich mir Dx12 anschaue hm liegt Amd besser mit den Future set wie Nvidia? Stichwort Async Compute das angeblich seit letztem jahr
für die 970/980 Treiber mäßig nachgeliefert werden soll?

Mir ist bewusst das sehr viele mit ihrer NV Hardware zufrieden sind und nach und nach ehr in eine Verteidigungshaltung gehen als sich
ein wirklich objektives Bild zu stellen (andersrum ist das auch so ;) ), das ist aber wenn ihr euch umschaut doch in vielen Bereichen so Fernseher Autos etc.
Jeder möchte seine eigenen Produkte nicht schlecht machen, das gibt einen ein schlechtes Gefühl und das will niemand.

lg
 
Jeder der 30W bemäkelt oder von mir aus 100W fährt hoffentlich ausschließlich Fahrrad, oder zumindest Öffi, hat kein KFZ und fliegt nie mit dem Flugzeug auf Urlaub.
Achja Kartoffelsack als Kleidung ist Pflicht.
Alles andere wäre in hohem Maße inkonsequent.

Ja das ist echt auch mein Lieblingsthema ;)
Fehlt nurnoch dass man sich zusätzlich noch von Intel verarschen lässt.
Vergiss bitte nicht den Framelimiter auf 30fps, in Ausnahmen auch mal 60fps, denn das spart auch enorm Energie!

Als ich mal 2 Tahitis im Rechner hatte, hat ein kleines Häckchen ganze 200W auf meinem Energieschätzgerät eingespart.
Der Name dieses Häckchens: V-Sync...

Oh und was ist eigentlich aus dem DX12 Treiber für Fermi geworden, was nVidia so lautstark angekündigt hat?! Und auch auf Geforce.com bewirbt man die Fermi Karten mit DX12...

http://wccftech.com/fermi-dx12-support/

€dit:
Oh und dieses Statement, dem ich mich mal anschließe, bitte nicht vergessen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11102642&postcount=5766
 
Zuletzt bearbeitet:
Auch wenn du es nicht mehr hören kannst, es ändert nichts daran das Payne recht hat. Alles war nVidia macht hat nur ein Ziel: Den Kunden möglichst tief in die Tasche zu greifen.

Er hat eigentlich in keinem seiner Punkte recht, da doch alles was er sagt an den Haaren herbeigezogen ist.
Es werden eigentlich nur Verschwörungstheorien einen einen Hassbeitrag gegen Nvidia gepackt.
Hätte Nivida G-sync nicht gebracht, dann würde es wohl noch immer kein Freesync geben, also ist wenn überhaupt Nvidia zu danken, dass sie mal aus dem Quark gekommen sind und es Fortschritt gibt.

G-sync kostet mehr, aber wie oft tauscht jemand schon einen guten Monitor? Alle 5 Jahre mal? Wieso nicht gleich die beste Technik vom Marktführer kaufen und dann Ruhe haben?
Man muss schon ein bisschen überlegen warum die Kunden zu Nvidia greifen. Meistens liegt das daran, dass Nvidia halt besser ist und nicht an irgendwelchen Täuschungsmanövern und schlechter Behandlung der Kunden.

[3DC schrieb:
Payne]Das schlimme an Gameworks ist ja auch nicht nur, dass es auf AMD mies läuft, sondern auch, dass es auf nVidia Hardware mies läuft - nur auf AMD etwas mieser...

Und an was liegt das? An AMD`s schwachen Tesselator. Ein Unternehmen nutzt die schwächen des anderen um sich Vorteile zu verschaffen.
Macht AMD in den von AMD gesponserten Titeln doch genauso, da werden auch primär Techniken benutzt um sich von Nvidia absetzen zu können.
Dirt 3 unterstütze eine Renderingtechnik die AMD entwickelt hatte und ganz schlecht auf Nvidia Karten lief. Forward+ hieß die glaube ich.

Oder Mantle, war auch ein eigenes AMD Ding.

Oh und was ist eigentlich aus dem DX12 Treiber für Fermi geworden, was nVidia so lautstark angekündigt hat?! Und auch auf Geforce.com bewirbt man die Fermi Karten mit DX12...

Eigentlich geht es um Pascal und nicht darum ob eine uralte Grafikkarte Directx12 Support bekommt.
Wenn man AMD an dem messen würde was die versprochen haben und später nicht geliefert haben, da wird die Liste schon ein bisschen länger.

tomturbo schrieb:
Jeder der 30W bemäkelt oder von mir aus 100W fährt hoffentlich ausschließlich Fahrrad, oder zumindest Öffi, hat kein KFZ und fliegt nie mit dem Flugzeug auf Urlaub.
Achja Kartoffelsack als Kleidung ist Pflicht.

Effizienz ist eigentlich eins der gewichtigsten Argumente im Halbleitergeschäft.
Um eine effiziente Grafikkarte in den Rechner zu bauen, muss ich kein Fahrrad fahren oder Öko sein, denn genauso kann ich ein sparsameres Auto kaufen und nicht mit dem Rad fahren.*buck*

Der Versuch die Nachteile der AMD Produkte durch Kindereien kleinzureden mag vielleicht hier in diesem Forum funktionieren, draußen im harten Konkurrenzgeschäft werden aber keine Fanboyallüren bestimmen welche Produkte gekauft werden und welche nicht.
Also manche reden hier schon seltsames Zeug..*suspect*

Stromverbrauch unwichtig.. unfassbar und so wie ich manche Menschen kenne, ist es wenn AMD besser in Punkto Energieeffizienz dasteht wieder das wichtigste der Welt.

--- Update ---

AMD investiert in Dinge die wesentlich kundenfreundlicher sind. MultiGPU z.B. Ich kann erst klein anfangen und ergänze bei Bedarf mit einer zweiten GPU

Kundenfreundlichkeit kann ich daraus keine erkennen, denn für die schnellen Chips bietet Nvidia auch SLI an und für die kleinen lohnt sich SLI oder Crossfire nicht im geringsten.
Kundenfreundlich ist es eher bei den kleinen Karten das gleich zu unterbinden, denn sonst kommt noch jemand auf die Idee sowas hirnrissiges zu machen.

Nein! nVidia hat kein Interesse an diesem Feature, sollen die Kunden sich doch eine schnellere GPU kaufen...

Die weniger kostet als ein SLI oder Crossfire wie phöse.*buck*

Sie beten nVidia an, weil ihre GPUs lächerliche 30W weniger Strom verbrauchen.

Ich kann kein anbeten von Nvidia erkennen, wenn ein Käufer einen Hersteller aufgrund höherer Effizienz bevorzugt und wie auch wir schon zuvor festgestellt haben, wenn es denn bei den lediglich 30 Watt bleiben würde.
Bei der letzte Maxwell Generation gingen gleichwertige AMD Gegenstücke mit teilweise bis zu 150 Watt Mehrverbrauch ins Rennen und das geht auch ins Geld und bietet auch bei Kühlung und Lautstärke einfach nur Nachteile.

Das erinnert mich an Frauen, die immer das Arschloch als Mann suchen

Nvidia ist das A-loch und AMD der heilige Samariter wo man einfach jeden noch so großen Nachteil durch Ignoranz wegdiskutiert.
Erschütternd.
 
Zuletzt bearbeitet:

Das ist aber ein ganz anderes Feld... und das weißt du!

@MickFoley
Ich habe nicht gesagt, dass nVidia schlechte Produkte hat. Ganz im Gegenteil.
Nur ist es so, dass man meist proprietäre Kröten schlucken muss, die eine Abhängigkeit zu dieser Firma aufbauen.
Sieh die ganzen Entwickler an die auf CUDA gesetzt haben, die kommen nie wieder davon runter. Es sind Melkesel geworden.
Ich wollte damit nur mal versuchen, dass man mal seinen Blick etwas hebt und weiter in die Zukunft blickt, statt elektrisiert von Verbrauchszahlen zu sein.
10% mehr FPS oder 30W weniger in Extremsituationen ist nix weshalb ich mich darauf einlassen würde.
Du darfst das gerne anders sehen.
 
Man muss schon ein bisschen überlegen warum die Kunden zu Nvidia greifen. Meistens liegt das daran, dass Nvidia halt besser ist und nicht an irgendwelchen Täuschungsmanövern und schlechter Behandlung der Kunden.

...

Erschütternd.

Oha.
GTX970. Entschädigung wegen Täuschung? Nicht doch.
DH7970 vs. GTX 770 und die Entwicklung der Leistung nach dem Launch? Äh, viel zu alt.

Und nun ;-)?

Oder hast du einen "grünen" Arbeitgeber?

NV lebt (noch) von deren Image und Marketing.
 
Zuletzt bearbeitet:
Lieber MickFoley,

man sieht Du hast von der Praxis des täglichen Lebens leider wenig Ahnung.

Stromverbrauch ist und bleibt gegenüber Investkosten vollkommen untergeordnet, ja das fällt bei den Gesamtkosten eines RZs, zum Beispiel, gar nicht auf.

Ein kleines Beispiel: 2x40TB EMC VNX 5400 incl. Fibrechannelausrüstung I-Kosten >100000 Euro, Stromverbrauch von 5 Jahren *schulterzuck* interessiert keinen.
Schon gar nicht wenns um 30W auf oder ab geht.
Stromverbrauch geht höchstens für die Auslegung der USV und der Klimaanlage als Berechnungsgröße ein.
 
Hätte Nivida G-sync nicht gebracht, dann würde es wohl noch immer kein Freesync geben, also ist wenn überhaupt Nvidia zu danken, dass sie mal aus dem Quark gekommen sind und es Fortschritt gibt.
Das ist völliger Bullshit, den du hier verzählst!
Höre bitte auf, deinen Unfundierten Unsinn im Netz zu verbreiten...

Noch einmal:
1. War adaptive Sync schon sehr lange Bestandteil der VESA Spezifikation - nämlich im eDP Standard drin. OK, dass das für einen anderen Zweck gedacht war, spielt hier nicht unbedingt eine große Rolle.

2. Ach und warum hat man dann einen FPGA gebracht?! Und keinen ASIC?!
Das macht keinen Sinn! Ganz im Gegenteil.
Es macht nur Sinn, einen FPGA als Modul zu bringen, wenn man irgendwas schnell machen möchte und keine Zeit hat, einen ASIC zu entwickeln, da das ja relativ schnell geht.

3. und das ist das wichtigste:
passen die zeitlichen Gegebenheiten zu deiner Behauptung!
Ganz im Gegenteil! Denn ein neuer Standard dauert nicht nur Wochen sondern Monate!
Und die ersten Freesync Monitore wurden ja relativ schnell von den Monitor Herstellern vorgestellt, so dass man davon ausgehen muss, dass die entsprechenden Chips schon seit einiger Zeit in Entwicklung waren...

Dazu passt dann auch, dass es nur ZWEI(?) Monitore zum Start von G-Sync gab - das passt nicht zu einer lange geplanten Technologie, wohl aber zu einem völlig überhasteten Brechstangenstart, um sagen zu können, dass man doch irgendwie der erste war - auch wenn es glatt gelogen war und 'die anderen' die Spezifikation erweitert haben.

Außerdem spricht dagegen, dass Hawaii das schon beherrschte, es also auch in der Entwicklung des Chips berücksichtigt worden sein musste (auch Kaveri, Tonga und noch einige andere Chips unterstützen das). Und das dauert auch einige Zeit, das zu implementieren.

Die Situation war also, dass AMD einige Chips hatte (AFAIR 2 oder 3), als VESA Adaptive Sync in die Spezifikation aufgenommen wurde, nVidia aber nicht. Das kann nämlich erst Maxwell.

Aber glaub doch ja nicht, dass man den Usern erlaubt, die VESA Adaptive Sync Schirme zu nutzen! Auch wenn man dafür nur einen Treiber bräuchte...
Denn im mobilen Bereich macht man nämlich genau das.

Eigentlich geht es um Pascal und nicht darum ob eine uralte Grafikkarte Directx12 Support bekommt.
Es geht darum, dass nVidia gelogen hat!
bzw Versprechen nicht einhält.

Und schaue dir mal diesen Link an:
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-570
 
Zuletzt bearbeitet:
Die Ursache nennt man "Statische Leakage", also so etwas wie Leckströme, die vorhanden sind, auch wenn gar keine Transistoren schalten. Die SL nimmt mit kleiner werdenden Strukturen massiv zu. Mit 14/16nm sind Chips überhaupt nur ohne massive SL realisierbar, weil eine Logik ständig Teilbereiche abschaltet, die gerade nicht benötigt werden. Wenn ein neuer Treiber die Idle Leistung reduzieren soll, dann ist er genau in dem Punkt verbessert worden.
MfG

Danke für die Aufklärung. :)
 
Lieber MickFoley,

man sieht Du hast von der Praxis des täglichen Lebens leider wenig Ahnung.
Schon gar nicht wenns um 30W auf oder ab geht.

Es geht doch nicht um 30 Watt, sondern beispielsweise um 100 bis 150 Watt, schaut man sich AMD´s r9 390x gegen Nvidias GTX 980 an, oder eben die r9290 gegen GTX970.

Zudem geht es auch um Kühlung und Lautstärke und um den Punkt dass ein niedrigerer Strombedarf hier offenbar kein Vorteil sein darf. ( Wieso eigentlich? )
Um mal ein Rechenbeispiel anzuführen. 125 Watt bei geringen 2 Stunden Spielelast pro Tag ergeben bei 28cent pro Kilowattstunde mal eben knapp 26 Euro im Jahr.
Einfach unnötig mal eben 50 Euro mehr auszugeben wenn man eine Karte 2 Jahre betreibt. Da sinkt die Preisleistung des Gerätes/derKarte doch schonmal deutlich.

Bisher hat jedes Review den hohen Stromverbrauch der AMD Karten Idle/Last/Video kritisiert.

Oha.
GTX970. Entschädigung wegen Täuschung? Nicht doch.

Zum Beispiel, nur haben die Kunden das schon lange vergessen und die Auswirkungen sind gleich null und AMD war zu der Zeit nicht wirklich eine Alternative mit den "heißen Stromschluckern".

[3DC]Payne;5105369 schrieb:
Noch einmal:
1. War adaptive Sync schon sehr lange Bestandteil der VESA Spezifikation - nämlich im eDP Standard drin. OK, dass das für einen anderen Zweck gedacht war, spielt hier nicht unbedingt eine große Rolle.
Da hast du dir deine Antwort doch selbst schon gegeben, vorrangig wurde das in Notebooks zum Stromsparen genutzt.
Wenn AMD das in der Vorbereitung gehabt hätte, hätte man gleich nach der Ankündigung von G-sync, die Suppe versalzen können, komisch dass das 4 Monate lang gedauert hat und auch komisch dass es so lange gedauert hat bis Adaptivesync Monitore mal die Spannen die G-sync Monitore bieten bzw. erreicht haben und bisher oft immer noch nicht bieten, vor allem nicht bei den günstigen Modellen.

Wie lange hätte das mit adaptive Sync wohl gedauert? Vermutlich deutlich länger und auch schlechter als jetzt unter Druck.
Man muss schon auch mal die andere Seite der Medaille sehen um sich ein Bild zu machen, daher überzeugt mich das wenig was du da sagst.
Das klingt viel mehr nach einer selektiv konstruierten Verschwörungstheorie.
 
Zuletzt bearbeitet:
Zurück
Oben Unten