Warum ist Nvidias Performance/Watt besser ?

Night<eye>

Fleet Captain Special
Mitglied seit
23.07.2006
Beiträge
292
Renomée
0
Ernste Frage meinerseits auf die GTX960 bezogen. <---- Kontext meines Posts ist immer die GTX960.

AMD ist Performance Per Watt Technisch Jahre Hinter Nvidia obwohl 28nm vs 28nm.

Die Geforce GTX 960 erreicht unter FullHD im Schnitt eine 9 % höhere Performance gegenüber ihrem Vorgänger, der Geforce GTX 760 und ist damit in etwa gleich schnell, wie die AMD-Konkurrenzmodelle Radeon R9 280 und 285.

Bei Max Details @ 2560x1440 AA An/16xAF ist die 2GB GTX960 in folgenden Spielen, schneller als eine 3GB R9 280.

Battlefield 4 | | Grid 2 | Rome 2 | Metro Last Light

Und in Anno 2070 & Rome 2 & The Witcher 3 sogar schneller als die R9 280X 3GB

Quelle: http://www.gamestar.de/hardware/gra...13,4.html#benchmark-tests-mit-kantenglaettung

Positiv gesehen wurde auch der geringe Stromverbrauch, der bei 3D-Anwendungen bei rund 94 Watt liegt, wohingegen die gleichschnellen AMD-Modelle mit 189 Watt (R9 280) bzw. 183 Watt (R9 285) beinahe das doppelte benötigen und auch der langsamere Vorgänger mit 155 Watt hier deutlich darüber liegt.

Wir sehen also, die GTX960 ist sogar in Hohen Auflösungen meistens Schneller als eine R9 280, und hat somit eine um Quasi 100% bessere Leistung Pro Watt.

Die Beste AMD Karte mit 1x 6 Pin Stromanschluss ist die R9 270.
Diese ist Performance Pro Watt technisch und Geschwindigkeitstechnisch der GTX960 Stark unterlegen.

Wie konnte das passieren ? Wieso hat Nvidia hier eine um 100% Effizientere Karte obwohl beide Karten in 28nm sind ?
Ich bin wirklich endtäuscht wenn AMD diesen Monat bei der neuen Gen keine Massiven Verbesserungen bei den neuen Chips im Berreich bis 200€ Bringen wird, die diesen Rückstand wieder wett machen oder zumindest um 80-90% relativeren.

Ich wünschte es gäbe eine AMD Karte die nur einen 6 Pin Stromanschluss benötigt und auch so eine Leistung bei dem geringen Stromverbrauch bringt, und dabei auch nur 180-200€ Kostet. Doch ich befürchte, AMD wird keine Chance haben. Doch vielleicht irre ich mich ja. Was denkt ihr ?
 
Huhu. Danke. Ich dachte es passte in den Thread durch den Fiji. Aber so gehts auch danke :)

Provozieren sollte mein post wirklich nicht. Ist mein ernst die frage.
 
schau dir die GPGPU Leistung der beiden Karten an und auch der älteren Nvidias und dann solltest du die Lösung finden.

Nvidia hat die 900er stark in der Computeleistung beschnitten, das spart Strom und ist beim Spielen (noch?) nicht notwendig.
 
Jemand wie ich der sich die Grafikkarten nur zum Zocken kaufen möchte, interessiert das nicht.
 
Ja. der punkt ist, dass Nvidia es sich leisten kann, eine zweite GPU-IP zu entwickeln, die speziell auf Zocker und Mobil-Nutzung ausgerichtet ist. Das fehlt bei AMD schlicht, möglicherweise auch mangels entsprechender Ressourcen, weil die Primärziele andere sind.
AMD hat mit GCN eher ein Allroundtalent, mit dem man auch im Profisegment mehr Fuß fassen möchte.

Wenn du nur auf Effizienz beim Zocken aus bist, dann kauf dir momentan einfach eine Nvidia.
 
Zuletzt bearbeitet:
Wenn du nur auf Effizienz beim Zocken aus bist, dann kauf dir momentan einfach eine Nvidia.

Die paar Watt Unterschied machen den Kohl überhaupt nicht fett. Der Mehrverbrauch wird i.d.R. nur bei Vollauslastung erreicht, und das Geld was man bei einer AMD-Karte für die gleiche Leistung spart, reicht um die paar Watt Unterschied für X Jahre zu finanzieren.

Interessanter als die Spitzenwerte bei irgendwelchen Tests, wären eigentlich längerfristige Werte bei definierter normaler Last.
 
Ganz meine Meinung, daher das "nur".
 
Zuletzt bearbeitet:
Was ich wirklich mal interessant fände, wäre eine Stromverbrauchsmessung mit allen Karten, auf dem gleichen System, während z.B. eine Stunde lang der Valley Benchmark (oder sowas) läuft.
 
Immer wieder die Effizienz.
Bei solchen Betrachtungen muß man die gesamt Energiebilanz betrachten.
Normalerweise werden bei uns PCs in geschlossenen Räumen betrieben, die 3/4 des Jahres beheizt werden.
Ist dort ein Gerät effizienter, legt man es bei den Heizkosten wieder drauf.
Dank meines ineffizienten PCs kann ich an frischen Frühlings und Herbstabenden beim Zocken sogar die Heizung auslassen.
 
...wären eigentlich längerfristige Werte bei definierter normaler Last.
Du meinst mit aktiviertem Frame Limiter? Denn andernfalls holt der Boost/Turbo raus, was das Power Limit bei aktuellen AAA-Titeln hergibt.
 
Ernste Frage meinerseits auf die GTX960 bezogen. <---- Kontext meines Posts ist immer die GTX960.

Negativ, dieser liegt eher bei dem klassichen Birnen vs. Apfel vergleich

Erstens!
R9 280 = HD7950 Boost (2012)
R9 270 = HD7870 (2012)
Zweitens!
Selektive auswahl von Benchmarks wo bei Relase klar war, das diese schlecht auf AMD Hardware läuft.
Drittens!
Die R9 300 Serie besteht nur aus alten Chips und ist eh OEMs vorbehalten.


PS: "Jemand wie ich der sich die Grafikkarten nur zum Zocken kaufen möchte, interessiert das nicht." Jap, das merkt man auch an anderen stellen ;-)
 
Zuletzt bearbeitet:
Die paar Watt Unterschied machen den Kohl überhaupt nicht fett.

94W vs 189W sind für dich ein "paar" ?

Ich habe ein neues effizientes 300W NT mit nur 1 x 6 Pin Stromanschluss und möchte keine Stromschleuder.
Ich Zocke durchschnittlich 6-8 Stunden pro Tag. Also manchmal 12 Stunden manchmal nur 4 Stunden Täglich, und da machen sich 100W mehr definitiv bemerkbar auf der Jahresendabrechnung.

Was ich wirklich mal interessant fände, wäre eine Stromverbrauchsmessung mit allen Karten, auf dem gleichen System, während z.B. eine Stunde lang der Valley Benchmark (oder sowas) läuft.

Das wurde doch schon gemacht. Nur halt nicht bei Valley sondern bei anderen Titeln.

Aber der Stromverbrauch interessiert dich als Zocker?

Ja.
 
Ich wünschte es gäbe eine AMD Karte die nur einen 6 Pin Stromanschluss benötigt und auch so eine Leistung bei dem geringen Stromverbrauch bringt, und dabei auch nur 180-200€ Kostet.

Soweit ich weis wird AMD ihre neuen modelle vorstellen am June, 16th auf der E3, also noch ein paar tage warten :)

94W vs 189W sind für dich ein "paar" ?
Ich habe ein neues effizientes 300W NT mit nur 1 x 6 Pin Stromanschluss und möchte keine Stromschleuder.
Ich Zocke durchschnittlich 6-8 Stunden pro Tag. Also manchmal 12 Stunden manchmal nur 4 Stunden Täglich, und da machen sich 100W mehr definitiv bemerkbar auf der Jahresendabrechnung.

Da ich jetzt in den USA lebe, wuerde mich interessieren wieviel unterschied das momentan ausmachen wuerde in Deutschland? Hier kenne ich wenige Zocker die auf den Stromverbrauch gucken, hauptsache die FPS passt.

--- Update ---

AMD ist Performance Per Watt Technisch Jahre Hinter Nvidia obwohl 28nm vs 28nm.

Uebrigens der Vergleich hinkt ein bisschen meiner Meinung nach natuerlich...

Die letzte karte die AMD released hat war die Tonga basierende R9 285 in 2014, und die war der 760 GTX direkt gegenuebergestellt. Eine flinke google suche findet dieses review hier (kann leider noch nicht links posten, also ein bild)

untitled-1.png

Der verbrauchsunterschied wird auf ca. 20W gemessen (760=169W, 285=189W). Im generellen ist die 285 ein bisschen schneller sogar.

Keine schlechte alternative, aber ich wuerde immer noch warten auf die Neuauflage von AMD (und damit die Konkurrenz fuer die Maxwell Karten) auf der E3 in zwei Wochen :)
 
@Night<eye>: Als erstes mal stimmen die Zahlen welche Du Dir für den ersten Beitrag rausgesucht hast nicht, der Unterschied ist nicht so groß. Zum anderen gibt es wie gesagt einen großen Unterschied zwischen maximalem und durchschnittlichem Verbrauch. Abgesehen davon bezweifle ich ernsthaft, dass Du durchschnittlich 6-8 Stunden pro Tag irgendein 3D-Spiel spielst - rechne auch da vielleicht nochmal nach. Ansonsten ist ein 300 Watt Netzteil schon ziemlich grenzwertig klein, für einen aktuellen Spiele-PC - da bleibt Dir wohl wirklich nichts anderes übrig, als irgendeine extrem stromsparende Karte. Da würde auch keine achso stromsparende 970 oder 980 funktionieren.
 
Zuletzt bearbeitet:
Ach ja der Stromverbrauch, bei mir auch immer ein Thema!

Aber eigentlich nur dort wo es Sinn macht ich spiele viel alten Kram, dort hat mir AMD gezeigt das die Kabini hier gut aufgestellt ist, wirklich gezeigt hatte nämlich ein J1900 System mit einer HD7750 aufgebaut für Spiele von 2001-2006 mit 2X-4X AA, habe einfach kein Netzteil gefunden was soweit runtergehen könnte um zu Punkten gegen die Kabini.
Einnetzteil deutlich unter 120 Watt 90 Plus müsste her und das obwohl ich noch DVD Rom 2*Festplatten und Lüfter damit betreiben musste, doch leide gab es kein ATX Netzteil was soweit optimiert ist.

Da brachte AMD mehr CPU Leistung die ich auch nutzen konnte mit sich.
In den Spielen bis 2003 punktet die interne GPU der Kabini und bei den Spielen 2004-2006 Punktet wieder die Kabini durch den höheren Takt der CPU, das ist der Moment wo die Kabini auch eine zusätzliche Grafikkarte bekommen sollte damit auch etwas AA zuschalten möglich ist.

AMD Punktete in beiden Zeitspannen für Spiele, selbst es würde Netzteile geben die einen 5-10 Watt Einsparung ermöglichen wäre es mit ATX Netzteilen unmöglich an den Punkt zu kommen wo Intel auftrumpfen kann mit einer ATI zusammen im Spiel gegen die Kabini.

Jetzt würden mir Jemand sagen es geht um Grafikkarten und ich könnte ihn nur Recht geben und so kommen wir an den Punkt, wo die GTX 750 mit ebenfalls 55Watt deutlich später als AMD sich ins neue Bild einfügt so ist Maxwell ein drittel schneller als die alte HD7750 aber es es ja auch eigentlich mehr eine GTX 950 Generation Maxwell.

AMD kommt gerade mit seiner neuen Generation und brauchte nur gleichziehen im unteren Bereich und es würde kein Grund zum meckern geben.

AMD ist eigentlich der der sich bemühte den Stromverbrauch älterer Grafikkarten deutlich zu senken geht alle Wege mit GPU versucht mit Kernen oder Module ohne Ende, Euch alles zu Seite zustellen für Multimedia, Videoschnitt, Aufnahmen, serven im Internet und neben bei eventuell noch eine Datensicherung zu ermöglichen.

AMD hatte nur ein Problem eine weniger effiziente Prozessorarchitektur als Intel anbieten zu können und AMD reagiert ja gerade und optimiert seine Prozessorarchitektur von Dem der sich seiner Zeit um die Hammer-Architektur bemühte, in meine Augen immer noch nicht so leicht sein Job, da es um den Sieg über die Pentium 4 Prozessoren ging.

Immer das abschweifen, es geht ja noch um Grafikkarten was machte AMD Sie ermöglichten 4X Cross-F selbst mit einer Karte wie die HD7750 versuchte ihre GPU,s mit HD 7750 GDDR3 Serie zu DDR3 kompatibel zu machen und mehr FPS zu ermöglichen.
Ja, DDR4 ist jetzt anmache, so würde ich mir wünschen das sich AMD davon wieder distanziert, da es nur Kritik gibt und kaum einer eine GDDR4 Karte noch kaufen würde.
Selbst die internen GPU,s die kaum einer für Spiele nutzt lassen die AMD Prozessoren auf dem Papier viel ineffizienter aussehen als sie in Wahrheit sind.

Problem ist Office Multimedia Internet können einfach Alle nutzen mit der GPU doch Spiele stehen auf dem Zettel und das auf Optimum, auch ist immer noch Nvidias Physx ein Thema bei Vielen , jetzt soll Nvidia Hairworks die Position weiter von Nvidia festigen, AMD sein Mattel ist in vielen Augen schon Schnee von Gestern Direkt X 12 soll es richten.
Aber ab wann bezahlbar nutzen können?
GTX 750 und TI kein Dampf kein SLI, GTX 960 SLI möglich aber nicht effizient im Stromverbrauch, die GTX 970 eventuell aber zu Probleme behaftet die Karte, also die 980 aber was kostet die 980?

Ach egal, am Ende sind aufklärende Beträge ja doch meist nervig und anstrengend und führen zu mächtigen Diskussion.
Die auch wieder einen Standpunkt verlangen.

Ich will kein bekehren wollen nur sehe ich in AMD nicht nur versagen und das bedarf halt weniger Worte es kundzutun!

Danke, für ihr Interesse!
 
Zuletzt bearbeitet:
WoT spiele ich schon nicht mehr, weil WT mittlerweile überzeugender ist.
Und wenn mich das Spiel hauptsächlich interessiert, würde ich mir doch Benchmarks in dem Spiel anschauen!

Bei GPUBoss führt der Vergleich der 280X mit der 960 weiter unten in einen Flamewar. Es ist immer dasselbe, wie beim Fußball: Da in der Entwicklung und im Produkt Management (Rebranding!) immer entspr. der Ressourcen Kompromisse eingegangen werden, wird es immer irgendwem nicht passen.

Gestern beim CL-Finale ein paar km weiter hat der Schiri ein Tor nicht gegeben, weil Neymar den Ball ungewollt an den Arm geköpft hat. Mein Schatz hat B-Trainer-Lizenz und meint, dass man das Tor hätte geben können. Dann hätten sich aber wieder die Italiener aufgeregt.

Und hier geht es auch nicht um die Technik und eine ganzheitliche Betrachtung.

Es spielt alles nur in unserem Kopf. Ich schau erstmal weiter gemütlich zu. In diesem Sinne..
 
Zurück
Oben Unten