AMD Radeon R9 Nano/Fury/Fury X/Pro Duo: Vorstellung/Tests/Meinungen im Netz. Links in Post 1

Probleme mit AMD-Karten/Treibern gibt es fast ausschließlich mit NVidia-GameWorks/PhysX-Titeln. Scheint so als würde diese Strategie von NVidia voll aufgehen ...
 
Probleme mit AMD-Karten/Treibern gibt es fast ausschließlich mit NVidia-GameWorks/PhysX-Titeln. Scheint so als würde diese Strategie von NVidia voll aufgehen ...

*lol* Haben die überhaupt eine Strategie? Ist es nicht so, dass auch einige nVidia-Karten Probleme mit diesem Framework haben? Es scheint mir doch so, es ein lausig optimiertes Produkt ist, welches kein Entwickler freiwillig verwendet.
 
Ich bitte auch wenn ihr mal abschweift (Treiber) das es möglichst sachlich bleibt, Namensverballhornungen kann man sich auch sparen.

Und ja das Treibermärchen nervt, wer das nachvollziehen möchte das es auch genug Fehler bei NV gibt kann mal die entsprechenden Treiberthreads im 3D Center Forum schauen.

Könnte einer der in Kürze eine Fury X hat auch etwas zum Lieferumfang seiner Karte schrieben? Wäre nett.

MfG
 
Könnte einer der in Kürze eine Fury X hat auch etwas zum Lieferumfang seiner Karte schrieben? Wäre nett.

MfG

Ich werde versuchen ausführlich zu sein. Angeblich ist meine Karte (natürlich schon mit ersten Verzögerungen) jetzt im Versand. Vielleicht Samstag.

Edit: Vielleicht irgendwelche Benchmark-Wünsche, im Vergleich zu meiner R9 290X? System siehe ansonsten unter meinem Namen (werde noch ein paar kleine Updates machen in ein paar Minuten).
 
Zuletzt bearbeitet:
Ich werde versuchen ausführlich zu sein. Angeblich ist meine Karte (natürlich schon mit ersten Verzögerungen) jetzt im Versand. Vielleicht Samstag.

Edit: Vielleicht irgendwelche Benchmark-Wünsche, im Vergleich zu meiner R9 290X? System siehe ansonsten unter meinem Namen (werde noch ein paar kleine Updates machen in ein paar Minuten).

Ja

GPGPU Boinc collatz_solo test :)
1x 290X
1x Fury

Wäre doll
 
@Bomby:
Firestrike (normal und Extreme) sind auf jeden Fall interessant, um das mit den Ergebnissen von Tobi mit seiner 980Ti zu vergleichen. Dein restliches System ist ja fast identisch wie seins.
 
hallo zusammen,

rein von der Optik und vom Aufbau der Karte finde ich sie sehr gelungen. Schön kompakt, die kriegt man fast überall rein. Die ersten Benchmarks und Tests sehen auch sehr vielversprechend aus. Wenn sie das Pumpenfiepen noch in den griff kriegen muss ich zugeben das es eine schöne Karte ist.

Ich hoffe AMD macht Nvidia mal richtig dampf *great*
 
@TB
und was sollen dir die Werte sagen? Ui die oder die hat 10 Punkte mehr ajhhhhhh.
Besteht dein Spieler dar sein aus Furmark?
Es geht doch um richtige Sachen.

Mich interessiert eher GPGPU, Boinc, Spiele, eventuell Folding@Home und auch Videos per GPU Rendern.
Das wäre toll.
Ich warte noch auf die NANO.
 
Hi Masko
in blick auf boinc würde ich auch zur NANO tendieren, wobei ich sehen möchte wie sie zur Fury steht, in einigen Test die ich mir jetzt angeschaut habe sieht die 4k Leistung sehr deutlich besser aus wo selbst die Titan nicht mithält aber darunter scheint doch noch was zu "bremsen" eventuell lässt sich das ja noch im Treiber optimieren.
@Bomby
was hättest du den an Games die du testen könntest so vorhanden?
gerne hätte ich infos zur den Einstellungen = auswirkungen der FPS begrenzung wie es funktioniert im "Altag"

lg
 
Firestrike dient halt als Vergleichswert und skaliert nunmal ähnlich mit den Karten wie echte Spiele. Mehr Frames = mehr Punkte. Klar kann man als Einwand bringen, dass ein Benchmark vielleicht einen bestimmten Grafikkartenhersteller besser dastehen lässt, das gilt aber für echte Spiele genauso. Zumal man genau die erzielten Frames vergleichen kann und dann auffallen würde, wenn Futuremark irgendwen bevorzugt. 3DMark ist EIN interessanter Anhaltspunkt von vielen möglichen. Natürlich kann man auch diverse Spielebenches her nehmen.

Dann kann man auch gleich mal den Stromverbrauch des gesamten Systems unter realen Bedingungen bei 3D-Spielen messen ;)
 
Zuletzt bearbeitet:
@Bomby
was hättest du den an Games die du testen könntest so vorhanden?
gerne hätte ich infos zur den Einstellungen = auswirkungen der FPS begrenzung wie es funktioniert im "Altag"

An Spielen hab ich im Moment mind. verfügbar (installiert): BF4, DA:I, Armored Warfare, World of Tanks, World of Warships, Star Citizen Alpha, und bestimmt ein paar andere die mir nicht einfallen (not @ home), oder die nicht wirklich Interessant sein dürften (z.B. Wasteland 2 und Pillars of Eternity). Bei Star Citizen bin ich persönlich recht interessiert - das werde ich sicher mal vorher/nachher mit FRAPS messen.

Ansonsten scheint die Karte jetzt wenigstens wirklich bei DHL angekommen zu sein.

Edit: Achso, meinen Strommesser könnte ich natürlich auch nochmal vorher anklemmen ... die Steckdose ist nur etwas blöde im Moment, aber mit Verlängerungskabel und einer anderen Dose könnte es funktionieren.
 
Zuletzt bearbeitet:
Mein Tipp: Knapp 400W Spitze in 3D-Spielen.
 
thunder o_O
deine 980 ist auch nicht wirklich sparsam .. da passen solche Andeutungen nicht, wenn du hier nichts beitragen möchtest der NV Beitrag steht dir bei Tobi bestimmt offen ...

@BoMbY
ich würde mich freuen wenn du zb. BF4 testen könntest mit framelimit 60fps wie sich das spiel verhält und ob tearing usw. nicht auftreten, in einigen rewievs wurde das Thema angesprochen aber nur am rande. und ob zb. beim DSR mit Einschränkungen in den spielen zu rechnen ist , zb. 1080p auf 4k im Hinblick auf Unschärfe zb. wie bei NV oder bei der Hawaii wo man etwas "Reaktionsvermögen" verlor .

lg

lg
 
@BoMbY
ich würde mich freuen wenn du zb. BF4 testen könntest mit framelimit 60fps wie sich das spiel verhält und ob tearing usw. nicht auftreten, in einigen rewievs wurde das Thema angesprochen aber nur am rande. und ob zb. beim DSR mit Einschränkungen in den spielen zu rechnen ist , zb. 1080p auf 4k im Hinblick auf Unschärfe zb. wie bei NV oder bei der Hawaii wo man etwas "Reaktionsvermögen" verlor .

lg

lg

Ich werde mal schauen was ich raus finden kann, aber bei meinem 144 Hz Display sehe ich normalerweise nie Tearing, auch ohne FreeSync. Und das VSR ist ebenfalls derzeit extrem beschränkt bei 1440p Displays (warum auch immer).
 
thunder o_O
deine 980 ist auch nicht wirklich sparsam .. da passen solche Andeutungen nicht, wenn du hier nichts beitragen möchtest der NV Beitrag steht dir bei Tobi bestimmt offen ...
Was für Andeutungen bitte? Mein Komplettsystem verbraucht unter Last in 3D-Spielen im Durchschnitt etwa 275W, gemessene Spitze 309W. Aber das tut hier auch nichts zur Sache. Die "knapp 400W Spitze", die ich bei (s)einem System mit der Fury X geschätzt habe, sind eine realistische Einschätzung meinerseits und deuten erstmal garnichts an. Es war ein Tipp, nicht mehr, und nicht weniger. Wenn du da irgend eine Form von Kritik hinein interpretierst, ist das dein Problem.
Gott, wie sich alle immer hier anpi****, wenn sie irgendwo Kritik an ihrer Lieblingsmarke riechen :] Leute, es ist bloß 'ne Grafikkarte, keine Religion *lol*
 
Zuletzt bearbeitet:
Leute, es ist bloß 'ne Grafikkarte, keine Religion *lol*
Wenn die Konsolen (hoffentlich mit "AMD inside") erst einmal die Weltherrschaft an sich gerissen haben, benötigt man ohnehin keine PCIe Grafikkarten mehr, weil schlicht keine neuen Spiele mehr für diese Plattform erscheinen; ausgenommen "Indie-" und "Casual-" Games. Ist diese Dystopie angesichts der Marktentwicklung so unrealistisch? Portierungen erfolgreicher Spiele erscheinen mit immer mehr Verzögerung. Einige Spiele sind mit Tastatur und Maus beinah unbeherrschbar. Kopierschutzmaßnahmen vergrämen immer mehr ehrliche Spieler.

Es wird immer unrentabler PCIe Grafikkarten für diesen schrumpfenden Markt zu entwicklen. Zum Glück hat AMD noch genug andere Standbeine. Man hat sogar den mutigen Sprung ins ARM Haifischbecken gewagt. Für nVidia sieht es dagegen langfristig finster aus. nVidia muss nicht nur gegen die Konsolenübermacht ankämpfen, sondern ebenso gegen immer stärkere iGPUs von x86 Prozessoren. Bei Skylake verschwendet Intel inzwischen sogar über 50% der Die-Fläche für die Grafikeinheit. Zugegeben fällt bei Intel der Nutzen angesichts des Aufwandes relativ klein aus, aber bei künftigen Generationen kann sich das ändern. Die Marschrichtung ist jedoch klar erkennbar und wird von AMD vorgegeben.
 
Hmm, ich wollte gerade meine PS4 verkaufen (bei Interesse einfach melden), da sie bei mir seit Erscheinungstag fast ungenutzt im Regal verstaubt, weil gute Exklusivtitel für Konsolen leider Mangelware sind und Multiplattformtitel auf der neuen Konsolengeneration schon jetzt besch**** aussehen im Vergleich zum PC. Von daher glaube ich nicht daran, dass der PC-Spielemarkt irgendwann aussterben wird. Es wird nur mehr so in Richtung Steam-Machine gehen, also konsolenähnlicher werden. Aber klar, je leistungsfähiger APUs werden, desto überflüssiger werden dedizierte Grafikkarten werden. Aber dass der PC als Spieleplattform aussterben wird, daran glaube ich nicht. Neben all dem Casual-Kram wird auch die Nachfrage nach AAA Titeln immer da sein.

Aber das ist jetzt ziemlich OT, könnte man 'nen eigenen Thread draus machen.
 
Zuletzt bearbeitet:
Im Moment bei meinem System mit R9 290X (ungefähre max. Werte):

Idle: 69W
Linpack: 195W
FurMark: 405W
Linpack+FurMark: 472W

Armored Warfare (CryEngine; 1440p; Vermutlich mein Spiel mit dem höchsten Stromverbrauch aktuell): 428W max. (Edit: Im Schnitt vielleicht 405W)
 
Dein Netzteil wird mit rund 85% natürlich auch noch ordentlich drauf schlagen......
 
Okay, hat wohl seine Vorteile wenn man für AMD arbeitet:

botSx4r.png


3D Mark Ultra Score: 13286
 
Gar nicht übel. Zwei Radeon R9 390X (mit 8GB) kommen (mit einer langsameren Intel CPU) "bloß" auf 4832 Punkte.

CrossFire scheint demnach auf der Radeon R9 Fury X sehr gut zu skalieren - z.T. sicher ein Verdienst des Catalyst 15.xx.
 
Zurück
Oben Unten