Zurück zu Nvidia - Endlich wieder zuhause!

Sehe ich wie gesagt nicht so. Der Ryzen1 geht trotz ohne Frage superber Contern von Intel wie warme Semmeln. Hier müßen sonst einfach die Boards stimmen.
Und bei Grakas ist das genauso. Die Miner interessieren sich auch nicht für Teslas und überhaupt für garkein Werbeblah und kaufen/kauften AMD die Lager leer. Relativ wie absolut.

Das ist mir bisschen zu einfach, die aktuelle Situation der Radeons in der Gamerszene, nur der geheimdienstähnlicher Arbeit der grünen PR-Ganoven anzulasten.

Womit ich nun feststelle, daß dies aber auch kein Grund ist Tobi seinen Verlorener Sohn kehrt zurück Thread deswegen zu hijacken. Hoffen, daß die V nicht abkokelt und sonst fette Leistungsberichte abwarten ;) Ist ja nicht so, daß es gleich völlig uninteressantes Stück Hardware ist.
Solange ich nicht >3400€ dafür latzen muß ist ja alles ok :D


Wie macht sich das Ding so bei ComputeMark 2.1? :) (im Fenster + Preset auf Complex + 1024x600)
 
Zuletzt bearbeitet:
Es ist ziemlich offensichtlich warum Nvidia Volta nicht als Mainstream Gaming bringt. Sie würde sich shaderbereinigt mit Vega messen und sich hinter Maxwell einreihen. Gegenüber Vega wäre da aber noch der Taktvorteil. Genauso wie Vega bringt sie ihre Performance auch erst in neuen APIs auf die Straße. Ich schätze mal Nvidia dürfte hier nicht nur auf den besseren Verkleinerungsprozess sondern auch auf eine breitere Durchsetzung neuer APIs auf dem Markt warten um Volta in den Massenmarkt zu entlassen.

Bezüglich Superstition als Benchmark, so kommt mir die lineare Berechnung von 4K zu 8K nicht ganz koscher vor. Das wäre dann der erste Benchmark der lineare FPS vorweisen würde. Außerdem im vergleich zu den veröffentlichten Gamingbenches der Volta trifft das Ergebnis selbiger nur in neuen APIs zur TI zu. Das Programm gibt also nicht den tatsächlichen IST-Zustand zur TI wieder. Der Abstand beträgt ja nur 10%, was die geposteten Punkte doch fragwürdig erscheinen lässt.
 
Man kann sagen komplett als Gaming nicht. Die Chips sind dafür einfach zu teuer. Dass es aktuell keine mehr zu geben scheint, könnte an dem gefundenen Berechnungsfehler der Karte liegen: http://www.pcgameshardware.de/Titan...er-in-wissenschaftlichen-Anwendungen-1252886/

Es wurden ja mit Absicht seitens Nvidia keine Gamingtreiber angekündigt. Einen großartigen unterschied zu dem vorhandenen Treiber macht das aber nicht.
 
ja, ich musste vier rechner mit vier titan V testen, um bei meiner enzym/protein simulation (1.000 tests pro PC in 14 tagen) zu sehen, dass eine der vier voltas in 10% der tests (1000/10) rundungsfehler an der 10^36igsten nachkommastelle erzeugt. nächstes mal kaufe ich für enzymsimulationen eine karte die ECC beherrscht.

zurück in die wirklichkeit bitte.

die karte musste hier alles geben und da ich nur nachts am pc spielen kann, weil ich tagsüber den arsch für geld bewegen muss, dauerte das halt etwas.. es dauert sogar noch immer.. neben dem UHD TFT betreibe ich noch immer stereoskopie, beamer und VR.

eine karte für den gegenwert eines gebrauchtwagens möchte der informatiker in mir natürlich hinreichend testen. hätte ja auch sein können, dass ich dem titan x (pascal) SLI nachweine..

kein stück :)

(..)

mfg
tobi
 
Wow. Da hat wohl wer ganze Arbeit geleistet, wenn sowas nicht erst nach 4 Jahren mal zufällig auffällt, sondern schon während der Validierung für Amber :]
Nur was steht da nochmal? Daß sich Amber in 10% der Tests um xy verrechnet oder daß es sich in den Fällen UM 10% verrechnet? Ich hab das wohl auch falsch bei Register gelesen.
Was ist denn aber die "Wirklichkeit" einer 3400€ Graka für nicht-gamer/ohne gamer driver? (sollte die nicht überall den Gegenwert von "2999$" haben?).

Nun. Wenn ich eine Titan V hab, die ja 9x so schnell rechnet als eine Titan X, also mind. (overhead) 4.5x so schnell ist als Titan X im SLI, und dabei die Hälfte an Energie verbraucht als so ein Titan X Verbund, da muß ich nicht erst ausloten, ob ich dem letztgenannten nachweinen könnte. Es sei denn ich mach öfters Rechenfehler die >10% sind ;)

Lass bollern. Mach mal ComputeMark 2.1 oder GPUPI 2.2 (ohne Cuda) oder sowas bitte 8) Mit den Texten kann ich ehrlich gesagt nicht mehr anfangen als ein echter Gamer mit einem 3DMark Bench... :-X
 
Zuletzt bearbeitet:
Was ist denn da in all den Jahren passiert?? :)

Ich habs 1x nicht verstanden, als ich über den ersten Beitrag flog, weil ich den Catalyst quasi nie gesehen habe. Ich klimperte bei Erstinstallationen 1-2 Tage drin rum und dann flog das CCC-Getöse auch gleich wieder aus dem Autostart.
Jetzt, jetzt schaute ich heute auf Luxx in den Threads mit den ganzen News und Kommentare zu Crimsons und Andrenalins, und da tauchen rrecht frisch (!) plötzlich grüne Typen auf und schreiben, sie beneiden die Roten wenigstens für den Trieber (?!?), weil deren geht mittlerweile garnicht. Womit wohl die GUIs gemeint sind.

Hää, was bitte?? :)
Genau, hä, was bitte?
Als ich letztens den AMD-Treiber unter Windows installiert habe, dachte ich mir nur, was ist das für eine kontrastlose, GUI? Übersichtlich halte ich es auch nicht, aber das kann auch am "Neu"-Effekt gelegen haben, der letzte Treiber war gut 5 Jahre im Einsatz.

Die Nvidia-Treiber für Windows kenn ich nicht, aber die für Linux sind einfach mal flächendeckend vorhanden, die GUI ist auch sachlich/nützlich - ich kann mich nicht beschweren.
Für den Ryzen warte ich nach wie vor auf einen AMDGPUpro-Treiber, der sich einfach nur installieren lässt.

Nach der Monopoly-Geschichte von Nvidia ist nun aber auch bei mir das Fass übergelaufen. Treiber und schnelles CUDA hin oder her - so eine massive Marktbeinflussung ala Intel geht einfach nicht. Da halte ich dann eben die alten CPUs so lange am Leben, bis AMD Treiber für neue GPUs bringt.
 
Womit ich nun feststelle, daß dies aber auch kein Grund ist Tobi seinen Verlorener Sohn kehrt zurück Thread deswegen zu hijacken. Hoffen, daß die V nicht abkokelt und sonst fette Leistungsberichte abwarten ;) Ist ja nicht so, daß es gleich völlig uninteressantes Stück Hardware ist.
Solange ich nicht >3400€ dafür latzen muß ist ja alles ok :D


Wie macht sich das Ding so bei ComputeMark 2.1? :) (im Fenster + Preset auf Complex + 1024x600)

computemarktv_2gzzq67.jpg



anyway.. wer mitspielen will -> ich zocke jetzt ne runde battlefront 2 und gehe dann in die heia.




(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wow. Ok. Das ist mal eine Hausnummer natürlich. Das ist von oben nach unten ~ 8.64x, 8.37x, 7.47x, 5.5x und dann 10.1x :) schneller als meine (Voltmod-freie).
Grad im letzten Test sind 653 GB/s zum Speicher hin schon nett. 4.5x schneller als ein Titan X-SLI bockt 8)

Computemark.png
 
Zuletzt bearbeitet:
Endergebnis knapp 2,9 mal so viele Punkte, wie eine 580RX.
Einzelergebnismultiplikatoren: 3,35; 3,02; 2,15; 2,49; 3,59

Gruß,
skell.
 
Naja Apfel und Birne verglichen und so.

Die 3400€ (selbst wenn es "nur" 3000 sein sollten) der V sind auf die Leistung bezogen einfach etwas überteuert.

Klar hat man die nächsten 4 Jahre etwas davon (und auch ausreichend Geschwindigkeit) aber da bleib ich lieber unter den tausend Euronen und behalte die 1080ti welche 13k irgendwas Punkte in dem komischen dx11 compute bench bei mir macht.

Aber wer und wie das Geld in sein Hobby investiert bleibt ja jedem selbst überlassen.

Ich warte eigentlich immer noch auf ein passendes Gegenstück von AMD auf die Ti dann kann ich mein freesync Monitor auch mal wieder nutzen, nur derzeit gibt es da (und die Vega ist MIR zu langsam) leider nichts.
 
Egal welche Messlatte man sich aktuell preislich setzt, die PReise für Grakas sind aktuell ein Witz.

Nein da wird diesjahr nichts mehr kommen. die Watt/FPS kriegen sie auf keinen Fall hin 2018. Fertigstellung des Zen+ hatte Priorität. Die Leute sind jetzt erst teils auf die Radeonteams verteilt worden. Das wird also erst 2019 was.
Beim Zen2 muß man jetzt nicht schneller reinhauen als Intel es macht. Bei den GPUs schon. Daher geht das erst jetzt los da. Die 1070/1080(Ti) sind weg.
 
ich wühle nochmal farcry5 raus, weil das noch ganz gut mit SLi läuft, auch wenn es ein neuer titel ist. andere spiele sind da leider nicht sooooo gut in der skalierung.. manche stagnieren sogar auf dem niveau einer einzelkarte (battlefront2 etwa)..

farcry5_uhd_ultra_txptps4b.jpg

2x Titan X (Pascal) @ ~2GHz

farcry5_2018_04_20_23iusf0.jpg

1x Titan V (Volta) @ ~2GHz


blick auf die minframes des SLi -> AFR mit 2x 40fps = 80fps @600W leistungsaufnahme.
blick auf die minframes voltas -> sGPU mit 1x 76fps = 76fps @300W leistungsaufnahme.


also wenn das keine hausnummer ist weiss ich auch nicht.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Was ist daran so Toll?!
Ist die normale Entwicklung bei GPUs egal ob Nvidia oder AMD.
Dann hast die Titan V sogar noch schlechter gemacht in den FPS durch den gleichen Takt......und die X schlechter beim Stromverbrauch.
Default ist entscheident ob die V doppelt so schnell ist oder nicht in den avg FPS und wie schaut es dann mit dem Verbrauch aus.
 
Die Karten laufen da ja nicht kontinuierlich in der maximalen Leistungsaufnahme. Das gilt fuer SLi wie auch für die V.

Durchschnitt 92 vs. 82 fps - SLI also in diesem Fall etwas mehr als 12% schneller.
Die Reale Leistungsaufnahme des Systems an der Steckdose wäre entgegenzuhalten. Trotzdem eine Karte, die wohl erstmals als Single Lösung für halbwegs angemessenen 4k Einsatz geeignet wäre.
 
das sli ist nur solange "schneller" wie man sich die reinen zahlen anschaut. dass 2x 40fps im sli nicht mit 1x 80fps aus einer einzelkarte gleichzusetzen sind, habe ich in den letzten 20 jahren bestimmt schon 100x erklärt. AFR ist eine krankheit - eine krücke - ein zustand, den man manchmal nicht umschiffen kann. so etwa "vor" titan V, denn da gab es nichts, das im grunde global UHD-games abspult und dabei mit den frames immer über dem refresh bleibt.

was die messungen angeht, so habe ich noch immer (wie auch schon xmal weiter vorn im thread erwähnt) ein leistungsmessgerät vor der PSU und dessen anzeige deckt sich so gut wie immer mit den auslesemechanismen meines corsair-NTs. das lässt die leistungsaufnahme im OS am eingang - verlust und am ausgang loggen.

mit zwei hochgetakten TXP liegt der verbrauch sehr oft weit über 600W; wo ein sys mit einzelkarte (250W @100% PT respektive 300W @120% PT) nichtmal auf 500W kommt.


(..)

mfg
tobi
 
Ja, nichtmal nur Microruckler / ungleichmäßige Frametimes - auch die spielspezifisch nötige Treiberanpassung / Profilunterstützung sind eine Krücke. Die theoretisch so schöne Skalierung ist in der Realität leider nicht so das gelbe vom Ei. Insofern ist eine Einzelkarte immer vorzuziehen.

Witcher 3 lässt sich z.b. auch schon mit einer Fury in 4k spielbar betreiben. Aber wenn man alles ausmaximieren will, wird man derzeit mit keiner Karte richtig glücklich. (Ausgenommen unseres Kandidaten hier, der aber leider nicht für den Spielemarkt vorgesehen ist.)

Eine Verdopplung der Leistungsfähigkeit (oder sagen wir 1,5fachung) ist aber im Grafiksegment tatsächlich durchaus im Rahmen des Üblichen. Das konnten wir in den letzten Generationen ja beobachten.

Gruß,
skell.
 
Ah nö? Ich dachte SLI lief bestens (?)
wenn du schon bock auf "dinge erforschen" hast, baller dir einen 313er treiber drauf und spiele mit dem neuen vsync-sli-afr-lagfree-feature.. oder wie nvidia es im CP nennt -> vsync(flüssig) | vertical sync smooth AFR behavior flag im NVI, tearcontrol muss dafür auf standard.

hab mir das gestern in skyrim angeschaut und auch wenn es die averageframes etwas drückt, war das spielgefühl echt "smoooooth". ich habs mit 1440p/60 und FHD/120, 110 und 100Hz getestet.

Wer wollte denn aber je AFR haben? Hätte NV uns mit ihren Zwangspartnern nicht mit ihren DX-Hacks künstlich so lange bei DX11 aufgehalten, hätten wir längst flächendeckend brauchbare SFR Treiber, wie auch Engines. Für DX12 und für Vulcan.

Wenn man MultiGPU machen will, geht das sinnvoll eh nur so wie AMD das nächstes Jahr vorhat. Dann kann Tobi mal wieder heimkehren ;)
 
Zu Multi-GPU sollte eigentlich alles gesagt sein. Es war in dieser Form eine über Jahre nett anzuschauende Techdemo. Wenn man sich den Frameverkauf aus Tobis Post anschaut, so sieht man dass das SLI eine weichere Kurve aufweist und somit eigentlich besser wäre. Auf der anderen Seite ist das wohl auch der Beweis, dass die V laut Testberichten bei Spielen im Frameverlauf etwas inkosistent ist. Ich bin zwar auch eher ein Fan von stabileren Frametimes und gemittelten FPS anstelle von High-FPS, aber ich bin mir sicher, dass dieser Fall von den altbekannten Helden diverser Foren hier auch nicht bemerkt werden würde wenn sie vor solchen Systemen sitzen.
 
das sli ist nur solange "schneller" wie man sich die reinen zahlen anschaut. dass 2x 40fps im sli nicht mit 1x 80fps aus einer einzelkarte gleichzusetzen sind, habe ich in den letzten 20 jahren bestimmt schon 100x erklärt. AFR ist eine krankheit - eine krücke - ein zustand, den man manchmal nicht umschiffen kann. so etwa "vor" titan V, denn da gab es nichts, das im grunde global UHD-games abspult und dabei mit den frames immer über dem refresh bleibt.

was die messungen angeht, so habe ich noch immer (wie auch schon xmal weiter vorn im thread erwähnt) ein leistungsmessgerät vor der PSU und dessen anzeige deckt sich so gut wie immer mit den auslesemechanismen meines corsair-NTs. das lässt die leistungsaufnahme im OS am eingang - verlust und am ausgang loggen.

mit zwei hochgetakten TXP liegt der verbrauch sehr oft weit über 600W; wo ein sys mit einzelkarte (250W @100% PT respektive 300W @120% PT) nichtmal auf 500W kommt.


(..)

mfg
tobi

Das machen in Deinem Fall avg. rund 75% wenn man Karte mit Karte vergleicht.
75% sehen natürlich schon besser aus , ABER Alte Generation Crossfire/sli vs Neues Topmodell schaute doch schon immer so aus.

--- Update ---

Ok, also ist beim Zen+ gegenüber Bulldozer auch nichts "toll"? Oder ist das keine normale Entwicklung?

Bulli passt da über haupt nicht als Vergleich,weil die Testprogramme Müll waren,die MEISTEN Tester auch nix konnten bzw nicht wollten......."durften".......
Bulli wurd Deutlich schlechter gemacht als er war,dann wurd er kaum richtig Unterstützt,oft wurd er mit Müll HW betrieben........
Dann ist es noch ein wenig schwieriger "Module" mit Kernen + CMT/SMT zu Vergleichen.....
Wenn du nen Bulli x6 mit nem PhenomII x6 verglichen hast im Richtigen Test,dann ging beim PhenomII x6 nix mehr und der Bulli lief so was von flüssig und schnell weiter.
Wenn du NUR nach Nackten Zahlen gehst im Nicht Unterstützten AMD CineBench,dann schaut es z.b. so aus und das ist.........bei 1GHz Weniger gegenüber dem Bulli hmmmmmm.Was da viel mehr beeindruckt ist der Verbrauch.
Auf die Core und Threads achten.
 
Seltsamerweise bracht man für Zen keine "Unterstützung". Wenn ich x86 machen, darf ich nicht erwarten, daß Leute plötzlich anfangen 2fach für "meine" x86 und "die andere" x86 zu entwickeln. Das war, ist und wird wohl jedem glasklar sein oder?
 
Zurück
Oben Unten