nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1

@HalbeHälfte
Das schrieb ich doch, die Titan V ist für Spieler zu teuer und vom Funktionsumfang her anders ausgelegt, etwas was bei den meisten Titan Modellen davor allerdings nicht der Fall war. Hier nahm der Unterschied zwischen der Titan und der Ti Variante von Generation zu Generation ab.

Die Marke wird genutzt primär genutzt um neue Preisregionen zu etablieren, weshalb deren Preis auch von Generation zu Generation stieg und das schließt einen Daddel Ableger natürlich nicht aus. Ich halte es eher für möglich das man hier mit einem daddel Ableger um die 2000€ (Preissteigerung später Modelle dann bis ca. 2500€) und einen Compute Ableger um die 3000€ (Preissteigerungen späterer Modelle bis ca. 3800 €)
zweigleisig fahren wird. Hat man die Preisregionen etabliert und hat den Rest der Produktpalette preislich nach oben gezogen dann gibt es den nächsten Sprung nach oben und das Spiel beginnt von vorn.
 
Wundert mich nicht das die ti länger braucht um verfügbar zu sein. Der Chip ist schon recht gut vorkonfiguriert und muss auch dementschprechend eine gute Qualität haben.
Hast du den zusmamenhang zwischen dem ersten und dem zweiten Satz auch selbst verstanden? Wenn ja, kanns du das bisschen genauer erklären? Ich hab nämlich nicht welchen Zusammenhang die beiden haben sollten.

Nvidia schafft einen deutlich höheren Takt als AMD. Bei 1 Volt so 1800+ MHz, 1500+ MHz bei der Vega.
Hier auch nicht. Ist das mt dem Takt so eine Art Qualitätsmerkmal?
 
@sompe:
Das lässt sich aber nicht so leicht machen, denn die große Masse der Spieler hat nicht soviel Geld oder ist nicht bereit, es auszugeben. Wenn man sich bei Steam & Co. mal anschaut, womit die Masse zockt, sind das Karten im 200-300€ Segment. Es bringt Nvidia also nicht viel, ihre utopischen High-End Preise zu etablieren. Die ganzen Gamer-Kiddies haben das Geld schlicht nicht, und die erwachsenen Spieler wollen sich nicht abzocken lassen. Sieht man ja jetzt an den Reaktionen. Vor allem, da es für viele Gamer auch schlicht nicht die Killerapplikationen gibt, für die es sich überhaupt lohnen würde, grafisch aufzurüsten.

Die Leute sind auch nicht dumm und lassen sich nicht alles gefallen. Den Preis-Irsinn zu beenden ist ganz simpel: Einfach nicht kaufen. Ich hätte auch gerne eine 2080Ti, nur so weil's geht, und hätte das Geld auch locker übrig, aber man muss sich einfach mal klar machen, dass man da für sein Geld nichts mehr bekommt, was auch nur annähernd soviel wert ist, sondern man macht nur ein paar fette Manager noch reicher.
Ich habe ja jahrelang wirklich lange zu den nVidia Produkten gestanden, aber irgendwann ist ein Bogen überspannt. Mich droht nVidia bei der nächsten Gelegenheit für sehr lange Zeit als treuen Kunden zu verlieren.
 
@Thunderbird 1400
Du siehst doch wie leicht es geht.
Man hat die Spieler nach und anch an eine Preislage von ca. 800€ für das Ti Top Modell gewöhnt. Es ist doch garnicht sooo lange her das die GTX970 für gute 320€ vorgestellt wurde heute bekommt man von nvidia in der Preisklasse lediglich die 2 Jahre alte GTX1060. Und so läuft dann auch der Hase, oben wird abkassiert und wer es sich nicht leisten kann muss dann eben eine Leistungsklasse tiefer rutschen.
Würden sich die erwachsenen Spieler nicht abzocken lassen dann würden sie dem Laden nicht so viel Geld in den Rachen werfen um sich daran zu binden.
Seit klar ist das sie die Kundschaft in der Tasche haben (Marktanteile, riesiger Preissprung bei der Titan V, kein wirkliches Konkurrenzmodell zur 1080Ti) machen sie eben das was ein Monopolist idR. so tut, er jagt die Preise rauf ohne sie in kleinen zwischenschritten zu verstecken.
 
Das wäre aber fast schon lächerlich, für ~600€ bekommt man ja schon die kleinste Touring.
welche denn?

geforce 2080 ti =1259 euro
geforce 2080 = 849 euro
geforce 2070 = 639 euro

und die aufwendigeren custom-modelle dürften auch bei der angekündigten 2070 tendenziell eher teurer als die founders edition werden.
 
"~" ist seit Turing in etwa +-50€ ;)

Das 3dcenter Pamphlet ist ein Gebet, daß die 1gen Turings mit der Zeit noch schneller werden. Sonst steht da nicht viel bsi garnichts. Den inhaltlichen Rest nehmen sonst fast komplett die Tabellen ein. Loenidas wird halt auch nicht jünger...
 
Zuletzt bearbeitet:
DAS fand ich auch wieder einsame Spitze von CB. Vollgepflastert mit entsprechend gestaffelten Tabellen des CB-gewohnten Inhalts :) und wenn man sich durch den Text wühlt, findet man, daß es sich bei diesen allermeist hoch- und höchstpreisigen Produkten um 1080p Tests handelt und in 2k und 4k das alles ein ganz anderes Bild ergibt.
Weil es ist natürlich klar, daß wenn manin FHD spielt, es einen nach 8700k lechtzt *suspect*
 
Diese Diskussion ist schon so alt bezüglich GPU und CPU Limit da lohnt es nicht drüber zu schreiben.

Benchmark entspricht ggf nicht dem eigenem Spielealltag.
 
Geforce 411.70 WHQL beseitigt hohe Leistungsaufnahme bei Geforce RTX 2080 und RTX 2080 Ti

So schön die gesenkte Leistungsaufnahme beim Nichtstun ist, so sehr schmerzt das bestehende Fehlverhalten der RTX-Grafikkarten bei Anschluss mehrerer verschiedenartiger Monitore: Nach wie vor arbeitet der GDDR6-RAM mit vollem Takt (effektiv 7.000 MHz) und der Kern im Falle der RTX 2080 außerdem mit 1.260 MHz (Ti: 1.185 MHz). Das ist wesentlich zu hoch, um sparsam zu agieren. Hier muss Nvidia noch nachbessern.
 
welche denn?

geforce 2080 ti =1259 euro
geforce 2080 = 849 euro
geforce 2070 = 639 euro

und die aufwendigeren custom-modelle dürften auch bei der angekündigten 2070 tendenziell eher teurer als die founders edition werden.

Die 2070, 639€ sind doch rund 600€

Und da die GTX 1080 aktuell eher zwischen 500-600€ am Markt steht, gibt es für die keinen Kaufgrund mehr.

Da kaufe ich mir lieber für ein wenig mehr eine aktuelle Karte.
 
So denn. Der Herr Wallossek stellt folgendes fest
https://www.tomshw.de/2018/09/26/ge...uebertaktung-und-diese-herzlich-wenig-bringt/

Jetzt fiel auch mir :) folgendes auf (wahrscheinlich wurde das schon von eratte verlinkt...?): Ist das der bisher einzige Test im Netz wo man preisnahe brauchbare 1080Ti Custom vs. 2080FE (weil wie oben, ob FE oder nicht, bis auf Lautstärke egal) vergleicht?
https://www.gamersnexus.net/hwrevie...ders-edition-review-benchmarks-vs-gtx-1080-ti

Fazit dessen? *suspect*

Sieht das bei 2070FE gegen brauchbae Customs der 1080, ähnlich aus? Fazit dazu dann?

Hat irgendwer den ihr "kennt", eine 1080(Ti) FE daheim?
 
Die Turings in der "FE"-Ausführung sind schon recht hart am Limit, da bringen Binning und diverse Spielereien nicht mehr viel. Alles Augenwischerei. 12nm wirkt beim Erscheinen schon jetzt "veraltet".
 
"Naja" :) Wenn der Fortschritt sich an Shrinks messen sollte, dann müßte man jedesmal die Foundries beklatschen und nicht AMD oder Nvidia ;)

Ich hoffe #219 wurde von allen verstanden. Es geht darum, daß man zu den Tests die stadardmässigsten der standardmässigen 1080 und 1080Ti zuzieht. Obwohl wir wissen wie der mit entsprechender Custom-Kühlung auch unter den Defaults des AIBs anziehen kann (gegenüber Pascal FEs z.B.)

Beim Turing ist das aber nicht mehr so. Die FEs sind selbst das was früher "custom" heissen sollte. Entsprechend schwerer haben nun die AIBs. Eine Touring FE ist nun selbst eine Nvidia Custom.
Und das ist nichts wegen NV vs. AIBs. Das MUSSTE sie sein, wie man auf GamersNexus sieht. Sonst würde sie sich die RTX als echte FE gegen die 1080FE genauso nicht absetzen können und wären gleich oder gar langsamer wie jede custom 1080er. Ohne RT...

Was interessiert denn bei der ganzen Testerei? Die Leistung gegenüber den früheren Modellen. Die Leute haben eine 900er, eine 1000er und wollen schauen was sie ZU DEM PREIS für Leistung bekommen.
Und die ganzen sonstigen Möchtegerntester haben dann die Unverschämtheit RTX FE-Customs gegen diese FE Blümchenkarten der vorherigen Generationen zu vergleichen?? Nochmal, wer kennt jemanden der eine FE hat? (und sie halt nicht unter Wasser fährt)

Solche Tests sind die allerletzte Rotze. Am besten sind noch die Uboote und Schläfer die zum Launch überall aktiviert wurden und dann noch zusätzlich so geniale Ideen hatten, wie die Fürbitten, man möge die Generationen auch mal alle mit dem gleichen Takt benchen.
FÜR WAS DENN?? FÜR WEN GENAU?? Wenn ich mir eine RTX kaufen will, dann schau ich was die bringt, gegenüber meiner Aorus, Rog-Strix, Windforce und Co. und will nicht wissen wie das Referenzdesign von damals, des Chips den ich hab - und wovon ich nichtmal Leute kenne die welche kennen die sowas hätten - zur einen der RTX stehen.
Die RTX sind Karten für aktuell ~640€ bis 1400€. Welchen Idiot interessiert es denn wie sowas zu einer 1080FE steht? Du stumpfsinniger verlogener opportunistischer viraler Mob...

Oder was meint ihr? :D
 
Zuletzt bearbeitet:
Der Releasetest 2080(Ti) "FE" gegen 1080(Ti) "FE" hat was mit dem NDA zu tun. Es ist sehr auffällig, dass so gut wie alle NDA-Unterschreiber einfach neu "FE" vs alt "FE" übernommen haben während sie kurz davor diverse "WindforceStrixGoldenSample" Versionen der 1080Ti durchgekaut haben, im DE-Lande besonders PCGH, die sich damit schmücken diverse Customs mitzutesten. Bei Turing haben sie schnell mal ne "Ausnahme" gemacht, gleiches gilt für CB, THW&Co. Wie gesagt, alles Augenwischerrei und für den einfachen Laien nicht einfach durchschaubar, der eben nur Zugriffe auf Releasetest hat wo NV fast schon extrem manipuliert und trickst (eigentlich wie immer), oder anders gesagt die Presse im Griff hat und alles mehr oder weniger umdeutet.

Auch die HDR-Problematik wurde bei Pascal lange lange unter dem Tisch gekehrt, selbst im 3dc, wo sich sehr viele Möchtegernexperten aufhalten, kommt nichts Produktives heraus .. bis Turing zufällig kommt und sich schmückt mit einer neuen "HDR-Pipeline", die Vega oder gar Polaris oder GCN im allgemeinen schon lange hat. Wasn Zufall. Leonidas hatte rund ein Jahr Zeit gehabt und nicht eine einzige News über HDR-Performance gebracht und immer gekonnt ignoriert. 16.09.2017! -> Da wo keine Presse gemacht wird: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=583928
PCGH hat jetzt 10/2018 ein Artikel rausgebracht über HDR-Performance-Impact, auch sehr widerwillig wie man im Thread nachlesen kann.

Jetzt erst, wo man(grün) es nicht mehr ignorieren kann, wird es mal behandelt. So richtig wahrhaben will es keiner, ist ja schließlich richtig beschissen für NV's Pascal wenn die Balken plötzlich kürzer werden. Auch die AsyncCompute Unfähigkeit oder generelle DX12-Schwäche werden seit Ewigkeiten umgedeutet. Wird jetzt alles interressanter weil es Turing nun kann und sich mehr und mehr GCN angepasst hat mit der RT/DLSS-(Ver)Blendung.

Trotzdem hat sich NV ziemlich gut aus der Affäre gerettet. Das Desaster "2080 Referenz" < "1080Ti Custom" wurde ja sehr gut unterbunden indem "FE" vs "FE" gelabelt wurde. Das schlimme ist, dass die Masse der Käufer einfach drauf reinfällt, indem die NDA-Tests lesen und für objektiv oder wahr halten. Das ist ja das perfide dran.

Neueste LL-API Iteration in der Forza Engine spricht da halt eine andere Sprache, da ist die 2080 lediglich 9% schneller als ne Vega64.
http://www.pcgameshardware.de/Forza...za-Horizon-4-Technik-Test-Benchmarks-1265758/

Man kann zwar für gewisse Zeit alle verarschen oder für eine gewisse Masse für alle Zeit, aber nicht alle für Allezeit.
 
Zuletzt bearbeitet:
@vinacis_vivids
Mal ehrlich, hast du was anderes erwartet? Das ist das gleiche Spiel wie seinerzeit bei der Tesselation.
Bis der Fermi raus kam wurde es runter gespielt und als unwichtig bezeichnet, nachdem er raus war wurde es auf einmal das nonplusultra und man hat alles darauf gesetzt es so einzusetzen das man die Konkurrenz darüber ausbremst, egal wie sinnlos der Einsatz war.

Das gleiche Spiel hatten wir ja nauch bein Intel wo die größeren Multicores ja angeblich wegen ihrer Singlecore Performance gekauft wurden. Wie will man das auch anders begründen wenn die multicore Performance angesichts der Argumentation zur Konkurrenz ja angeblich auch so unwichtig sein soll?
Dann noch die diversen Chipsatz Bugs der Vergangenheit und die zahlreichen Sicherheitslücken der heutigen Zeit für die man AMD in der gleichen Zeit schon mindestens 3x verbal aufgeknüpft hätte.

Unterm Strich lässt es sich aber darauf hinunter brechen das beim Marktführer bis zu einem bestimmten Punkt ganz einfach jeder Mist schön geredet oder auch einfach nur ignoriert wird, wie will man auch sonst den höheren Preis für das kurzlebigere Produkt rechtfertigen?
 
Die Test sind ja nichts anderes als Kundenpressentationen,mit NDA (wer das Produkt kritisch betrachtet, bitte den Raum verlassen).

Wenn für ein 4K Gaming Sys alles im allem dann über 5K an Geld fließen müssen, ist nicht jedermanns Sache. Die neuen Medien werden halt auch dazu benutzt um alles zu hypen. Unter 60 fps ist ja nichts mehr speilbar.;D
 
Hat Nvidia die RTX-Demo mit KeyShot gefaked?

NV Quelle:
https://blogs.nvidia.com/blog/2018/08/20/geforce-rtx-real-time-ray-tracing/


Sofware ist Autodesk VRED mit einer eigenen high end ray tracing engine: https://www.autodesk.de/products/vred/overview

Luxion nutzt derzeit reine CPU-Power und hat keine Kooperation mit Nvidia
https://www.keyshot.com/press/luxio...-cpu-gpu-new-intel-xeon-processor-e5-2699-v4/
AMD wird als Sponsor genannt (insbesondere Threadripper)
https://www.keyshot.com/renderworld/

Eine moderne CPU braucht Stunden, vor allem denoising, während NV diese Szene angeblich in Echtzeit "rendert".
Kompletter "Game Changer" oder "kompletter Fake"?
 
Zuletzt bearbeitet:
Zurück
Oben Unten