nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1

NVIDIA GeForce GTX 680 To RTX 2080 Ti Graphics/Compute Performance (phoronix)

--- Update ---

Update bei CB:

GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft (Computerbase)

ComputerBase hat den Artikel zum Wochenende um Informationen zur Asus GeForce RTX 2080 Ti Strix OC sowie zur Gigabyte GeForce RTX 2080 Gaming OC erweitert, die beide mittlerweile in der Redaktion eingetroffen sind. Darüber hinaus wurden Benchmarks auf Basis des TensorFlow-Frameworks, das vielen Deep-Learning-Anwendungen als Backend dient, ergänzt.

Zwischenzeitig durchgeführte Tests haben ferner gezeigt: Die Probleme mit der Lüfterdrehzahl und dem Stromverbrauch der Foundes Edition im Leerlauf behebt der erste offizielle öffentliche Treiber für Nvidia Turing noch nicht.

--- Update ---

GeForce RTX 2080 Overclocking Preview with Scanner (HardOCP)


--- Update ---

3DMark: Neue Benchmarks für Raytracing und integrierte GPUs kommen (golem)

Der noch unbenannte Raytracing-Benchmark testet die von Nvidia beworbene Reflexionstechnik. Interessanterweise kooperiert UL dazu auch mit AMD.
 
Zuletzt bearbeitet:
mir fehlt einfach der 3dfx-effekt. wo einem die kinnlade runterklappt und man sich denkt ... WILL ICH HABEN ... gibt noch nicht viele spiele ... EGAL, WILL ICH HABEN ...

theoretisch hätte raytracing nach so vielen jahren endlich wieder mal das potential für einen kleinen wow-effekt. praktisch ist das aber derzeit weitestgehend eine nullnummer. und wenn dann die grafikkarten, die das halbwegs wuppen können, dann auch noch so viel kosten wie ein kompletter standard-gaming-pc, dann muss da halt erst die henne das ei legen? oder das ei zurück in die henne? oder das ei brät in der pfanne? egal, es braucht für sowas eine vorleistung. darauf werden die entwickler aber auch nur dann einsteigen, wenn es ausreichend nachfrage gibt. und das ist bei den derzeitigen preisen eher zu bezweifeln.

Das Problem an der Sache ist das es solche Sprünge nicht mehr ohne weiteres geben wird, dafür kann die traditionelle Renderung schon zu gut (ausreichend) immitieren.
Einen ernsthaften Nutzen würde ich eher da sehen wo das Ergebnis der Bilderzeugung nicht realitätsnah genung sein kann, im VR Bereich aber dafür ist der Hunger nach Rechenleistung wieder zu groß. Schraubt man den Raytracing Anteil wegen dem Leistungsbedarf runter ist absehbar dass das Ergebnis darunter leiden und sich dem traditionellen Rendern wieder zu weit annähern dürfte. So oder so ist die Umsetzung alles andere als optimal. Was mich aber bei den bereits gezeigten Demo Videos mit Abstand am meisten störte war die mehr als mangelhafte Sichtweite der Effekte. Bei der Starwars Demo fiel das wegen der fehlenden Tiefe und dem übertriebenen Fokus Punkt nicht so auf aber bei der Metro Demo schob die Hauptfigur den Detail Unterschied einige Meter wie eine Bugwelle vor sich hin, welchen man mal mehr und mal weniger sah. Das ist wiederum etwas was mich extrem stören würde.
 
Ich glaube, es war bei Toms Hardware, wo stand, dass eine 2080 Ti mit DLSS über 70 Prozent schneller als eine 1080 Ti ist. Das ist mal eben der doppelte Vorsprung als bei herkömmlichen Anti Aliasing. Obendrein kann (kann, nicht muss) DLSS sogar noch bessere Optik bieten als herkömmliches AA.
Ich will nicht diksutieren, ob das unter 1080p Sinn macht, aber wenn bzw. solange das nicht in 2k geht, ist DLSS ein Feature für 2025. Aktuell haben 1.8% (?) der Steamer eine 1080Ti...

Und DLSS sieht in dem FinalFantasy Video immer besser aus, nicht aber grundsätzlich in anderen Beispielen ebenfalls besser. Hintergründige Elemente :) sind damit auch mal feststellbar verblurt.
Sie überlgegen zwar nun (erstmal), ob sie die KI auch für 2k trainieren sollten, aber das Training für 4k würde ich auch noch nicht für abgeschlossen erklären.

"Als herkömliches AA". Ok vielleicht mein Denkfehler, aber imho steht das SS in DLSS für Supersampling und nicht für Antialiasing?

Über RT braucht ihr nicht diskutieren. Das ist DirectXR und Vulcan wohl auch mal dann, also wird das kommen. Das ist wie T&L, damals und heute...
Und RT sollte man nicht nur als Spiegelungen verstehen. Nicht nur. Das erledigt auch die Beleuchtung und DAS ist der eigentlich Gewinn. Später mal :)

=======================

Oouu... Die haben heise irgendwie geärgert (?) ;)
https://www.heise.de/newsticker/mel...eForce-RTX-2080-Der-grosse-Bluff-4169328.html
 
Zuletzt bearbeitet:
arbeiten die neuen karten nicht mit einer besseren kompression? *noahnung*

Irgendwann ist Kompression auch am Ende 8)
rtx2080-review-548ufk0.jpg
 
Sehe ich das richtig, daß man bereits mit einer 2080 nichts mit RT anfangen sollte, wenn man nicht weit unter der 1080 liegen möchte? *buck*

Hätte natürlich trotzdem was, wenn sie das gleiche nochmal wenigstens in 2k getestet hätten...
 
Lief die BF-RT Demo ;) auf einer Beta von DirectXR oder wie ging das?

RT Benchmarks interessieren insofern nicht. Das 3dmark Teil was kommen soll ist doch uninteressant wie es nur geht. Wichtig sind reale Anwendungen bzw. die Spiele.
 
Zuletzt bearbeitet:
Die lief vermutlich auf Windows Insider RC5 (Redstone 5) und einem speziellem Treiber.

Wichtig sind reale Anwendungen bzw. die Spiele.

Spiele mit RT gibt es ja noch nicht. Deswegen hat die c't das ja auch noch als Nebelkerze bezeichnet.
 
Womit wir wieder bei #154 und #155 wären... Wenn 2080 ohne RT so schnell ist wie 1080, kann sie unter gleichen Voraussetzungen mit RT eben nicht schneller sein.

Wie gesagt aber 2k wäre bei den (sonstigen) Einstellungen interessanter.
 
ffxv bench 5146.jpg

So hab dann nochmal den neusten Treiber geladen und installiert, den FFXV Benchmark laufen lassen mit den Einstellungen die ich normalerweise nutze und nun bin ich überzeugt, dass es nur die 2080Ti werden müsste, wenn ich einen Wechsel plane.

Allerdings nicht für mindestens 1200€ bei gerade mal 35% mehr Leistung. (DLAA und RT außen vorgelassen)

Tobi, wenn deine Karten doch kommen sollten (habe es im 3dcenter verfolgt) dann wäre ein Test deinerseits sehr willkommen.
 
Die 2080 mit 8GB haben Sie zum Ladenhüter degradiert.
Selbst wenn man sagt man kauft 2 davon mit NVLink, durch das weglassen des Addieren des VRAMs auf 16GB, bleiben nur noch 8GB VRAM, was ein mGPU-System mit den Karten eher uninterresant macht.

Der Griff zur aktuell noch gut verfügbaren 1080ti sollte für Spieler jetzt die bessere Wahl sein.NV wäre vllt besser gefahren gleich die 7nm zu bringen.

7nm ist aktuell zu teuer und nicht genügend verfügbar, insbesondere für die Menge an solchen großen DIEs. Der hohe Preis ergibt sich m.E. aus mangelnder Konkurrenz und weil man eben Pascal abverkaufen will ohne groß die Preisschraube drehen zu müssen. Im Grunde kann Nvidia jeden Tag den Distribution Channel analysieren und seine Preise optimieren da es eben keine Konkurrent gibt.
Für Pascal User muss Nvidia zudem kein attraktives Angebot machen, da Nvidia selber ja nicht davon ausgeht dass sich eine Großzahl an Kunden jede Generation genehmigt. Die dürften eher davon ausgehen, dass Maxwell Kunden auf Turing wechseln und weniger die Pascal Kunden. War bei Pascal bzw. Maxwell bzw. Keppler auch schon der Fall.

Ich sehe die Grafikkarten mit RT auch eher im professionellen Bereich, wo bereits Raytracing genutzt wird. Architekturbüros oder bei Autohäusern mit VR-Raum etc.
Im Gamermarkt grad im Multiplayer, wo eh man eher Schatten und Details ausschaltet ,sehe ich keinen Vorteil.

M.E. ein erheblicher Vorteil wäre, wenn man durch die Spiegelungen Gegner die seitlich von einem oder seitlich auf einem Dach oder hinter einem stehen früher sieht, auf Grund einer Spiegelung in einer Pfütze oder so. Wäre ja auch kein Cheating sondern eben realistisch. Die sollten da nen Deal mit ein paar FPS Gamestudios machen. Sowas katapultiert die Verkaufszahlen direkt nach oben.
 
@Rlchthofen
So ganz aus der Luft gegriffen werden die Preise auch nicht sein denn die Kekse sind beide größer als der Chip der 1080Ti, haben einen neuen Fertigungsprozess und sind erst am Anfang ihrer Produktion, entsprechend schlecht dürfte auch die Ausbeute sein. Das wirkt sich dann natürlich auch auf den Chip Preis aus auf den sich die Produktionskosten des Wafers und anteiligen die Entwicklungskosten aufteilen. Bei letzteren wäre dann auch noch die zu erwartenden Stückzahlen aufgrund des Preises und der zu erwartende Verkaufszeitraum zu berücksichtigen, es sei denn dass man von Anfang an von einem Verlußtgeschäft für ein Prestigeobjekt oder einen Toröffner für eine weitere Festigung der Marktdominanz (mit dem man später die Kosten mit Folgeprodukten wieder rein holt) ausgegangen ist.

Lange Rede, kurzer Sinn. Aufgrund der Faktoren ist es alles andere als unwarscheinlich das bereits die RTX2080 in der Produktion teurer ist als eine eingefahrene GTX1080Ti.
 
Lange Rede, kurzer Sinn. Aufgrund der Faktoren ist es alles andere als unwarscheinlich das bereits die RTX2080 in der Produktion teurer ist als eine eingefahrene GTX1080Ti.
wird sich früher oder später z.b. bei den nächsten quartalszahlen zeigen.

ich bin da hin- und hergerissen.

auf der einen seite reden wir hier immer noch über highend-gaming. das war teuer, ist teuer und wird teuer bleiben. ich hab noch nie grafikkarten dieser preisklasse gekauft und werde das auch nie tun, schon gar nicht im aktuellen fall. daher geht diese preisdiskussion vermutlich an 99% der nutzer vorbei. wie das thema preis/leistung in der mittelklasse aussehen wird, muss sich erst noch zeigen.

auf der anderen seite hat das highend-gaming entgegen dem seit jahren schrumpfenden markt diskreter grafikkarten ein ordentliches wachstum hingelegt und nvidia wiederholt rekordzahlen beschert. das lief von quartal zu quartal wie ein uhrwerk.

und wenn man das thema über die jahre verfolgt hat, setzt genau da meine skepsis an. nvidia war in den letzten jahren der absolute börsenstar. und aus meiner laiensicht hat sich nvidia mehr und mehr in dieser rolle gefallen. nvidia hat derzeit keine konkurrenz und glaubt, munter an der preisschraube drehen zu können (mal außen vorgelassen, ob der chip nun in der herstellung teurer ist oder nicht).

und ähnlich wie z.b. bei apple mit seinen neuen iphones sind analysten fast jedes mal in jubelstürmen ausgebrochen, wenn nvidia seine margen hochgeschraubt hat.

keine ahnung, wo nvidia mittel- und langfristig hin will.

aber bei all der negativen berichterstattung der letzten zeit hab ich immer mehr den eindruck, dass nvidia vor allem analysten- und börsenliebling sein will. und sich immer mehr vom klassischen "gamer" entfernt.

und das gipfelt aktuell im turing-launch.

denn ich hab selten in den letzten jahren so einhellige kritik bei einem nvidia-launch gelesen und gesehen. nach den diversen "print"-tests hab ich mir vor kurzem die bekannten youtube-kanäle angeschaut. und dort wird nvidia für seine preispolitik heftig kritisiert, ebenso wie für den raytracing-paperlaunch. und das hat es lange nicht gegeben. ebenso scheint die stimmung in der community zu kippen.

ich glaube nicht, dass nvidia mangels konkurrenz machen kann, was sie wollen. im zweifel werden potentielle kunden eine generation auslassen oder doch mal der konkurrenz eine chance geben. und da nvidia nachwievor extrem vom gaming abhängig ist, können die fabel-wachstumszahlen auch mal gehörig eingedampft werden. das kann evtl. sogar jetzt schon das kommende weihnachtsquartal treffen.

lange rede, kurzer sinn ... imho hat nvidia überdreht. vielleicht merken sie es und steuern dageben. oder aber sie laufen gefahr, dass die angeschlagene stimmung komplett kippt und sie einen nachhaltigen image-schaden davontragen.
 
Da DLAA / DLSS in geringerer Auflösung dargestellt wird, ist der Speicherverbrauch auch etwas geringer als wenn man 4k @ AA nutzt. nicht wirklich viel, aber dennoch vorhanden, dementsprechend könnten die 8GB auch ausreichen, allerdings werden die Texturen ja auch größer und da kann es dann schon zu Problemen führen.
 
@cruger
Sicher, daß NV bis jetzt das meiste Geld mit highend-gaming, also 1080/1080Ti, verdient(e)? ;)

Und vielleicht nochmal: Pascal ist stark überproduziert worden. Imho nur deswegen kann Turing noch nicht preiswerter werden. Pascal muß mit entsprechender Marge erstmal noch weg. Bei Nv wie bei den AIBs. Die Lager sind sozusagen voll.
Wenn man den Markt mit den 1080(Ti) fluten würde (Preise), wird das zum noch stärkeren Nachteil für Turing. Es ist eine selbstgemachte Zwickmühle.

Auch Nv leistet sich ab und zu dicke Böcke ;) So hab ich bereits gehört, daß man bisschen mehr Turings ordern konnte bzw. sie bisschen eher bekam, wenn man dazu ebenfalls einige Pascals mitbestellte *buck*

Man kann das also schon so sagen, daß der primäre Grund dafür, daß es bei Nv mit Turing momentan so aussieht wie es aussieht, NVs Pascal-Problem ist.

keine ahnung, wo nvidia mittel- und langfristig hin will.
Langfristig wollen sie Architekturen ähnlich dem Turing, an welchen sie drumherum ARM-Cores kleben, Intel plattmachen.
 
Zuletzt bearbeitet:
So lange AMD kaum Konkurrenz-Modelle liefert für die 1080ti/2080(ti), braucht Nvidia doch nur die Produktion entsprechend anpassen. Kaum noch Ausgaben für die 1080er, aber weiterhin Einnahmen. Da freut sich doch jeder Aktionär!. Was Anderes wäre es, wenn AMD für die 2080er irgendwas Ähnliches entgegenzusetzen hätte.
 
@MagicEye04
Jein. Daß man trotzdem nicht machen kann was man will zeigt diesmal die Stimmung recht eindeutig. Ich würde sie nicht gleich als katastrophal bezeichnen, aber für einem Launch einer neuen GPU-Familie von NV ist sie relativ neu *buck*

Das gab es in der Form das letzte Mal imho nur beim LeafBlower (NV30) und diesmal geht es nicht darum das schnellstmöglich mit einem NV35 wegzuwischen. Das Problem ist diesmal eben ein ganz anderes.
 
Zuletzt bearbeitet:
@cruger
Sicher, daß NV bis jetzt das meiste Geld mit highend-gaming, also 1080/1080Ti, verdient(e)? ;)

Und vielleicht nochmal: Pascal ist stark überproduziert worden. Imho nur deswegen kann Turing noch nicht preiswerter werden. Pascal muß mit entsprechender Marge erstmal noch weg. Bei Nv wie bei den AIBs. Die Lager sind sozusagen voll.
Wenn man den Markt mit den 1080(Ti) fluten würde (Preise), wird das zum noch stärkeren Nachteil für Turing. Es ist eine selbstgemachte Zwickmühle.

Auch Nv leistet sich ab und zu dicke Böcke ;) So hab ich bereits gehört, daß man bisschen mehr Turings ordern konnte bzw. sie bisschen eher bekam, wenn man dazu ebenfalls einige Pascals mitbestellte *buck*

Man kann das also schon so sagen, daß der primäre Grund dafür, daß es bei Nv mit Turing momentan so aussieht wie es aussieht, NVs Pascal-Problem ist.
so lange sich die pascal-preise teilweise immer noch über dem niveau vor dem mining-boom bewegen, wird sich der abverkauf auch weiterhin zäh gestalten. darüber dürfte auch der handel nicht sehr erfreut sein. aber immerhin könnte zumindest die 1080 ti noch mal einen kleinen schub im abverkauf erfahren.

ich würde vielen kommentatoren zustimmen, dass der turing-launch einem "rushed" erscheint. warum eigentlich die eile? damit man turing noch voll ins weihnachtsquartal bekommt? um investoren zufriedenzustellen?

denn solch eine blöße hat nvidia schon lange nicht mehr gezeigt. die performance-zuwächse sind nicht spektakulär, aber in ordnung. es gibt für nvidia ungewöhnliche fehler wie beim leerlauf-verbrauch (huch, müssen wir noch patchen). viele reviewer haben die späte versorgung mit testsamples beklagt. die referenz-karten machen den aib-partnern das leben schwer. und raytracing ist aktuell eine nullnummer.

das alles gab es auch schon viel geschmeidiger. und man fragt sich mangels konkurrenz ... warum?

allein schon der umstand, dass man zum launch keinen vorzeigbaren titel für das killer-feature raytracing präsentieren kann, ist einfach ein kompletter reinfall.

und das thema preis setzt dem ganzen dann noch die krone auf.

da kann man den vielfach anzutreffenden unmut voll und ganz verstehen.
 
...dass die angeschlagene stimmung komplett kippt und sie einen nachhaltigen image-schaden davontragen.
GeForce ist als Marke längst angekratzt; genauso wie Radeon durch zweifelhafte Entscheidungen beschädigt wurde. Das Duopol hat mit CUDA, Mantle und Konsorten einfach zuviel auf dem Kerbholz. Es wird Zeit, dass ein lachender Dritte die Bühne betritt - hoffentlich wird es nicht Intel sein.
...an welchen sie drumherum ARM-Cores kleben...
Es gibt Bestrebungen (mit ungewissem Ausgang) bei nVidia sich von ARM zu lösen und einen Schwenk zu RISC-V zu vollziehen.
 
Zuletzt bearbeitet:
@cruger
Hmm. Also RT-less find ich die Leistung der GF20 schon ziemlich stark. Andererseits, ist GF10 im Marz 2014 announced worden. Launch war Mai 2016 (?) Ich würd sagen das ist zum Herbst 2018 schon halbwegs ok so.
Es ist ja eine andere Notwendigkeit ;) was zu tun als bei RX580 und Vega64, die in etwa 50 zu 78 zueinander stehen und wo Vega die Frametimes auch noch fast halbiert und wesentlich konstanter hält.

@SPINA
Nachvollziehbar, denn das würde wohl viel Geld einsparen. Ändert aber halt nichts auf dem Weg. Nur die Begleiter stehen noch nicht 100% fest. Ich tippe dann doch eher auf ARM. Mit RISC-V Gerüchten möchte man eher die Lizenzvereinbarungen beeinflussen ;)

Die "angekratzte" GeForce sehe ich aber nicht. Und Radeon heisst ja jetzt eher Vega :P Intel wird klar kommen. NV will ihnen an die Wäsche also haben sie beschlossen NV direkt an die Wäsche zu gehen. Die werden 2020 nicht mit der Leistung einer 1080 einsteigen. Sie haben auch keine andere Wahl als sich gegen NV zu wehren. Und sich teils mit AMD anzufreunden ;)
 
Zuletzt bearbeitet:
ich finde auch interessant, dass nvidia seine release-strategie anscheinend geändert hat.

wenn ich das richtig sehe, ist nvidia mindestens seit kepler ab der mittelklasse aufwärts immer mit einem pendant der 2080 gestartet und hat die serie dann scheibchenweise nach unten ausgebaut. um dann in einem für amd stets ungünstigen moment mit der ti dann oben nochmal draufzusatteln.

also
  1. 680 / 780 / 980 / 1080
  2. 670 / 770 / 770 / 1070
  3. 660 / 760 / 760 / 1060
  4. ... / 780ti / 980ti / 1080ti

dass 2080 und 2080 ti zeitgleich starten, weicht also vom bisherigen schema ab. weil sie keine konkurrenz haben, wo sie evtl nachlegen müssten? oder weil sie vielleicht fürs nächste jahr doch noch irgendwas oberhalb der 2080 ti in der hinterhand haben (für dann noch absurdere preise)? *noahnung*
 
WOW. Was ist denn plötzlich mit dem Wallossek passiert? Erstmal auf die Amis für ihren reinen Verkaufsartikel eindreschen und dann wegen +4.2fps in UHD gegenüber der TitanV, schreiben "dass diese Karte es fast immer schafft, eine Titan V zu überflügeln und damit komplett obsolet zu machen"... *suspect*

Man muß ja fürs Daheim nicht wirklich jetzt noch eine TitanV bezahlen, angesichts der 2080Ti, aber anscheinend mindestens "überflügeln" scheint nun ein sehr dehnbares Begriff geworden zu sein.
Und "obsolet" wird eine TitanV damit eigentlich nicht, wenn man denn schon eine hat. Es wird nur schwieriger so nun loszuwerden.

Ich hab das zwar mit dem Tenor wo es sich rumgetrieben wird, als wenn es sich um new-honesty *buck* handeln würde, zwar eh wie immer leicht skeptisch beäugelt, aber das jetzt ist auch abseits irgendwelcher Affinitäten (die ich sowieso nicht habe) schon recht weit weg von Genau, Objektiv, Kritsich, Typisch Deutsch.
 
Zuletzt bearbeitet:
@cruger
Nvidia ist sich einfach nur selbst treu geblieben und macht da weiter womit sie seit dem Aufkauf von 3Dfx oder spätestens beim Aufkauf von Ageia anfingen.
Blockade von für die Konkurrenz interessanten/relevanten Technologien, Zementierung von Haus "Standards" als Alleinstellungsmerkmale, sich damit der direkten Konkurrenz entziehen und fleissig am Ausbau der Monopol Stellung zu arbeiten. Dabei ist recht deutlich erkennbar wie sehr sie seit dem Debakel um die Preislage der GTX 260/280 krampfhaft an der Verbreitung ihrer Haus Standards und die Ausgrenzung der Konkurrenz arbeiten.

Mal ehrlich, der einzige Punkt worum sich die aktuelle Diskussion dreht ist doch letztendlich nur die Preislage der vorgestellten Karten der für einige offenbar ach so überraschend aber letztendlich von Anfang an absehbar war. Man hat es im Jahre lang aufgebauten Quasi Monopol ganz einfach mit der Namensgebung und dem verlangten Preis übertrieben und damit die Grundlage für die aktuelle Diskussion gelegt. Denn seien wir mal ehrlich, hätte man z.B. die RTX2080 - GTX1085 RT und die 2080Ti - Titan RT genannt dann hätten wir die Aktuelle Diskussion nicht.
 
Zurück
Oben Unten