nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1

Das dürfte vermutlich eher der effektiven Bandbreite zu gute kommen und weniger dem Speicherplatzbedarf an sich, zumindest wurde das bisher in dem Zusammenhang erwähnt.
Ich gehe zumindest davon aus dass die 2080er im Vergleich zu den 1080Ti Modellen eher einbrechen werden weil ihnen ganz einfach der Speicher ausgeht.

Lustig werden ja noch die Raytracing Benchmarks, also dem einzigen Faktor wo die 2080er wirklich punkten könnte aber wurde das nicht erst vor kurzen aufgrund der Performance nochmal zurück gefahren? Entsprechende Ergebnisse stehen ja ohnehin noch aus weil das entsprechende Windows 10 Update noch fehlt.
Viel geändert hat sich mit der Veröffentlichung nicht wirklich denn der primäre Vorzug ist auch weiterhin nahezu ungetestet.
 
Zuletzt bearbeitet:
Also die Ti ist ja Schnell , keine Frage. Aber zu welchem Kurs ???
Die non Ti ist ja dann schon fast ein Ladenhüter. Ha holt sich doch jeder mit nur etwas Menschen Verstand eine neue oder eine gebrauchte 1080Ti.
Wenn ich mir einen Test zu Hardware durch lese sind es eh immer nur die von Igor. Den rest kann man ja fast schon als bezahlt ansehen.
Was bin ich nur froh das ich kein Gamer mehr bin. Die 3 Spiele die ich habe sind auf der XBO und laufen sogar auf einer einfachen RX550 in den Ryzen Systemen . 8)
 
wie üblich bei komplett neuen ansätzen macht ein kauf in der ersten generation wenig sinn. bin mal gespannt, wie schnell oder langsam dlss und raytracing einsickern werden.

davon mal abgesehen sind die neuen karten vielleicht nicht spektakulär, aber imho durchaus sehr gut. vor allem das neue referenzdesign gefällt mir sehr gut. wurde in vielerlei hinsicht auch von tomshardware gelobt.

nur mit der preisgestaltung kann ich rein gar nichts anfangen. da hat nvidia mich aktuell als potentiellen käufer verloren.

ob das nun geldgier oder tatsächlich der chipgröße bzgl. raytracing und dlss geschuldet sein mag. mir ist das zu teuer und ich bezahle ungern für features, die vermutlich erst in der nächsten oder übernächsten generation sinn machen werden.
 
Igor hat auch das generelle NDA unterschrieben und das auch sehr verteidigt wo er noch einen Account im 3D Center hatte.
 
Igor hat auch das generelle NDA unterschrieben und das auch sehr verteidigt wo er noch einen Account im 3D Center hatte.
ich glaube (und hoffe) nicht, dass das in dem bereich, in dem er sich nunmal von anderen abhebt, einen einfluss hat. also z.b. die sezierung der spannungsversorgung oder die kühlerkonstruktion etc.
 
MSI GeForce RTX 2080 Ti Gaming X TRIO Review Guru3D

Selbst diese Karte ist nurgeringfügig schneller als die FE.


Zu der allgemeinen Situation.

Die 2080Ti ist schon schnell, allerdings einfach maßlos überteuert.

Ok, kaum eine Seite kann die kommende Performance des Raytracings darstellen, weil einfach die Tests fehlen.

Zum Thema Speicher der 2080.

Da DLAA / DLSS in geringerer Auflösung dargestellt wird, ist der Speicherverbrauch auch etwas geringer als wenn man 4k @ AA nutzt. nicht wirklich viel, aber dennoch vorhanden, dementsprechend könnten die 8GB auch ausreichen, allerdings werden die Texturen ja auch größer und da kann es dann schon zu Problemen führen.

Mein Fazit dieses Produktes ist ->

Toll für die Technikfreaks, entwickler und alle anderen Nerds und auch für die Möglichkeit es weiter auszubauen.

Schlecht für die Performance und ganz besonders in Bezug auf den Preis.


Die 2080 hat 1080Ti Leistung für 849€ (ohne RT und DLAA) soviel hat die Ti zu markteinführung damals doch auch gekostet oder? Jedenfalls kostet heute eine neue 1080ti (wenn man nicht gleich das super duper OC modell kaufen möchte) 100 - 200€ weniger, ich würde da nicht lange überlegen, wenn es ums Geld geht.

Die 2070 soll sich ja auch noch irgendwie verkaufen, hat die dann nur 1080 Performance und das für einen höheren Preis?!

Bin gespannt wie lange die 10x0er (TI's) noch auf dem Markt sein werden, all zu lange kann ich mir das nicht vorstellen, aka Restbestandverkäufe.
 
Die 2070 soll sich ja auch noch irgendwie verkaufen, hat die dann nur 1080 Performance und das für einen höheren Preis?!
hatte die uvp zum jeweiligen marktstart oben schon aufgeführt

1080 ti = 819 euro
2080 = 849 euro

auf dem papier hat die 2070 es etwas einfacher, so sie denn die 1080 im griff hat.

1080 = 789 euro
2070 = 639 euro

aber nicht nur die marktpreise der 1080 ti sind deutlich unterhalb der uvp der 2080. die 1080 gibt es ja auch für teilweise deutlich unter 500 euro. da müsste die 2070 schon ordentlich an performance draufsatteln, um die uvp zu rechtfertigen.
 
danke für die tests - habe alles inhaliert, den jeweils längsten UHD balken
mit meinen frames verglichen und nichts gefunden wo ich den kürzeren habe. denke volta bleibt
bis es neue titanen gibt stecken und die vorbestellten TIs gehen zurück; vllt reicht die zeit auch
für ein storno - dann muss ich die 2,6K € gar nicht erst latzen.
Founders Edition? Vielleicht freut sich ja Morki über eine davon. ;)
 
Bin gespannt wie lange die 10x0er (TI's) noch auf dem Markt sein werden, all zu lange kann ich mir das nicht vorstellen, aka Restbestandverkäufe.

Ich gehe davon aus dass die GPUs für den Desktop Markt bereits auslaufen und der Bereich bei der Herstellung nicht mehr berücksichtigt wird. Das beseitigt auf Dauer unliebsame Konkurrenz im eigenen Haus und macht die dafür benötigten Produktionskapazitäten beim Chip Hersteller frei.
 
Die 2080 mit 8GB haben Sie zum Ladenhüter degradiert.
Selbst wenn man sagt man kauft 2 davon mit NVLink, durch das weglassen des Addieren des VRAMs auf 16GB, bleiben nur noch 8GB VRAM, was ein mGPU-System mit den Karten eher uninterresant macht.

Der Griff zur aktuell noch gut verfügbaren 1080ti sollte für Spieler jetzt die bessere Wahl sein.NV wäre vllt besser gefahren gleich die 7nm zu bringen.

Ich sehe die Grafikkarten mit RT auch eher im professionellen Bereich, wo bereits Raytracing genutzt wird. Architekturbüros oder bei Autohäusern mit VR-Raum etc.
Im Gamermarkt grad im Multiplayer, wo eh man eher Schatten und Details ausschaltet ,sehe ich keinen Vorteil.
 
ich glaube (und hoffe) nicht, dass das in dem bereich, in dem er sich nunmal von anderen abhebt, einen einfluss hat. also z.b. die sezierung der spannungsversorgung oder die kühlerkonstruktion etc.

Kann ich nicht beurteilen, würde ich ihm aber auch nicht unterstellen.

Die Art und Weise wie er auf die Bedenken das Er das generelle NDA unterschrieben hat reagiert hat ist bei mir persönlich nicht gut angekommen und seine Glaubwürdigkeit (und die anderer Seiten) hat da bei mir einen Knacks bekommen. Das kann ja jeder für sich bewerten.

GeForce RTX 2080 Founders review (Guru3D)
GeForce RTX 2080 Ti Founders review (Guru3D)

--- Update ---

The NVIDIA GeForce RTX 2080 Ti & RTX 2080 Founders Edition Review: Foundations For A Ray Traced Future (Anandtech)

--- Update ---

NVIDIA GeForce RTX 2080 Ti Founders Edition 11 GB Review (TechPowerUp)
MSI GeForce RTX 2080 Gaming X Trio 8 GB Review (TechPowerUp)
MSI GeForce RTX 2080 Ti Duke 11 GB Review (TechPowerUp)
ASUS GeForce RTX 2080 STRIX OC 8 GB Review (TechPowerUp)
Palit GeForce RTX 2080 Gaming Pro OC 8 GB Review (TechPowerUp)
ASUS GeForce RTX 2080 Ti STRIX OC 11 GB Review (TechPowerUp)

--- Update ---

Initial NVIDIA GeForce RTX 2080 Ti Linux Benchmarks (phoronix)
 
Moin,
ich habe mir mal den Test von CB angeschaut und finde es komisch das da FE modell getestet werden.
der Spiele Test von ACO habe ich dann mal den alten test in HD und WQHD angeschaut und danach hätte ja die 2080 gegen eine 1080ti deutlich das nachsehen, und ist nur minimal 5-8FPS langsamer als die 2080Ti hm das ist in den Bereichen schon wie ich finde entäuschend.
Jetzt heißt es abwarten wie sich die karten aufstellen der Hersteller ob sie den noch mehr wie eine FE liefern können.
Was mir als ein hauptpunkt gefällt ist die Lautstärke der neuen FE auch wenn ich über die Auswirkungen etwas bauchschmerzen habe (Richtung High end verkauft NV nur noch selber ohnlich zur Titan)

lg
 
Die 2080 Ti FE liegt schon fast auf dem Niveau der Coustomkarten, die Vorgänger FE mit dem Radiallüfter konnten da nicht mithalten.

Der Vergleich 1080 Ti FE gegen 2080 FE lässt die 2080 FE halt in einem besseren Licht erscheinen. ;)

GeForce RTX 2080 /Ti Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick (3D Center)

--- Update ---

Kein DLSS ohne 4K:

Wir haben vor Ort mit Nvidia darüber gesprochen. DLSS soll in Spielen vorerst nur in Ultra HD (was in der normalen Einstellung bekanntlich nicht mehr natives UHD darstellt) angeboten werden. Später könnte WQHD dazukommen, dafür muss die KI aber noch einmal komplett neu trainiert werden, weshalb sich der Aufwand aus Sicht von Nvidia zurzeit nicht lohne. Die Star-Wars-Demo stellt dahingehend eine Ausnahme dar.
 
Founders Edition? Vielleicht freut sich ja Morki über eine davon. ;)


ich bin von der FE nun vollends abgerückt, wegen dem video was eratte verlinkt hatte. ich werde mit sicherheit nicht an einer 1300 euro karte mit dem heissluftfön rumpusten um den kleber der plasteabdeckung aufzuweichen.
daher schaue ich immer nach ob diese evga kommt, wo das alles schon draufgebaut ist und man die nur noch anzustecken braucht. hoffe blos das der preis nicht zu abgehoben ist. bis jetzt gibts nur eine von msi mit geschlossenem system und dort ist der günstigste preis 1400 euro, wobei der nächste schon bei 1500 liegt und das bis 1800 hochgeht (lächerlich).
 
leider gibt es nicht viele vr-benchmarks. aber bei den wenigen verfügbaren scheint der abstand der 2080 zur 1080 ti etwas größer auszufallen als in anderen bereichen.

ich bin gespannt, wie sich die verkäufe entwickeln. denn soweit ich das überblicken kann, gibt es erstmals wirklich von allen seiten kritik an der preisgestaltung. ja, die karten sind sehr gut. aber der preis bewegt sich an oder bereits jenseits der kotzgrenze.
 
Nvidia GeForce RTX 2080 im Kurztest: Teurer aber nicht viel schneller als die Vorgänger (heise)

--- Update ---

Oha:

Kommentar zur Nvidia GeForce RTX 2080: Der große Bluff (heise)

--- Update ---

NVIDIA PR States OC Scanner does NOT Void your RTX Warranty (HardOCP)

We were told earlier today by NVIDIA support that its OC Scanner tool would void our RTX card's warranty. We did reach out to verify with NVIDIA PR, and they have specifically told us that its yet-to-be-released OC Scanner tool will not void your warranty.

--- Update ---


"Wo the Hell buys this Cards?" ;)
 
Zuletzt bearbeitet:

So sehr ich es "damals" auch begrüßt habe, dass Heise das neue NDA öffentlich gemacht hat, so wenig stimme ich jetzt mit diesem Kommentar überein. Der ist mir deutlich zu negativ geschrieben.

Ja, die Karten sind deutlich zu teuer. Und ja, derzeit passt der Preisaufschlag überhaupt nicht zur Mehrleistung (mal abgesehen davon, dass das auf Dauer kein valides Szenario sein darf). Es sind aber einige interessante Features an Bord, die ich nicht unbedingt nur als Nebelkerze bezeichnen würde.

Da sind wir aber auch schon an dem Punkt, der mich bei dem Launch überrascht hat: Dass es weder ein fertiges Spielt gibt, in dem man Raytracing auf seinem eigenen Rechner nutzen kann noch dass es ein fertiges Spiel gibt, wo man DLSS nutzen kann. An dieser Stelle hätte ich von NVIDIA echt mehr erwartet. Da für Raytracing obendrein noch ein Windows-Update benötigt wird, welches in rund zwei Wochen ansteht, kann ich nicht so recht verstehen, warum NVIDIA unbedingt jetzt launchen musste. Die paar Tage hätte man sich noch Zeit lassen können - zumal dann auch die Gameentwickler noch etwas Zeit gehabt hätten und BF V wäre dann vielleicht auch schon draußen. Dann hätte NVIDIA tatsächlich etwas vorzuzeigen gehabt - jetzt ist es featureseitig ein Paperlaunch. *noahnung*

Raytracing und DLSS halte ich für DIE Features der aktuellen Serie - beide sind derzeit nicht nutzbar. Und für Leute, die vorbestellt haben, sind sie auch nicht mehr im Zeitraum des FAG nutzbar. Wäre ich Vorbesteller, so würde ich die Karte(n) umgehend stornieren oder retournieren. Denn sollte RTX und DLSS floppen (was ich nicht glaube), so wären die Karten in der Tat zu teuer. Solange das aber nicht bewiesen bzw. das Gegenteil bewiesen ist, solange ist der Kommentar von Heise imho zu negativ.

Worüber ich mir übrigens noch den Kopf zerbreche: Wie wertet man künftig DLSS? Um das zu nutzen muss ja trotzdem eine gewisse Arbeit geleistet werden. Nur leistet diese Arbeit nun nicht mehr die Grafikkarte des Gamers, sondern ein "Supercomputer". Ergo werden die Karten von Arbeit befreit und so schneller gemacht, als sie eigentlich sind. Dann steht da die Frage im Raum: Wie lange wird dieses Feature im Spiel sinnvoll nutzbar sein? NVIDIA muss offensichtlich für jede Zielauflösung trainieren - was passiert mit älteren Spielen, die man in ~10 Jahren mal wieder ausgräbt und dann in der doppelten Auflösung wie früher üblich zockt? Wird DLSS dann noch zur Verfügung stehen? Ist der "Support" für das Game schon jahrelang ausgelaufen und man kann das qualitativ teilweise bessere DLSS nicht mehr nutzen? Wer entscheidet, welche Auflösungen bei DLSS sinnvoll sind und welche nicht?

Das Feature selbst ist äußerst interessant, lässt mich aber mit vielen Fragen zurück. Und zwar mit vielen Fragen, bei denen NVIDIA am längeren Hebel sitzt. Sprich: NVIDIA entscheidet, wie, wann und wie lange DLSS genutzt werden kann. Da habe ich so meine Bauchschmerzen bei... *noahnung*
 
Das DLSS läuft nicht im Supercomputer sondern in den nvdla, Tensor core oder wie sie hier heissen Einheiten. Nur das Training der Netzwerk Modelle passiert im Supercomputer.
In wieweit Nvidia die Auflösungungen etc entscheidet und wieviel Mitsprache Spiele Entwickler haben Frage ich mich auch.
Das Spiele Entwickler da aber überhaupt mit machen wundert mich schon. Denn es gibt technisch keinen Grund die DLSS Modelle nicht einfachals Teil des Spieles mitzuliefern und/oder die Deep Learning Beschleuniger direkt selbst zur inference der Modelle einzusetzen so wie es jede andere deep learning nutzende Software auch macht. Dann könnten die Entwickler sicherstellen dass ihre Spiele nicht plötzlich den Support von Nvidia verlieren.
 
Nvidia ist halt auch unter Zeitdruck, wenn nicht jetzt wann dann. Wenn die Hardware bei den Gamern nicht verhanden ist warum sollten Entwickler dann darauf setzten. Mehraufwand und Kosten, wird es von den Gamern überhaupt angenommen. Stichwort "Reizüberflutung". Anschaffungswiederstand des Gesamtsystems. Wird schwierig für Nvidia.

AMD hat mit Vulkan eine API die über drei Plattformen geht, Windows, MacOS und Linux.
Intel will auch mit einsteigen, ob die dann was ganz anderes machen oder einfach nur kopieren, und dann ihre API haben?
 
Zuletzt bearbeitet:
Apple setzt auf das eigene Metal nicht auf Vulkan. Gibt nur 3D-Grafik: Vulkan nun auch für Apple-Plattformen (heise).

Und Vulkan steht nVidia auch offen.

Wenn man sich mal das Analysevideo oben anschaut ist es schon lustig das Turing besonders in Spielen wo auch Vega stark ist sehr gut da steht.

Für mich persönlich trifft der heise Kommentar zu, der Nutzen von RT dürfte sehr gering sein - der Preis für die "normale" Mehrleistung deutlich zu hoch.

DLSS und Geforce Expirence will ich nicht - erstes würde sich eh erledigen da kein 4K Monitor vorhanden - auch in der nächsten Zeit nicht weil es dauern wird bis diese mit den gewünschten Features verfügbar sind.

Da RTX aus meiner Sicht einen ziemlich kleinen Kreis anspricht bleibt offen ob es sich überaus durch setzt, dann noch die Frage ob die Leistung der 1 Generation überhaupt ausreicht.

Da habe ich null Anreiz meine Preisvorgaben für eine Grafikkarte zu überdenken.
 
Zuletzt bearbeitet:
So sehr ich es "damals" auch begrüßt habe, dass Heise das neue NDA öffentlich gemacht hat, so wenig stimme ich jetzt mit diesem Kommentar überein. Der ist mir deutlich zu negativ geschrieben.
es gehen derzeit vor allem ein paar aspekte jenseits der preis/performance-diskussion weitestgehend unter, die igor bei tomshardware als einer der ganz wenigen beleuchtet.

dazu gehört der umstand, dass es sich um die anscheinend mit abstand beste founders edition handelt, die nvidia bisher veröffentlicht hat. in sachen kühlung, lautstärke (leider fehlt ein zero-fan-modus) und vor allem in hinblick auf die spannungsversorgung. wobei das die board-partner vielleicht nicht so sehr freuen wird.

btw ...

Nvidia GeForce RTX 2080 Ti – Interne Details zur Spannungsversorgung, abweichenden Komponenten und wo die Spikes geblieben sind!

und aktuell spart man beim mediamarkt wieder mal die mwst ... so man denn eine turing-karte bekommen kann, sieht der preis schon viel freundlicher aus. :]

Wenn die Hardware bei den Gamern nicht verhanden ist warum sollten Entwickler dann darauf setzten. Mehraufwand und Kosten, wird es von den Gamern überhaupt angenommen. Stichwort "Reizüberflutung". Anschaffungswiederstand des Gesamtsystems. Wird schwierig für Nvidia.
bei grafikkarten komme ich seit jahren aus dem gähnen nicht mehr raus.

mir fehlt einfach der 3dfx-effekt. wo einem die kinnlade runterklappt und man sich denkt ... WILL ICH HABEN ... gibt noch nicht viele spiele ... EGAL, WILL ICH HABEN ...

theoretisch hätte raytracing nach so vielen jahren endlich wieder mal das potential für einen kleinen wow-effekt. praktisch ist das aber derzeit weitestgehend eine nullnummer. und wenn dann die grafikkarten, die das halbwegs wuppen können, dann auch noch so viel kosten wie ein kompletter standard-gaming-pc, dann muss da halt erst die henne das ei legen? oder das ei zurück in die henne? oder das ei brät in der pfanne? egal, es braucht für sowas eine vorleistung. darauf werden die entwickler aber auch nur dann einsteigen, wenn es ausreichend nachfrage gibt. und das ist bei den derzeitigen preisen eher zu bezweifeln.

pluspunkt für amd sind jetzt definitiv die konsolen. da muss man sich halt zweimal überlegen, ob der mehraufwand für nvidia-exklusive features, die nur bei sündhaft teuren highend-karten für eine sehr spitze zielgruppe verfügbar sind, sich tatsächlich lohnt oder nicht (bisher hat es nvidia allerdings nicht geschadet). und da ist turing eben nicht 3dfx.

nachteil ist aber, dass die 2080 ti in spielen mittlerweile rund doppelt so schnell ist bei einer in etwa doppelt so hohen effizienz wie das aktuelle amd-flagschiff. da muss man leider bezweifeln, dass amd das innerhalb einer generation aufholen kann.
 
Zuletzt bearbeitet:
dazu gehört der umstand, dass es sich um die anscheinend mit abstand beste founders edition handelt

Von der Kühlleistung mag das stimmen, Coustoms sind aber wohl trotzdem besser mit bis zu 15° weniger.

Aber verklebt und 70! Schrauben bei einer Karte über 1000 €? Geht gar nicht, die 980 und 780 Ref die ich noch habe lassen sich dagegen noch ganz gut warten.
 
Zuletzt bearbeitet:
Das DLSS läuft nicht im Supercomputer sondern in den nvdla, Tensor core oder wie sie hier heissen Einheiten. Nur das Training der Netzwerk Modelle passiert im Supercomputer.

Da hast du natürlich recht, da habe ich mich etwas missverständlich ausgedrückt.

Ich glaube, es war bei Toms Hardware, wo stand, dass eine 2080 Ti mit DLSS über 70 Prozent schneller als eine 1080 Ti ist. Das ist mal eben der doppelte Vorsprung als bei herkömmlichen Anti Aliasing. Obendrein kann (kann, nicht muss) DLSS sogar noch bessere Optik bieten als herkömmliches AA.

Was ich meine: Um die Leistungssteigerung erreichen zu können und gleichzeitig eine eventuell bessere Optik zu erhalten, ist Vorarbeit von NVIDIA vonnöten. Berechnungen für ein besseres Ergebnis sind also notwendig, die aber nicht mehr auf der Grafikkarte des Spielers passieren. Trainiert NVIDIA die Auflösung nicht oder das Spiel nicht oder stellt irgendwann für Game X den Support ein, so könnte eine Grafikkarte plötzlich ein Drittel langsamer sein. Zwar immer nur auf ein konkretes Szenario bezogen, aber halt durchaus denkbar.

Auch sonst gibt es konkrete Einschränkungen. Nehmen wir an, ich habe einen UHD-Monitor und spiele mittels DLSS. Jetzt wechsele ich auf einen 21:9-Monitor mit 3440x1440 - vielleicht weil mir das Format eher zusagt, ich ein besseres Panel habe, eine höhere Refreshrate oder was auch immer. Obwohl ich rund 40 Prozent weniger Pixel berechnen muss, bin ich nur etwa gleich schnell, weil NVIDIA aktuell ausschlielich UHD für DLSS traniert hat und 3440x1440 dank fehlender Unterstütztung herkömmlich gerendert werden muss.

Ich stelle mir konkret also die Frage, wie man DLSS künftig bei der Entscheidung für oder gegen eine Grafikkarte einbeziehen soll. Da wird wohl noch reichlich Wasser den Rhein runterfließen, bis man das halbwegs sinnvoll beantworten kann. *noahnung*
 
Zurück
Oben Unten