nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1

Eine moderne CPU braucht Stunden, vor allem denoising, während NV diese Szene angeblich in Echtzeit "rendert".
Kompletter "Game Changer" oder "kompletter Fake"?
Aber das ist doch immer der Fall, wenn man die Algorithmen in Hardware gießt oder zumindest die Hardware an die Aufgabe anpasst.
 
Aber das ist doch immer der Fall, wenn man die Algorithmen in Hardware gießt oder zumindest die Hardware an die Aufgabe anpasst.

Es geht um die RT-engine, die NV bei dieser Szene angeblich verwendet hat. Nirgends sind keynotes angegeben wie man diese denn nachstellen kann. Wenn du das Video angeschaut hast gehts um diese Stelle:


Alles schön und gut was die Lederjacke da erzählt, aber vom Erzählen kommt noch lange kein "real time ray tracing".

Um nochmal die Tragweite zu erläutern: Für ein Frame! brauchen CPU-Cluster mehrere Hundert Minuten! Also 0,000x fps und NV will xx,xx fps schaffen, schalu von Jensen da keine fps Angaben zu machen. Das wäre eine millionenfach höhere Geschwindigkeit für ne Karte die nur 1500€ kostet. So eine GPU-Fähigkeit würden AMD und Intel mit ihren Threadrippers und Xeon CPU`s instantan in den Boden stampfen. Niemand würde noch CPU-RT praktizieren und die ganze Welt NV zu Füßen liegen.
 
Zuletzt bearbeitet:
Das wird wohl auch so kommen, daß es sich lohnt Raytracing auf RT GPUs zu machen, WENN es selbst nur "mehrfach" schneller ist. Das lohnt sich schon, wenn man viel davon macht. Aber:

- Auf GPUs rechnen statt auf CPUs, das was halt brauchbar umsetzbar ist, bringt mehrfache bis zigfache Beschleunigung. Manchmal sogar tiefe hundertfache.

- Wenn man was davon "dediziert" in die GPUs gießt, kratzt man sogar am tausendfachen.

- Wir reden hier aber wie wohl richtig gemerkt vom wievielfachen dann? Seien wir mal nicht so und setzen für jenes "Realtime" entspannte 20fps an. Gegenüber hunderten Minuten für 1 Frame, auf einem Threadripper. Das ist eben das Millionenfache.

Nichts wurde von einer Generation auf die andere milionenfach schneller.

@MagicEye04
Aber das ist doch immer der Fall, wenn man die Algorithmen in Hardware gießt oder zumindest die Hardware an die Aufgabe anpasst.
Niemals? :) Das war überigens schon mit AES-in nicht so. Das ist also keineswegs die Regel, daß man gleich millionenfach zulegt ;)
 
Zuletzt bearbeitet:
Um das zu beurteilen, fehlen halt handfeste Zahlen, oder?
Ich würde zwar Nvidia prinzipiell jeden Mist zutrauen, aber das wäre dann schon sehr plump.
Ich hasse Videos zur Informationsfindung abseits von bunten Effekten. Daher habe ich mir das video auch nicht angeschaut.
So eine GPU-Fähigkeit würden AMD und Intel mit ihren Threadrippers und Xeon CPU`s instantan in den Boden stampfen. Niemand würde noch CPU-RT praktizieren und die ganze Welt NV zu Füßen liegen.
Als man mit CUDA in Echtzeit Videos nach MPEG4 encoden konnte, war das auch ein riesen Schritt. Aber nach etlichen Probierereien musste ich feststellen, dass es zwar sauschnell ist, aber die Qualität war sehr mäßig. Da habe ich damals lieber weiter die CPU über Nacht rechnen lassen statt das in einer Stunde von der GPU machen zu lassen.
Und abseits von ein paar wenigen Standardprofilen konnte man auch nix einstellen - denn nur die waren in Hardware vorhanden.
 
Also hat Nvidia für die RTX Karten nicht mal eine lauffähige Demo oder einen Bench, den man auf seiner neuen Karte laufen lassen kann. Ist das so?
 
Als man mit CUDA in Echtzeit Videos nach MPEG4 encoden konnte, war das auch ein riesen Schritt. Aber nach etlichen Probierereien musste ich feststellen, dass es zwar sauschnell ist, aber die Qualität war sehr mäßig. Da habe ich damals lieber weiter die CPU über Nacht rechnen lassen statt das in einer Stunde von der GPU machen zu lassen.
Das ist jetzt eben der Unterschied, denn das sieht auch noch besser aus als HighEnd-Renderer bisher konnten. Na denn... ;)

p.s.:
Um die Heuristic zu handeln die für eine wirklich gute Quali von Roh nach z.B. x264 gefahren werden muß, dem sind Grafikkarten auch heute noch nicht gewachsen.
 
Zuletzt bearbeitet:
Achtung:
(ironie: an)

Warum wird hier über NV/Intel diskutiert das ist das beste was es gibt,gebt endlich Ruhe das was die beiden machen hat immer Hand und Fuß es gibt nichts besseres Mensch ;D

(ironie : aus)
 
Zuletzt bearbeitet:
na ich muß doch was schreiben,hab doch so wenig grins
 
Alles schön und gut was die Lederjacke da erzählt, aber vom Erzählen kommt noch lange kein "real time ray tracing".

Um nochmal die Tragweite zu erläutern: Für ein Frame! brauchen CPU-Cluster mehrere Hundert Minuten! Also 0,000x fps und NV will xx,xx fps schaffen, schalu von Jensen da keine fps Angaben zu machen. Das wäre eine millionenfach höhere Geschwindigkeit für ne Karte die nur 1500€ kostet. So eine GPU-Fähigkeit würden AMD und Intel mit ihren Threadrippers und Xeon CPU`s instantan in den Boden stampfen. Niemand würde noch CPU-RT praktizieren und die ganze Welt NV zu Füßen liegen.

Die Nummer bei der GPU RT Geschichte ist relativ einfach.
Es wird nicht so viel nicht ganz so präzise gerechnet und spart damit auf der einen Seite Rechenaufwand und erhöht auf der anderen Seite durch die geringere Präzision die Rechenleistung. Das gröbere Ergebnis wird dann nochmal umgerechnet um ein brauchbares Endergebnis zu bekommen und fertig ist der Lack. Meines Wissens nach wird auch nicht das ganze Bild berechnet sondern nur ein Teil. Für Spiele Grafik mag das ausreichend sein aber da wo es drauf ankommt halte ich die herangehensweise für unbrauchbar.
 
Ähm... Das mit den 3 Kugeln... Das sieht auf RTX erstmal um 2 Klassen besser aus als CPU-gerendert. Das ist das eigentliche Problem ;)
 
Zuletzt bearbeitet:
Der gleiche Müll wie überall sonst auch. Keine Infos gegen welche Customs, keine Infos mit welchen Takt die 1000er Customs liefen, keine non-Ti 1080er dabei (?)
Im Fazit viel Geseier wie die 2080er zueinander stehen, kein Wort wie sich das zu vorherigen Generation verhält... Luxx ist genauso eine Bruchbude wie die meisten anderen auch. Da sie sich supergerne als solche verstehen kann man daher auch klar sagen: Gruseliger Journalismus.

Diesjähriger "Balls of Steel"-Award geht wohl an Heise.
 
Zuletzt bearbeitet:
Ähm... Das mit den 3 Kugeln... Das sieht auf RTX erstmal um 2 Klassen besser aus als CPU-gerendert. Das ist das eigentliche Problem ;)

Ich empfinde die Präsentation einfach nur als lachhaft weil man nur zu deutlich merkt wie das Publikum für dumm verkauft wird denn fast alles von der Murmel Präsentation gibt es in Fake Form auch beim traditionellen Rendern ohne RTX. Es wird schon seinen Grund haben warum das beim Vergleich ausgeklammert wurde. ;)
 
Warum sollte man den Einbaukarten entgegenkommen? Gehen die davon nicht kaputt?
 
Schade. So eine schöne Gelegenheit nachzufragen, was die Anglo Irish Bank damit zu tun hat, und du fragst nach Einbaukarten...

Partnern, AIB-Partnern. Soviel Fachidiotie muß wohl sein ;)
 
Ich hatte ja letztens schon mal nach dieser völlig ungebräuchlichen Abkürzung gefragt, für die es nicht mal einen (deutschen) WIki-Artikel gibt. Zurecht. Man kann auch einfach "Karte" sagen. ;)

Schlimm genug, dass ich ständig für die SED arbeiten muss. ;)
 
Ich bon wohl sonst echt in verkehrten Foren unterwegs (das kann sogar wirklich stimmen :D) und habe es mir ebenfalls so angeignet, die Partner der GPU-HErsteller als AIBs zu nennen.

Sed? Du arbeitest in einer Agentur und sortierst die Bewerbungsunterlagen der Modells (aus)? Finde das gibts schlimmeres ;)
 
Zuletzt bearbeitet:
danke für den link - dann kann ich mir das auspacken echt sparen. die anzeige auf dem messgerät (mit meinem übertakteten coffeelake stehen dann sicher über 700W auf der anzeige) ist fast so ein spaßkiller, wie der verzicht auf TAA oder andere AFR-kompromisse. komisch, dass in dem test behauptet wird, dass man sottr mit taa gemessen haben will *strange* - temporale effekte und AFR funktionieren nicht - man müsste sottr ohne TAA messen (einzelkarte kann TAA = weniger frames, mGPU kann kein TAA = mehr frames), dann würde da aber auch nichts von 67% skalierung stehen - eher im 30% bereich wie bei den anderen neueren spielen. schön dass GTA gut skaliert - das ist auch steinalt.

meine karten sind auch seit heute da. liegen aber noch bei meinem nachbarn, der die stornierten, nicht stornierten, stornierten, nicht stornierten TIs für mich angenommen hat und jetzt nachtschicht schiebt. ich bin quasi nur RTX-TI-SLI-owner mit ner UPS-karte, dass das paket beim nachbarn liegt :P


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hmm 3000€ beim Nachbarn in Form eines Paketes liegen lassen wäre ja so garnicht meins.

Hast du die Karten eigentlich schon bezahlen müssen oder ist das wie mit den Stornierungen unter gegangen?

Hätte ja mal was wenn du nicht bezahlen müsstest. Dann würd ich dir auch eine abnehmen ;)
 
Hier gibts das ganze auch noch mal mit einer 1080ti-SLI-Kombi zum vergleichen, außerdem auch die 2080 in SLI.
 
Zurück
Oben Unten