Spricht etwas gegen den kauf einer 8600GT Karte ?

Wer bezweifelt denn, dass der Treiber genau dazu nicht in der Lage ist? Und wenn es noch nicht umgesetzt wurde, heißt das nicht, dass das nicht mehr kommt.
Wer die Gemeinsamkeiten betrachtet darf aber auch die Unterschiede nicht vergessen.
Tritt der Fehler bei den gleichen Treibern auch mit allen Karten aus einer Serie auf oder nur mit bestimmten Typen? Tritt dieser fehler bei allen Karten des Kartentypes auf oder nur ein Teil davon?
So wie ich es verstanden habe ist die GTX davon nicht betroffen sondern lediglich die Varianten mit abgespecktem Chipdesign und dabei auch nicht unbedingt alle.
Hier koennen beispielsweise Fertigungstoleranzen durch ein unguenstiges Chipdesign mit reinstreuen.
 
[OT]
Wer die Gemeinsamkeiten betrachtet darf aber auch die Unterschiede nicht vergessen.
Das ist ein Satz!
Wenn man den jetzt umdehen würde, könnte man den noch für ganz andere Sachen nehmen.
[/OT]

Tritt der Fehler bei den gleichen Treibern auch mit allen Karten aus einer Serie auf oder nur mit bestimmten Typen? Tritt dieser fehler bei allen Karten des Kartentypes auf oder nur ein Teil davon?
Und selbst das ist noch kein Beweis dafür, dass es dann an der Hardware liegen muss. Es kann ja auch sein, dass der Treiber mit den unterschiedlichen Bedingungen nicht klar kommt.

Mal ne generelle Frage. Wie SD schon geschrieben hat spielt der Datendurchsatz eine Rolle. Das dürfte doch eigentlich keine Rolle spielen, wenn der VRam nie geleert wird.
Dann dauert es halt etwas länger. Oder sind da evtl. fest (hardware) eingestellte Leerungszyklen zu lang?

@spina wir alle kennen ja die ewigen Diskussionen um DDR3 - DDR4 usw.
Da wird nach jeder zehntel nS gehechelt.
Dass ein Treiber das hinbekommen kann steht glaube ich ausser Frage. Aber wie sähe es dann mit der Performance des RAMs aus? Schafft das der Treiber?
 
@SD
ich muss wieder zurückrudern!

Ich hab mal den Test mit 2 Monis gemacht.

Ich weiss zwar nicht was ich letztens gemacht hab jedenfalls läufts jetzt auch bei mir nicht mehr rund.

Hier mal das Ergebnis:
halligallirallywv5.jpg


Ich hatte den Test bestimmt auf niedrigsten Einstellungen gehabt, keine Ahnung :-[

Müsste die 8600GTS das denn (ohne Bug) bei den höchsten Einstellung flüssig schaffen?
 
Müsste die 8600GTS das denn (ohne Bug) bei den höchsten Einstellung flüssig schaffen?
In Anbetracht der Tatsache, das neben der 7900 GT sogar die 7600 GT das gepackt hat, würde ich ja sagen.
Zu Testzwecken lasse Dein Parcour aber nochmal @ max Details bei 1280 x 1024 aber OHNE KANTENGLÄTTUNG laufen (das sollte die 8600 GPU Leistungsanforderung runterschrauben).
Wärest Du nochmal so lieb? *liebugg*

Ich will NVIDIA ja auch nix anhängen und gebe NVIDIA hiermit eine gute Chance. ;D
 
reicht Dir dafür auch 1 Moni, den anderen (=CRT,19" 2Stockwerke,schon weggeräumt=blöd)
 
reicht Dir dafür auch 1 Moni, den anderen (=CRT,19" 2Stockwerke,schon weggeräumt=blöd)
Leider nein (;D) weil genau DANN das Problem nicht so ohne Weiteres reproduzierbar ist.

Als Du Deine Testreihe vorhin mit nur einem Bildschirm gefahren hast, könnte ich wetten, das Du den 2. Bildschirm NICHT unter Windows deaktiviert, sonder einfach nur abgeschaltet, oder sowas, hast.

Oder irre ich mich?

Aber zumindest hast Du nun das stottern sehen können, das ich ansprach. Und selbst die 7600 GT packt das ruckelfrei bei geringer Auflösung mit Kantenglättung (gerade an einem C2D E6300 getestet).
 
Also 1Moni, 1360x768@60 höchste Einstellungen aber Kantenglättung aus -> flüssig

PS: Den 2. Moni hatte ich in der Nvidia Systemsteuerung abgeschaltet

PS2: OK, ich häng ihn nochmal dran. *schweissvonderstirnwisch*
 
Zuletzt bearbeitet:
Also 1Moni, 1360x768@60 höchste Einstellungen aber Kantenglättung aus -> flüssig

Jetzt hängt der 2. Moni wieder dran (sekundär 1600x1200@75)

Auf dem 1. hab ich den gleichen Test wie oben gemacht. (1360x768@60)
flüssig aber ganz leichtes ruckeln, bin ja jetzt drauf sensibilisiert darum ist es für mich schon deutlich zu sehen.
 
flüssig aber ganz leichtes ruckeln, bin ja jetzt drauf sensibilisiert darum ist es für mich schon deutlich zu sehen.
Gut, also siehst Du, was mich nun stört. Und daran ist keine Schwäche der GPU schuld. Das liegt zum Einen an den VRAM Bug und zum Anderen an der Macke mit DualView.
Ich bin auch sehr sensibel, was Bildstörungen betrifft, daher ja auch ein wenig sehr enttäuscht @ NVIDIA.

Nun, immerhin konnte ich Dich von den Macken überzeugen, viell. werden Andere nach einiger Zeit folgen (die mich atm als Schwachkopf abstempeln). ;D
 
Nun, immerhin konnte ich Dich von den Macken überzeugen, viell. werden Andere nach einiger Zeit folgen (die mich atm als Schwachkopf abstempeln). ;D
Naja, ich zumindest bin eigentlich schon davon ausgegangen, dass Du Dir das nicht aus den Fingern saugst. Oder meinst Du sonst säße ich jetzt schweißgebadet hier rum ;D
Dazu ist das Thema VRam Bug ja auch zu bekannt als nur ein Phänomen zu sein.
Die Diskussion ging aber teilweise auch darum ob es ein irreperabeler Hardwarebug ist oder nur ein verkorkster Treiber ist. Auch die Frage, die ich an spina gestellt hatte finde ich in dem Zusammenhang noch interessant.
 
Die Diskussion ging aber teilweise auch darum ob es ein irreperabeler Hardwarebug ist oder nur ein verkorkster Treiber ist. Auch die Frage, die ich an spina gestellt hatte finde ich in dem Zusammenhang noch interessant.
Ich halte es für einen irreparablen Hardwarebug. Welchen Sinn macht es, den VRAM mittem im Spiel wie eine Klospülung zu verwenden um ihn zu leeren?
Der groß angekündigte "Beseitigungstreiber" ist immer noch nicht da. Die neuen Treiber beinhalten "Tweaks" für Top Titel. Ich bin aber kein "Top Titel" Spieler... deshalb bringen mir diese spieleabhängigen "Tweaks" auch nix.
 
Also treiberseitig lässt da höchstens ein "gewisser Ausgleich" durch künstlich geschaffene Entladungspunkte des NVRAMs schaffen - das Grundproblem dürfte meiner Meinung nach tief im Design der GPU liegen. Ich behaupte einfach mal, dass das Unified Shader-Prinzip mehr oder weniger grundsätzlich WESENTLICH mehr NVRAM braucht, als alle bisherigen GPU-Funktionsprinzipien, da hier ja erheblich mehr und v.a. erheblich umfangreichere Berechnungen gleichzeitig ablaufen und die brauchen ja irgendwo ne "Zwischenablage"...
Sicher hat man das bei Nvidia schon lange vor dem Release gewusst - nur zwingen Kosten-, Zeit- und Konkurrenzdruck halt leider oft zu Kompromissen und evtl. hat sich da auch die Abteilung für die Hardwareentwicklung zu sehr auf die Treiberleute verlassen, dass diese das schon in den Griff kriegen würden...
 
Sicher hat man das bei Nvidia schon lange vor dem Release gewusst - nur zwingen Kosten-, Zeit- und Konkurrenzdruck halt leider oft zu Kompromissen und evtl. hat sich da auch die Abteilung für die Hardwareentwicklung zu sehr auf die Treiberleute verlassen, dass diese das schon in den Griff kriegen würden...
Ja, das denke ich allerdings auch. Doch verläßt sich NVIDIA meiner Meinung nach ein wenig ZU sehr und bedeutend zu oft auf die Treiberabteilung... *suspect*
 
Nicht nur Nvidia *nono* Der Verlockung, scheinbar relativ einfach technische Fehler durch Software "auszubügeln", erliegen ja ganze Branchen - allen voran die Automobilindustrie :] Allein wenn ich den Murks anschaue, der heutzutage als Fahrwerk von Autos verkauft wird - ESP, ABS etc. sollens dann wieder richten und bei den Motoren schauts kaum besser aus )(( Und DA gehts nich nur um enttäuschte Computerzocker - da hängen Menschenleben bzw. die Umwelt und somit unsere Zukunft dran :o
 
Zuletzt bearbeitet:
Zurück
Oben Unten