G70 Spekulationsthread

ich kenne die unterschiede, habe mich nur eben in der wortwahl verirrt. ich meinte natürlich wirklich dualcore.
habe gar nicht an dualchip gedacht, aber das gibts da ja auch noch *buck* ;D


mfg
 
Also ich denke nicht dass der G70 nur ein Refresh-Chip ist.
Ende letzten 2004 ging ja die News die Runde, dass der eigentlich geplante Refresh-Chip (NV50) verworfen wurde, weil der neue Chip so gut anlief, und sie mit SLI noch genügend Vorteil gegenüber ATI hatten. Damals sprach natürlich noch keiner vom G70. Dann sickerten langsam Informationen zum G70 durch, und ich gehe davon aus, dass das der Chip mit der neuen Architektur ist. Es ist ja jetzt auch schon über ein Jahr her, dass der NV40 vorgestellt wurde. Sie hatten also auch genügend Zeit.
Dafür spricht für mich auch eindeutig der neue Codename. Nvidia ist sich seiner Namensgebung bis jetzt immer treu geblieben, sogar der RIVA 128 Chip war schon ein NV-Chip (nv1 glaub ich).
Also mich würde es nicht wundern wenn der G70 WGF2.0 unterstützen würde. Nvidia ist dafür bekannt, neue Techologien früh zu adaptieren (siehe SM3) und ursprünglich war Longhorn ja auch schon für 2005 vorgesehen. Wenn sie jetzt schon einen WGF2 Chip rausbringen, wären sie ATI wieder vorraus, und wenn Longhorn wirklich draussen wäre, hätten sie schon einen Refresh-Chip der WGF2 unterstützt.
Also wenn der G70 wirklich nur ein Refresh-Chip mit 24 Pipes wäre, hätte NVidia auch arge Probleme. Wenn ATI den R520 und AMR vorstellt, fehlt NVidia nämlich der SLI-Vorteil und ob ein normaler Refresh-Chip gegen den R520 anstinken könnte, mag ich zu bezweifeln.
Was meint Ihr?
 
[klugscheiss]Riva128 war der NV3, NV1 hatte afaik noch keinen Codenamen - TM30 hat wohl noch eine Karte mit diesem Chip[\klugscheiss]

Allerdings würde es mich auch wundern, wenn nVidia ihre aktuell gute Marktposition mit einem popeligen NV40 Refresh aufs Spiel setzen würden.

Aber mal was anderes: wie kommt ihr eigentlich auf die Idee, dass eine Dualcore GPU irgendwie einen Vorteil bringen würde ?
Graphikprozessoren sind doch schon prinzipiell hochgradig parallel aufgebaut - mehr Vertex-/Pixeleinheiten pro Chip, mehr ALUs pro Pipeline ---> höhere pro Mhz-Leistung.

so long

JCD
 
JCDenton schrieb:
Aber mal was anderes: wie kommt ihr eigentlich auf die Idee, dass eine Dualcore GPU irgendwie einen Vorteil bringen würde ?
Graphikprozessoren sind doch schon prinzipiell hochgradig parallel aufgebaut - mehr Vertex-/Pixeleinheiten pro Chip, mehr ALUs pro Pipeline ---> höhere pro Mhz-Leistung.
Naja, wegen SLI ;D
Natürlich werden schon jetzt mehrere Einheiten je Chip verbaut, das gilt ja der Ausreizung der technischen Gegebenheiten.
Nur jetzt nochmal ne weitere GPU draufzusetzen (womit wir dann jeweils doppelt so viele Einheiten hätten) ist ja genau das System von SLI (so der RAM ebenfalls verdoppelt wird), nur eben auf einer Platine
 
Shyru schrieb:
Also mich würde es nicht wundern wenn der G70 WGF2.0 unterstützen würde. Nvidia ist dafür bekannt, neue Techologien früh zu adaptieren (siehe SM3) und ursprünglich war Longhorn ja auch schon für 2005 vorgesehen. Was meint Ihr?

das halte ich für ein gerücht, daß nv immer neue technologien früh adaptieren ;)
siehe ati damals mit der ersten dx9-karten auf dem markt...wurde erst ein "halbes jahr" später von nv mit einem (auch noch schlechten) chip gekontert...
diesmal war es mal wieder andersherum (sm3 hdr ...) und wer weiß wie es diesmal aussieht...wahrscheinl. können beide das gleiche, denn sooo viel neues kann und wird es erstmal nicht geben, außer wgf 2.0 konform und vielleicht ein supersampling aa.
letztendlich wird ati vermutl. nicht nochmal solch ein fehler (x8xx <-->68xx) machen und vorhandenes nicht implementieren um dann ausstattungstechnisch schlechter dazustehen...
die nehmen sich bestimmt nicht mehr viel, außer der ohnehin ausreichenden performance.
auch jetzt nicht.der eine hat dann eben mehr performance der andere mehr features. jeder sucht sich das, was er meint zu brauchen.
ati launched später, um dann an der taktschraube zu drehen, wenn der g70 raus is und fertig. was glaubt ihr denn, was da schon für besonders neue features drin stecken werden?? wgf-konform heisst doch auch nicht soo viel neues, außer evtl. sm4 und ein paar andere kleinigkeiten. wgf dauert ohnehin noch ewig... *noahnung* *noahnung*

mal abwarten, bleibt eh nix anderes übrig...*gespannt bin*

mfg
 
Shyru schrieb:
Also ich denke nicht dass der G70 nur ein Refresh-Chip ist.
Ende letzten 2004 ging ja die News die Runde, dass der eigentlich geplante Refresh-Chip (NV50) verworfen wurde, weil der neue Chip so gut anlief, und sie mit SLI noch genügend Vorteil gegenüber ATI hatten. Damals sprach natürlich noch keiner vom G70. Dann sickerten langsam Informationen zum G70 durch, und ich gehe davon aus, dass das der Chip mit der neuen Architektur ist. Es ist ja jetzt auch schon über ein Jahr her, dass der NV40 vorgestellt wurde. Sie hatten also auch genügend Zeit.
Dafür spricht für mich auch eindeutig der neue Codename. Nvidia ist sich seiner Namensgebung bis jetzt immer treu geblieben, sogar der RIVA 128 Chip war schon ein NV-Chip (nv1 glaub ich).
Also mich würde es nicht wundern wenn der G70 WGF2.0 unterstützen würde. Nvidia ist dafür bekannt, neue Techologien früh zu adaptieren (siehe SM3) und ursprünglich war Longhorn ja auch schon für 2005 vorgesehen. Wenn sie jetzt schon einen WGF2 Chip rausbringen, wären sie ATI wieder vorraus, und wenn Longhorn wirklich draussen wäre, hätten sie schon einen Refresh-Chip der WGF2 unterstützt.
Also wenn der G70 wirklich nur ein Refresh-Chip mit 24 Pipes wäre, hätte NVidia auch arge Probleme. Wenn ATI den R520 und AMR vorstellt, fehlt NVidia nämlich der SLI-Vorteil und ob ein normaler Refresh-Chip gegen den R520 anstinken könnte, mag ich zu bezweifeln.
Was meint Ihr?


Wieso sollten sie den arge probleme bekommen? Sie haben doch den technologisch führenden Chip und brauchen nur die flaschenhälse beseitigen und ihn "breiter" machen um mehr leistung zu bekommen. ATI is doch ganz klar im zugzwang und nicht Nvidia.

Und wegen WGF 2.0 hab ich doch schon früher gesagt, wieso es unterstützen, wenn man es mit der vorhandenen programmierschnittestelle (direct x) nicht ansprechen kann (opengl mal ausgeschlossen, aber darauf setzt ja kaum ein eintwickler)? Kostet doch nur unnötig transistoren und bis WGF 2.0 wirklich da ist hat die karte zu wenig leistung, um die features ernsthaft nutzen zu können.

Grundsätzlich brauch man sich vom G70 schon allein deshalb keine wunder erwarten, da einfach Speicherbandbreite fehlt. 512bit speicherinterface ist zu teuer und ddr3 speicher bekommt zu vernünftigen preisen bis max. 700mhz. Die heutigen highend-karten leiden bei AA ja schon unter zu wenig speicherbandbreite.

Und bitte zitiert nicht ständig FUAD ;).
 
Wieso sollten sie den arge probleme bekommen? Sie haben doch den technologisch führenden Chip und brauchen nur die flaschenhälse beseitigen und ihn "breiter" machen um mehr leistung zu bekommen. ATI is doch ganz klar im zugzwang und nicht Nvidia.

Wenn ich mir die Verkaufszahlen so betrachte sind weder Nvidia, noch ATI in irgend ner Weiße in Zugzwang. ;D
 
eden schrieb:
Wenn ich mir die Verkaufszahlen so betrachte sind weder Nvidia, noch ATI in irgend ner Weiße in Zugzwang. ;D
ATI schon, weil ihnen die Gamerbasis davon rennt.
Im 1. Quartal hatte Nvidia laut Mercury Research ca. 70% des DX9 Performance Marktes eingeheimst.
Bei der Messung von Mercury zum DX9 Performance Markt zählt alles ab GF6600 bzw. Radeon X700.
Auf Dauer wird sowas gefährlich, weil dann die Entwickler beginnen zu sehr Eigenarten bestimmter Kartenmodelle bzw. GPU Serien zu berücksichtigen.
Splinter Cell 3 mit SM3 oder SM1 ist so ein Beispiel.
ATI muss dringend ihr Featureset aufpolieren.
 
JCDenton schrieb:
[klugscheiss]Riva128 war der NV3, NV1 hatte afaik noch keinen Codenamen - TM30 hat wohl noch eine Karte mit diesem Chip[\klugscheiss]

yo und zwar die hier 8)

1_G_006.jpg




ach und zum G70... wenn ich schon wieder lese "doppelt so schnell wie die 6800Ultra..."

-> bestimmt unter 8xAA und 16xAF bei 2048x1536...
-> vorher 1FPS , mit dem G70 2FPS...
 
Zuletzt bearbeitet:
Relic schrieb:
Seit wann geht bei einem bios-update die garantie flöten?

Bei 'nem Grakabiosupdate eigentlich immer.

MfG 8)
 
James Ryan schrieb:
Bei 'nem Grakabiosupdate eigentlich immer.

MfG 8)
Richtig. Es sein dender Hersteller rät zum Update.
Ist bei meinen Grakas bis jetzt noch nicht vorgekommen. Bei Asus war mal was (vor kurzem).
 
Man kann ja ohne Probleme das Bios sichern, und hinterher wieder zurückspielen. Teilw. empfehlen einige Hersteller sogar wenn es ein neues gibt dieses auch zu nutzen. z.b Leadtek ! -
 
TM30 schrieb:
ach und zum G70... wenn ich schon wieder lese "doppelt so schnell wie die 6800Ultra..."

-> bestimmt unter 8xAA und 16xAF bei 2048x1536...
-> vorher 1FPS , mit dem G70 2FPS...

RÜSCHTÜÜÜSCH ;D

wie damals bei der Geforce2 ;)
 
Oder der TNT2, TNT1, usw...
Ist leider der typische NV Werbetrick.
Ich erinnere mich noch an die Werbung, verzeihnung, Empfehlungen der "Fachzeitschriften" für die TNT2: Unbedingt kaufen, die kann 32bit Farben darstellen. Leider hat halt keiner gefragt wie schnell sie das konnte...

Fazit: Seien wir also mal gespannt (und skeptisch) was da kommt.
 
eden schrieb:
Ich erinnere mich noch an die Werbung, verzeihnung, Empfehlungen der "Fachzeitschriften" für die TNT2: Unbedingt kaufen, die kann 32bit Farben darstellen. Leider hat halt keiner gefragt wie schnell sie das konnte...
Oder was das gebracht hat ;)

Genauso das Pseudo-Argument mit SM3 ;)
 
Kamui schrieb:
Oder was das gebracht hat ;)

Genauso das Pseudo-Argument mit SM3 ;)
Ein Pseudo bzw. falsches Argument wäre es, wenn es in keine Richtung Vorteile bringen würde.
Ich sehe beim SM3 schon den einen oder anderen Vorteil. Essentiell ist es natürlich nicht.

MfG
 
Peilo schrieb:
oder vom der FX zur Geforce6 *buck* :] *lol*


warum?? fands zur fx hin schlimmer..das war doch die graka mit eingebautem staubsauger oder doch nich?? die gf6 is ja knapp X-fach schneller...mit der konnte man auch mal übertreiben *buck*

mfg
 
ands zur fx hin schlimmer..das war doch die graka mit eingebautem staubsauger oder doch nich??

Ganz genau! *buck*
Was lernen wir daraus? Schlimmer geht immer! ;)
 
Zurück
Oben Unten