G70 Spekulationsthread

vosmic

Grand Admiral Special
Mitglied seit
05.03.2004
Beiträge
2.475
Renomée
31
Standort
Bonn
Wie fängt man so einen Thread am Besten an? Natürlich mit einem Link zum Inquirer.
023.gif

http://www.theinquirer.net/?article=22917
Abgesehen davon, dass mal wieder ein Stromfresser geboren werden soll,
drying 225W of power
finde ich letzten Satz sehr Interessant:
Whatever happens, this card is an autumn marchitecture and even if Nvidia announces it before then, I don’t think you will be able to get one until then. µ
Man kann also beruhig noch aktuelle Karten kaufen.
Es sei den, Ihr lest was anderes im Kaffeesatz.

MfG
 
Leider konnte ich den Bericht nicht lesen - Seite ist momentan down.
Allerdings finde ich sie Spekulationen um den Stromverbrauch wieder mal recht erheiternd; was wurde vor der Einführung des NV40 nicht für ein Dummfug verzapft - von 120W war da die Rede, effektiv sind es bei einer 6800U gerade mal 72W *baeh*
Seit dem NV3x scheint es ja in Mode zu sein, nVidia GPUs als elektrisch ineffiziente Heizplatten abzutun.

so long

JCD
 
irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.
die spekulation über die verlustleistung ist müßig, kann mir kaum vorstellen das sowas noch normal zu kühlen wäre...
 
Hmmm..... eigentlich steht da nur, daß nVidia 'nen zweiten Stromanschluß
auf der neuen Karte verbauen will, was aber laut PCIe-Spezifikations wohl
nicht Standard ist. Also man mal höflich nachgefragt, ob sich der Standard
net eventuell aufbohren läßt.
Macht dann statt 1x75W via PCIe und 1x75W external halt 1x75W PCIe
und 2x75W external. Daß die Karte auch wirklich diese extra-75W zieht
ist nicht bewiesen. Ich geh sogar mal davon aus, daß der Extra-Anschluß
nur aus Stabilitätsgründen mit auf die Karte kommt. Lastverteilung halt.
Wird ja zB bei den DFI-Mainboards genauso gemacht, da hast' auch zwei
Extra-Powerstecker drauf, die du nicht belegen MUSST aber zur Lastverteilung
belegen solltest. Genauso wird's bei den neuen nVidia-Grakas sein.

-A
 
das wird echt mal wieder ein spekulationskampf werden, zumal die einen wohl auf 90µ und die anderen auf 130µ fahren werden...

edit:
könnte der g70 denn dualcore werden oder eher nicht, wegen 130µ??
warum sollte er so viel strom brauchen?? dann müsste er doch extrem hoch getaktet werden oder "watt"? wo bleiben denn den spekulationsspezies hier?

grmpf
mfg
 
auf jeden fall...

das die stromaufnahme etwas übertrieben ist, war ja klar (theInquirer eben).
aber das die 130 mü nutzen "soll wohl" feststehen, stand auch mal im 3dcenter...


mfg
 
The G70 chip from Nvidia is, we can confirm, good and ready to go. Nvidia is sitting, waiting, sitting and waiting to see what ATI will do before launching the inevitable whirlwind of spin.
Ich tip mal vor der Computex passiert nicht viel.
 
[³dgamer] schrieb:
irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.

Hä? Der NV40 ist doch sehr effizient im Gegensatz zum R420/480!
Schau dir mal die Taktrate einer 6800 Ultra und einer X800XT PE an, beide Karten sind nahezu gleich schnell.
Der G70 wird eh "nur" ein verbreiterter NV40, mit vielleicht 24 Pipes, höherem Takt, natürlich auch mehr Stromhunger und eventuell mit neuen FSAA Modi.
Aber soviel neues sollte man nicht erwarten, da NVIDIAs aktuelle GPUs schon sehr modern sind.

MfG 8)
 
hm, wieso soll der nv chip effizienter als der ati chip sein? nur weil der bei gleichem takt bei einigen games der nv etwas schneller ist? hm.. so die wirkliche innovation ist dafür aber nicht verantwortlich.
wo bleibt der separate geometrie-prozessor? bessere speicheranbindung? ...
 
Hä? Der NV40 ist doch sehr effizient im Gegensatz zum R420/480! Schau dir mal die Taktrate einer 6800 Ultra und einer X800XT PE an, beide Karten sind nahezu gleich schnell.

Solltest aber auch bedenken, das die R420/480 über deutlich weniger Transitoren verfügen als die NV Gegenstücke.
 
[³dgamer] schrieb:
hm, wieso soll der nv chip effizienter als der ati chip sein? nur weil der bei gleichem takt bei einigen games der nv etwas schneller ist? hm.. so die wirkliche innovation ist dafür aber nicht verantwortlich.

Was ist denn dafür verantwortlich?
Fakt ist, dass die NV40 Shader deutlich effizienter arbeiten als die der R420!

@eden
Was hat denn die Transistorzahl damit zu tun?
Der NV40 unterstützt nunmal Shader 3.0, und ist damit deutlich moderner als der R420/480, das kostet aber nunmal Transistoren.

MfG 8)
 
Dann müssten die Ati Karten aufgrund der wenigen Transistoren aber deutlich weniger Energie verbraten und das tun sie eben nicht. Ich denke zZ hat Nvidia noch die bessere GPU.
 
Was hat denn die Transistorzahl damit zu tun?
Der NV40 unterstützt nunmal Shader 3.0, und ist damit deutlich moderner als der R420/480, das kostet aber nunmal Transistoren.


Klar kostet SM3 Transistoren und bringt abwärme.
Ich meinte das allerdings mehr die allgemein Leistung geteilt durch die Transistorzahl.
Ati: Höher getaktet + weniger Transistoren
NV: Mehr Transistoren + niedriger Takt
Trotzdem sind beide von der Leistung her (je nach Spiel) mehr oder weniger gleich.
 
Bin mal gespannt wie der G70 abgehen wird und ob er ein 68GT SLI Gespann verblasen kann.
Der Codename lässt auf jeden Fall auf eine kleine Revolution hoffen: zueinem durch den neuen Buchstaben "G" an Stelle von "NV" und die "70" an Stelle von 40,45,etc.

Ich hoffe mal, dass es nicht nur einen dämlichen Refresh Chip von der 68er Reihe wird, das wäre etwas enttäuschend und mir zu ATI-like(die bauen seit Jahren ja nur einen Refresh nach dem anderen:[)
Ich rechne auf jeden Fall mit 24 Renderpiplines(=6 Quads), mehr als 6 Vertexpipes und HW Unterstützung vom DX Nachfolger(kommt mit Longhorn)

Zum Stromverbrauch:
Der 2te Stromanschluss muss nix negatives bedeuten, der Verbrauch wird sicherlich unter 100Watt bleiben. Die Idee von Anonymous scheint mir sehr plausibel und ist vermutlich auch die Erklärung. Die 68U(AGP) hat ja auch 2 Stecker, brauchen tut man aber nur einen.

[Spekulation]
Vll versorgt NV den G70 aber exklusiv über die 2 externen Anschlüsse und lässt das Mainboard unangetastet/nutzt den PCIe Strom nur zum Teil. Dies wäre besonders für SLI Boards eine enorme Entlastung, da die 150Watt für die 2Grakas nicht durchs Mainboard gejagdt werden müssen. Das Ergebniss wären unbelastete Spannungswandler auf dem Mobo(der PCIe Anschluss wird mit einer relativ geringen Spannung gefüttert, die Wandler werden aber mit AFAIK 12V versorgt) Der allgemeinen Spannungstabilität käme dies auf jeden Fall zu Gute.
[/Spekulation]

Lassen wir uns überraschen was NV mit dem G70 auf die Beine stellt und was es mit dem 2ten Stromanschluss auf sich hat.

mfg
alzen
 
Der G70 wird 100% ein reiner refreshchip ohne großartige erneuerungen...
Für einen neue Architektur wär die Zeit viel zu kurz und nvidia hat mit dem NV40 erst eine neue Architektur rausgebracht, die DX9 quasi vollständig ausnutzt.
WGF 2.0 zu unterstützen wäre reichlich sinnlos, da man die funktionen bevor longhorn rauskommt höchstens mit opengl nutzen könnte.
 
Nvidia hüllt sich in absolutes schweigen Ist also alles nur ein Spekulatius.
 
Relic schrieb:
Der G70 wird 100% ein reiner refreshchip ohne großartige erneuerungen...
Für einen neue Architektur wär die Zeit viel zu kurz und nvidia hat mit dem NV40 erst eine neue Architektur rausgebracht, die DX9 quasi vollständig ausnutzt.
WGF 2.0 zu unterstützen wäre reichlich sinnlos, da man die funktionen bevor longhorn rauskommt höchstens mit opengl nutzen könnte.

Ack.
Wozu sollte NVIDIA jetzt einen WGF 2.0 konformen Chip rausbringen?

MfG 8)
 
Relic schrieb:
Für einen neue Architektur wär die Zeit viel zu kurz und nvidia hat mit dem NV40 erst eine neue Architektur rausgebracht, die DX9 quasi vollständig ausnutzt.

Ich kann Dir VERSICHERN, das NVIDIA schon die nächsten ZWEI Generationen von GraKas fertig entwickelt hat... (Insider-Info), genauso wird es sich mit der Konkurrenz Ati verhalten. Wäre die Hersteller tatsächlich auf Ihre aktuellen Modelle angewiesen bzw. abhängig, könnten sie in Kürze einpacken und hätten wohl kaum ein Kredit-Volumen.

Die Schmieden wollen natürlich Geld verdienen, ähnlich wie die Hersteller optischer Laufwerke. (Mal nur so an lächerliche Sprünge von 24x bis 40x @ CD-ROM erinnern tu, deren Geräte sich NUR in der Firmware unterschieden) ;)

Auf jeden Fall sind die nächsten Jahre gesichert... ;D
 
TNB_Stoerck schrieb:
Ich kann Dir VERSICHERN, das NVIDIA schon die nächsten ZWEI Generationen von GraKas fertig entwickelt hat... (Insider-Info), genauso wird es sich mit der Konkurrenz Ati verhalten. Wäre die Hersteller tatsächlich auf Ihre aktuellen Modelle angewiesen bzw. abhängig, könnten sie in Kürze einpacken und hätten wohl kaum ein Kredit-Volumen.

Die Schmieden wollen natürlich Geld verdienen, ähnlich wie die Hersteller optischer Laufwerke. (Mal nur so an lächerliche Sprünge von 24x bis 40x @ CD-ROM erinnern tu, deren Geräte sich NUR in der Firmware unterschieden) ;)

Auf jeden Fall sind die nächsten Jahre gesichert... ;D

Hmm. Gilt das für Autobauer genauso? Ist der Golf 7 schon fertig?
Vergleiche ich jetzt Äpfel mit Birnen oder meinst Du mit fertig, dass alles nur am Reißbett steht?
Wenn das alles so einfach zu durchschauen wäre, dann würde doch auch in der Fachpresse ganz anders darüber spekuliert werden.!?

MfG
 
IMO hat NVIDIA die nächste Generation erst in der Theorie fertig, eventuell laufen schon vereinzelt Prototypen.
Aber dass gleich die übernächste Generation auch fertig sein soll halte ich für Blödsinn. :]

MfG 8)
 
Die Grafikentwickler entwickeln immer zwei Karten in etwas verschobenem Abstand.
Das heisst, wenn der eine fertig ist, sind die mit der nächsten auch schon sehr weit.
daher kann das schon sein, das was neues kommt.
ATI hat sich in letzter Zeit leider zu doll ausgeruht.
Die Zeiten, wo Nvidia Karten mit AA + AF abbrechen sind wohl vorbei.
Meine GF6800 wird Dauerhaft mit 4xAA und 8xAF Betrieben, auch bei Spielen, wie NFSU2 und DTMRD2.
Details sind natürlich alle auf voll. Also gibt es da schon ewig nix zu meckern.
Was auch an ATI stört ist, das sie die Treiber immernoch nicht hundertprozentig hinbekommen.
Immerwieder liest man: ATI neue Catalysttreiber, fixed Bugs mit xyz.
Auch bei dem neuesten sind wieder Grafikbugs behoben bei diversen Spielen.

Und dafür ist so eine 3D Karte nunmal da um eben 3D Spiele zu spielen....
 
IMO hat NVIDIA die nächste Generation erst in der Theorie fertig, eventuell laufen schon vereinzelt Prototypen. Aber dass gleich die übernächste Generation auch fertig sein soll halte ich für Blödsinn.

Da hast du recht, James Ryan.
Man denke an 3dfx, war deren Rampage etwa schon produktionfertig? ;)
 
Zurück
Oben Unten