G70 Spekulationsthread

Anonymous schrieb:
Hmmm..... eigentlich steht da nur, daß nVidia 'nen zweiten Stromanschluß
auf der neuen Karte verbauen will, was aber laut PCIe-Spezifikations wohl
nicht Standard ist. Also man mal höflich nachgefragt, ob sich der Standard
net eventuell aufbohren läßt.
Macht dann statt 1x75W via PCIe und 1x75W external halt 1x75W PCIe
und 2x75W external. Daß die Karte auch wirklich diese extra-75W zieht
ist nicht bewiesen. Ich geh sogar mal davon aus, daß der Extra-Anschluß
nur aus Stabilitätsgründen mit auf die Karte kommt. Lastverteilung halt.
Wird ja zB bei den DFI-Mainboards genauso gemacht, da hast' auch zwei
Extra-Powerstecker drauf, die du nicht belegen MUSST aber zur Lastverteilung
belegen solltest. Genauso wird's bei den neuen nVidia-Grakas sein.

-A

Seh ich genauso.
 
eden schrieb:
Da hast du recht, James Ryan.
Man denke an 3dfx, war deren Rampage etwa schon produktionfertig? ;)
Nö, aber die sind ja auch pleite... :P
 
Ihr wisst schon wie grafikchips entwickelt werden?
In einem simulator wird der chip entworfen und es ist ziemlich sicher, dass nvidia schon einen wgf 2.0 konformen chip so weit fertig entworfen hat aber von der simulation bis zum lauffähigen stück silizium ist ein weiter weg.
Wenn man dann erstmal den 1. tape-out (erster lauffähiger prototyp) gepackt hat werden meistens noch bugs beseitigt oder ander optimierungen vorgenommen (wenn z. B. die geplanten taktraten nicht erreicht werden) und das dauert wieder seine zeit (z. B. beim nv30 über 1 jahr).
Und dann beginnt die massenproduktion.
Allein davon abgesehen ist es doch überhaupt nicht wirtschaftlich ständig neue archtitekturen rauszubringen. ATI und Nvidia haben auch angekündigt, das ihre entwicklungszyklen länger werden.

Btw. die Begründung für den zweiten pcie-stromanschluss könnte viel näher liegen... habt ihr euch schonmal den prototypen der dual 6800 Ultra von asus angeschaut? ;)
 
Zuletzt bearbeitet:
xxmartin schrieb:
Der Inquirer wechselt aber richtig schnell seine Meinung:P.
Vor kurzem hieß es noch der G70 wird ein Strom-fressendes Ungeheuer mit 225W, jetzt ist es auf einmal eine leicht zukühlende, also kühle und sparsame, GraKa *suspect*

Hoffentlich gibs bald eine andere, verlässlichere Quelle als diese Gerüchteküche, das engl. Konkurrenzprodukt zur Bild Zeitung:-X.

Ich hoffe aber mal, dass der Inq. mit diesem Gerücht ausnahmsweise mal richtig in die Kristallkugel geschaut hat, mir ist eine kühle Graka weitaus lieber als ein Hitzkopf.

mfg
alzen
 
p4z1f1st schrieb:

FUAD bedeutet, dass man solche Meldungen vom Inq getrost ignorieren kann. ;) Warum FUAD? Guck auf den Authornamen oder lies mal im 3dcenter.de. ;D

MfG 8)
 
fuad ist berühmt berüchtigt was grafikchip spekulationen angeht ;)
 
der futtert auch schon zum frühstück spekulatius hab ich mal gelesen :o *lol* *lol*


mfg
 
James Ryan schrieb:
FUAD bedeutet, dass man solche Meldungen vom Inq getrost ignorieren kann. ;) Warum FUAD? Guck auf den Authornamen oder lies mal im 3dcenter.de. ;D

MfG 8)
Im ersten Moment habe ich gedacht es wäre eine böse Abkürzung. (F**K UP AND D** )
Da bin ich ja beruhigt, hab schon gedacht ich müsste meine Wakü abrüsten. :P

MfG
 
Bisher wurde die Dual-Chip-Idee ja nur von Relic und foenfriseur angesprochen- was spricht dagegen?
Wenn der G70 tatsächlich so sparsam (*buck*) ist wie vom INQ beschrieben (*chatt*) wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)
 
Ob das mit der doppelten Listung so stimmt sei mal dahingestellt .. das behauptet nvidia ja gerne und öfter ... aber es lohnt noch ein halbes oder ein Jährchen zu warten und sich dann eine hochgezüchtete Dual GPU 6800GT zu kaufen :D Und wenns die günstig gibt dann im SLI evtl oder änliches ;)
 
Naja, eben wegen diesen Zweifeln (die ich ja selber habe ;)) schrieb ich ja "teilweise" und "nahezu" ;D

Aber ich gebe dir recht: Warten is nie schlecht. Beruhigt aus einer akzeptablen Distanz zusehen, und gucken, wie sich das ganze entwickelt...
(ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!)
 
Naja, der G70 wird eh erst Ende des Jahres richtig kaufbar sein, selbst wenn NVIDIA entsprechende Karten morgen vorstellen würde! ;D
Also erstmal abwarten. ;)

MfG 8)
 
Kamui schrieb:
Bisher wurde die Dual-Chip-Idee ja nur von Relic und foenfriseur angesprochen- was spricht dagegen?
Wenn der G70 tatsächlich so sparsam (*buck*) ist wie vom INQ beschrieben (*chatt*) wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)

Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.
 
Kamui schrieb:
ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!

Naja ich denke, dass sich die leistung zwischen mainstream (Otto-Normal Gamer) und dem Highendmarkt immer weiter auseinander klaffen wird. Zu geforce4 zeiten war der unterschied zwischen highend und mainstream (gf ti4200 -- gf ti4600) ein bischen Takt. Heute haben wir zwischen 6600gt und 6800ultra die doppelten pipelines, doppelt so breites speicherinterface (theoretisch also nahezu doppelte leistung).
Aber der highendmarkt bleibt nun mal der prestigeträchtigste.
 
[³dgamer] schrieb:
irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.
Will ja keiner ein PowerVR Design kaufen :(
 
Relic schrieb:
Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.

Wird aktuell nicht so leicht gehen, da beide Karten das gleiche Bios haben müssen.

MfG 8)
 
Vielleicht interessiert euch das:
Klick
 
Relic schrieb:
Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.



das würde ich nicht so sehen...bestes beispiel ist doch amd x2 oder nicht?? der hat doch auch nur eine verhältnismäßig geringe wärmeabfuhr und ist günstig. und besser wirds mit 65nm oder?
nur werden ati und nv sicher noch ein weilchen warten, bevor sie auch mit ( edit: )dualcores daherkommen...

mfg
 
Zuletzt bearbeitet:
foenfrisur schrieb:
das würde ich nicht so sehen...bestes beispiel ist doch amd x2 oder nicht?? der hat doch auch nur eine verhältnismäßig geringe wärmeabfuhr und ist günstig. und besser wirds mit 65nm oder?
nur werden ati und nv sicher noch ein weilchen warten, bevor sie auch mit dualchips daherkommen...

Wir reden hier von 2 verschiedenen sachen.
Du redest von dualcore und ich von dem hier im thread aufgeworfenen dualchip.
Dualchip brauchst du auf dem PCB 2xStromversorgungen, 2xLeitungen für Speicheranbindungen, 2xeffektivere Kühlung als 1 chip da doppelte abwärme, was das gesamte design nicht grade zu einem zuckerschlecken werden lässt. Seht euch einfach mal Bilder von der Dualchip 6800GT von Asus an (riesiges PCB, riesiger Kühler, ich will nicht wissen, was die wiegt). Und Asus hatte die karte als dual 6800 Ultra angekündigt, was sie jetzt doch nicht geworden ist und jetzt dürft ihr raten warum.

Dualcore von AMD ist eine ganz andere sache. Es sind (vereinfacht gesagt) 2 cores auf einem package, die sich aber das gleiche Speicherinterface teilen und mit der normalen Stromversorgung zu recht kommen. Mit der Wärmeabfuhr hat AMD insofern keine Porbleme, da die singlecore A64 schon sehr genügsam sind und so auch zu 2. nicht wirkliche kühlprobleme aufwerfen. Ausserdem ist eine CPU im vergleich zu einer Graka durch die Lage im Gehäuse auch sehr viel einfacher zu kühlen.

Dualcore bei Grafikchips ist insofern noch zukunftsmusik, da man 1. ein 512bit Speicherinterface bräuchte um beide chips mit genügend texturdaten füttern zu können, was aber noch viel zu teuer für den massenmarkt (preis <500€) wäre und 2. die heutigen Grafikchips schon an der thermischen grenze zu dem arbeiten, was sich mit vernünftigen (normalen, relativ kostengünstigen und nicht 70db lauten) mitteln abführen lässt. Wie willst du nun das doppelte davon auf immernoch relativ kleiner fläche wegbekommen?

Da der G70 (höchst wahrscheinlich) keine neues Design, sondern ein refresh chip wird, darf man garantiert keine wunder von ihm in stromverbrauchs/wärmeabgabe sicht erwarten. Die einsparungen von dem wechsel in 110nm werden durch die zusätzlichen pipes ziemlich aufgefressen werden. Wie soll da eine dualcore variante gekühlt werden?
 
Zurück
Oben Unten