PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G70 Spekulationsthread



Seiten : [1] 2 3 4

vosmic
01.05.2005, 00:16
Wie fängt man so einen Thread am Besten an? Natürlich mit einem Link zum Inquirer.http://www.mysmilie.de/smilies/ekelig/img/023.gif
http://www.theinquirer.net/?article=22917
Abgesehen davon, dass mal wieder ein Stromfresser geboren werden soll,

drying 225W of power
finde ich letzten Satz sehr Interessant:

Whatever happens, this card is an autumn marchitecture and even if Nvidia announces it before then, I don’t think you will be able to get one until then. µ
Man kann also beruhig noch aktuelle Karten kaufen.
Es sei den, Ihr lest was anderes im Kaffeesatz.

MfG

JCDenton
01.05.2005, 09:42
Leider konnte ich den Bericht nicht lesen - Seite ist momentan down.
Allerdings finde ich sie Spekulationen um den Stromverbrauch wieder mal recht erheiternd; was wurde vor der Einführung des NV40 nicht für ein Dummfug verzapft - von 120W war da die Rede, effektiv sind es bei einer 6800U gerade mal 72W *baeh*
Seit dem NV3x scheint es ja in Mode zu sein, nVidia GPUs als elektrisch ineffiziente Heizplatten abzutun.

so long

JCD

[³dgamer]
01.05.2005, 10:43
irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.
die spekulation über die verlustleistung ist müßig, kann mir kaum vorstellen das sowas noch normal zu kühlen wäre...

gast0972
01.05.2005, 11:00
Leider konnte ich den Bericht nicht lesen - Seite ist momentan down.

Versuch's mal hier: http://67.19.9.2/?article=22917

Anonymous
01.05.2005, 11:04
Hmmm..... eigentlich steht da nur, daß nVidia 'nen zweiten Stromanschluß
auf der neuen Karte verbauen will, was aber laut PCIe-Spezifikations wohl
nicht Standard ist. Also man mal höflich nachgefragt, ob sich der Standard
net eventuell aufbohren läßt.
Macht dann statt 1x75W via PCIe und 1x75W external halt 1x75W PCIe
und 2x75W external. Daß die Karte auch wirklich diese extra-75W zieht
ist nicht bewiesen. Ich geh sogar mal davon aus, daß der Extra-Anschluß
nur aus Stabilitätsgründen mit auf die Karte kommt. Lastverteilung halt.
Wird ja zB bei den DFI-Mainboards genauso gemacht, da hast' auch zwei
Extra-Powerstecker drauf, die du nicht belegen MUSST aber zur Lastverteilung
belegen solltest. Genauso wird's bei den neuen nVidia-Grakas sein.

-A

foenfrisur
01.05.2005, 12:05
das wird echt mal wieder ein spekulationskampf werden, zumal die einen wohl auf 90µ und die anderen auf 130µ fahren werden...

edit:
könnte der g70 denn dualcore werden oder eher nicht, wegen 130µ??
warum sollte er so viel strom brauchen?? dann müsste er doch extrem hoch getaktet werden oder "watt"? wo bleiben denn den spekulationsspezies hier?

grmpf
mfg

vosmic
01.05.2005, 12:19
http://67.19.9.2/?article=22882

Man sollte den Inquirer nicht zu ernst nehmen. Spaß macht es alle mal. ;)

foenfrisur
01.05.2005, 12:22
auf jeden fall...

das die stromaufnahme etwas übertrieben ist, war ja klar (theInquirer eben).
aber das die 130 mü nutzen "soll wohl" feststehen, stand auch mal im 3dcenter...


mfg

vosmic
01.05.2005, 12:30
The G70 chip from Nvidia is, we can confirm, good and ready to go. Nvidia is sitting, waiting, sitting and waiting to see what ATI will do before launching the inevitable whirlwind of spin.
Ich tip mal vor der Computex passiert nicht viel.

James Ryan
01.05.2005, 12:55
']irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.

Hä? Der NV40 ist doch sehr effizient im Gegensatz zum R420/480!
Schau dir mal die Taktrate einer 6800 Ultra und einer X800XT PE an, beide Karten sind nahezu gleich schnell.
Der G70 wird eh "nur" ein verbreiterter NV40, mit vielleicht 24 Pipes, höherem Takt, natürlich auch mehr Stromhunger und eventuell mit neuen FSAA Modi.
Aber soviel neues sollte man nicht erwarten, da NVIDIAs aktuelle GPUs schon sehr modern sind.

MfG 8)

[³dgamer]
01.05.2005, 16:18
hm, wieso soll der nv chip effizienter als der ati chip sein? nur weil der bei gleichem takt bei einigen games der nv etwas schneller ist? hm.. so die wirkliche innovation ist dafür aber nicht verantwortlich.
wo bleibt der separate geometrie-prozessor? bessere speicheranbindung? ...

eden
01.05.2005, 16:31
Hä? Der NV40 ist doch sehr effizient im Gegensatz zum R420/480! Schau dir mal die Taktrate einer 6800 Ultra und einer X800XT PE an, beide Karten sind nahezu gleich schnell.

Solltest aber auch bedenken, das die R420/480 über deutlich weniger Transitoren verfügen als die NV Gegenstücke.

James Ryan
01.05.2005, 17:00
']hm, wieso soll der nv chip effizienter als der ati chip sein? nur weil der bei gleichem takt bei einigen games der nv etwas schneller ist? hm.. so die wirkliche innovation ist dafür aber nicht verantwortlich.

Was ist denn dafür verantwortlich?
Fakt ist, dass die NV40 Shader deutlich effizienter arbeiten als die der R420!

@eden
Was hat denn die Transistorzahl damit zu tun?
Der NV40 unterstützt nunmal Shader 3.0, und ist damit deutlich moderner als der R420/480, das kostet aber nunmal Transistoren.

MfG 8)

Lutscher
01.05.2005, 20:23
Dann müssten die Ati Karten aufgrund der wenigen Transistoren aber deutlich weniger Energie verbraten und das tun sie eben nicht. Ich denke zZ hat Nvidia noch die bessere GPU.

foenfrisur
01.05.2005, 20:37
aber verliert ati nicht weniger an performance mit aa und af??


mfg

eden
01.05.2005, 20:50
Was hat denn die Transistorzahl damit zu tun?
Der NV40 unterstützt nunmal Shader 3.0, und ist damit deutlich moderner als der R420/480, das kostet aber nunmal Transistoren.

Klar kostet SM3 Transistoren und bringt abwärme.
Ich meinte das allerdings mehr die allgemein Leistung geteilt durch die Transistorzahl.
Ati: Höher getaktet + weniger Transistoren
NV: Mehr Transistoren + niedriger Takt
Trotzdem sind beide von der Leistung her (je nach Spiel) mehr oder weniger gleich.

alzen
05.05.2005, 15:50
Bin mal gespannt wie der G70 abgehen wird und ob er ein 68GT SLI Gespann verblasen kann.
Der Codename lässt auf jeden Fall auf eine kleine Revolution hoffen: zueinem durch den neuen Buchstaben "G" an Stelle von "NV" und die "70" an Stelle von 40,45,etc.

Ich hoffe mal, dass es nicht nur einen dämlichen Refresh Chip von der 68er Reihe wird, das wäre etwas enttäuschend und mir zu ATI-like(die bauen seit Jahren ja nur einen Refresh nach dem anderen:[)
Ich rechne auf jeden Fall mit 24 Renderpiplines(=6 Quads), mehr als 6 Vertexpipes und HW Unterstützung vom DX Nachfolger(kommt mit Longhorn)

Zum Stromverbrauch:
Der 2te Stromanschluss muss nix negatives bedeuten, der Verbrauch wird sicherlich unter 100Watt bleiben. Die Idee von Anonymous scheint mir sehr plausibel und ist vermutlich auch die Erklärung. Die 68U(AGP) hat ja auch 2 Stecker, brauchen tut man aber nur einen.


Vll versorgt NV den G70 aber exklusiv über die 2 externen Anschlüsse und lässt das Mainboard unangetastet/nutzt den PCIe Strom nur zum Teil. Dies wäre besonders für SLI Boards eine enorme Entlastung, da die 150Watt für die 2Grakas nicht durchs Mainboard gejagdt werden müssen. Das Ergebniss wären unbelastete Spannungswandler auf dem Mobo(der PCIe Anschluss wird mit einer relativ geringen Spannung gefüttert, die Wandler werden aber mit AFAIK 12V versorgt) Der allgemeinen Spannungstabilität käme dies auf jeden Fall zu Gute.


Lassen wir uns überraschen was NV mit dem G70 auf die Beine stellt und was es mit dem 2ten Stromanschluss auf sich hat.

mfg
alzen

Relic
05.05.2005, 16:16
Der G70 wird 100% ein reiner refreshchip ohne großartige erneuerungen...
Für einen neue Architektur wär die Zeit viel zu kurz und nvidia hat mit dem NV40 erst eine neue Architektur rausgebracht, die DX9 quasi vollständig ausnutzt.
WGF 2.0 zu unterstützen wäre reichlich sinnlos, da man die funktionen bevor longhorn rauskommt höchstens mit opengl nutzen könnte.

vosmic
05.05.2005, 17:35
Nvidia hüllt sich in absolutes schweigen Ist also alles nur ein Spekulatius.

James Ryan
05.05.2005, 17:35
Der G70 wird 100% ein reiner refreshchip ohne großartige erneuerungen...
Für einen neue Architektur wär die Zeit viel zu kurz und nvidia hat mit dem NV40 erst eine neue Architektur rausgebracht, die DX9 quasi vollständig ausnutzt.
WGF 2.0 zu unterstützen wäre reichlich sinnlos, da man die funktionen bevor longhorn rauskommt höchstens mit opengl nutzen könnte.

Ack.
Wozu sollte NVIDIA jetzt einen WGF 2.0 konformen Chip rausbringen?

MfG 8)

gast0972
05.05.2005, 23:43
Für einen neue Architektur wär die Zeit viel zu kurz und nvidia hat mit dem NV40 erst eine neue Architektur rausgebracht, die DX9 quasi vollständig ausnutzt.


Ich kann Dir VERSICHERN, das NVIDIA schon die nächsten ZWEI Generationen von GraKas fertig entwickelt hat... (Insider-Info), genauso wird es sich mit der Konkurrenz Ati verhalten. Wäre die Hersteller tatsächlich auf Ihre aktuellen Modelle angewiesen bzw. abhängig, könnten sie in Kürze einpacken und hätten wohl kaum ein Kredit-Volumen.

Die Schmieden wollen natürlich Geld verdienen, ähnlich wie die Hersteller optischer Laufwerke. (Mal nur so an lächerliche Sprünge von 24x bis 40x @ CD-ROM erinnern tu, deren Geräte sich NUR in der Firmware unterschieden) ;)

Auf jeden Fall sind die nächsten Jahre gesichert... ;D

vosmic
06.05.2005, 10:21
Ich kann Dir VERSICHERN, das NVIDIA schon die nächsten ZWEI Generationen von GraKas fertig entwickelt hat... (Insider-Info), genauso wird es sich mit der Konkurrenz Ati verhalten. Wäre die Hersteller tatsächlich auf Ihre aktuellen Modelle angewiesen bzw. abhängig, könnten sie in Kürze einpacken und hätten wohl kaum ein Kredit-Volumen.

Die Schmieden wollen natürlich Geld verdienen, ähnlich wie die Hersteller optischer Laufwerke. (Mal nur so an lächerliche Sprünge von 24x bis 40x @ CD-ROM erinnern tu, deren Geräte sich NUR in der Firmware unterschieden) ;)

Auf jeden Fall sind die nächsten Jahre gesichert... ;D

Hmm. Gilt das für Autobauer genauso? Ist der Golf 7 schon fertig?
Vergleiche ich jetzt Äpfel mit Birnen oder meinst Du mit fertig, dass alles nur am Reißbett steht?
Wenn das alles so einfach zu durchschauen wäre, dann würde doch auch in der Fachpresse ganz anders darüber spekuliert werden.!?

MfG

James Ryan
06.05.2005, 10:33
IMO hat NVIDIA die nächste Generation erst in der Theorie fertig, eventuell laufen schon vereinzelt Prototypen.
Aber dass gleich die übernächste Generation auch fertig sein soll halte ich für Blödsinn. :]

MfG 8)

scottie
06.05.2005, 11:44
Die Grafikentwickler entwickeln immer zwei Karten in etwas verschobenem Abstand.
Das heisst, wenn der eine fertig ist, sind die mit der nächsten auch schon sehr weit.
daher kann das schon sein, das was neues kommt.
ATI hat sich in letzter Zeit leider zu doll ausgeruht.
Die Zeiten, wo Nvidia Karten mit AA + AF abbrechen sind wohl vorbei.
Meine GF6800 wird Dauerhaft mit 4xAA und 8xAF Betrieben, auch bei Spielen, wie NFSU2 und DTMRD2.
Details sind natürlich alle auf voll. Also gibt es da schon ewig nix zu meckern.
Was auch an ATI stört ist, das sie die Treiber immernoch nicht hundertprozentig hinbekommen.
Immerwieder liest man: ATI neue Catalysttreiber, fixed Bugs mit xyz.
Auch bei dem neuesten sind wieder Grafikbugs behoben bei diversen Spielen.

Und dafür ist so eine 3D Karte nunmal da um eben 3D Spiele zu spielen....

eden
06.05.2005, 12:50
IMO hat NVIDIA die nächste Generation erst in der Theorie fertig, eventuell laufen schon vereinzelt Prototypen. Aber dass gleich die übernächste Generation auch fertig sein soll halte ich für Blödsinn.

Da hast du recht, James Ryan.
Man denke an 3dfx, war deren Rampage etwa schon produktionfertig? ;)

MOson
06.05.2005, 13:14
Hmmm..... eigentlich steht da nur, daß nVidia 'nen zweiten Stromanschluß
auf der neuen Karte verbauen will, was aber laut PCIe-Spezifikations wohl
nicht Standard ist. Also man mal höflich nachgefragt, ob sich der Standard
net eventuell aufbohren läßt.
Macht dann statt 1x75W via PCIe und 1x75W external halt 1x75W PCIe
und 2x75W external. Daß die Karte auch wirklich diese extra-75W zieht
ist nicht bewiesen. Ich geh sogar mal davon aus, daß der Extra-Anschluß
nur aus Stabilitätsgründen mit auf die Karte kommt. Lastverteilung halt.
Wird ja zB bei den DFI-Mainboards genauso gemacht, da hast' auch zwei
Extra-Powerstecker drauf, die du nicht belegen MUSST aber zur Lastverteilung
belegen solltest. Genauso wird's bei den neuen nVidia-Grakas sein.

-A

Seh ich genauso.

vosmic
06.05.2005, 13:34
Da hast du recht, James Ryan.
Man denke an 3dfx, war deren Rampage etwa schon produktionfertig? ;)
Nö, aber die sind ja auch pleite... :P

Relic
07.05.2005, 11:32
Ihr wisst schon wie grafikchips entwickelt werden?
In einem simulator wird der chip entworfen und es ist ziemlich sicher, dass nvidia schon einen wgf 2.0 konformen chip so weit fertig entworfen hat aber von der simulation bis zum lauffähigen stück silizium ist ein weiter weg.
Wenn man dann erstmal den 1. tape-out (erster lauffähiger prototyp) gepackt hat werden meistens noch bugs beseitigt oder ander optimierungen vorgenommen (wenn z. B. die geplanten taktraten nicht erreicht werden) und das dauert wieder seine zeit (z. B. beim nv30 über 1 jahr).
Und dann beginnt die massenproduktion.
Allein davon abgesehen ist es doch überhaupt nicht wirtschaftlich ständig neue archtitekturen rauszubringen. ATI und Nvidia haben auch angekündigt, das ihre entwicklungszyklen länger werden.

Btw. die Begründung für den zweiten pcie-stromanschluss könnte viel näher liegen... habt ihr euch schonmal den prototypen der dual 6800 Ultra von asus angeschaut? ;)

xxmartin
11.05.2005, 12:10
klingt gut ;D

http://www.theinquirer.net/?article=23098

James Ryan
11.05.2005, 15:57
FUAD! :-X

MfG 8)

p4z1f1st
11.05.2005, 16:51
FUAD!


wat? *buck*

alzen
11.05.2005, 18:55
klingt gut ;D

http://www.theinquirer.net/?article=23098
Der Inquirer wechselt aber richtig schnell seine Meinung:P.
Vor kurzem hieß es noch der G70 wird ein Strom-fressendes Ungeheuer mit 225W, jetzt ist es auf einmal eine leicht zukühlende, also kühle und sparsame, GraKa *suspect*

Hoffentlich gibs bald eine andere, verlässlichere Quelle als diese Gerüchteküche, das engl. Konkurrenzprodukt zur Bild Zeitung:-X.

Ich hoffe aber mal, dass der Inq. mit diesem Gerücht ausnahmsweise mal richtig in die Kristallkugel geschaut hat, mir ist eine kühle Graka weitaus lieber als ein Hitzkopf.

mfg
alzen

gast0972
11.05.2005, 19:02
*auf richtige Hardware warten tu und solche "Infos" nicht weiter beachten werde*

James Ryan
11.05.2005, 19:45
wat? *buck*

FUAD bedeutet, dass man solche Meldungen vom Inq getrost ignorieren kann. ;) Warum FUAD? Guck auf den Authornamen oder lies mal im 3dcenter.de. ;D

MfG 8)

Relic
11.05.2005, 22:14
fuad ist berühmt berüchtigt was grafikchip spekulationen angeht ;)

foenfrisur
12.05.2005, 09:32
der futtert auch schon zum frühstück spekulatius hab ich mal gelesen :o *lol* *lol*


mfg

vosmic
12.05.2005, 10:42
FUAD bedeutet, dass man solche Meldungen vom Inq getrost ignorieren kann. ;) Warum FUAD? Guck auf den Authornamen oder lies mal im 3dcenter.de. ;D

MfG 8)
Im ersten Moment habe ich gedacht es wäre eine böse Abkürzung. (F**K UP AND D** )
Da bin ich ja beruhigt, hab schon gedacht ich müsste meine Wakü abrüsten. :P

MfG

GEIZIE11
12.05.2005, 17:16
http://www.digitimes.com/news/a20050510A6026.html
hab da was entdeckt

Kamui
12.05.2005, 18:00
Bisher wurde die Dual-Chip-Idee ja nur von Relic und foenfriseur angesprochen- was spricht dagegen?
Wenn der G70 tatsächlich so sparsam (*buck*) ist wie vom INQ beschrieben (*chatt*) wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)

ACiD FiRE
12.05.2005, 18:18
Ob das mit der doppelten Listung so stimmt sei mal dahingestellt .. das behauptet nvidia ja gerne und öfter ... aber es lohnt noch ein halbes oder ein Jährchen zu warten und sich dann eine hochgezüchtete Dual GPU 6800GT zu kaufen :D Und wenns die günstig gibt dann im SLI evtl oder änliches ;)

Kamui
12.05.2005, 18:29
Naja, eben wegen diesen Zweifeln (die ich ja selber habe ;)) schrieb ich ja "teilweise" und "nahezu" ;D

Aber ich gebe dir recht: Warten is nie schlecht. Beruhigt aus einer akzeptablen Distanz zusehen, und gucken, wie sich das ganze entwickelt...
(ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!)

James Ryan
12.05.2005, 19:55
Naja, der G70 wird eh erst Ende des Jahres richtig kaufbar sein, selbst wenn NVIDIA entsprechende Karten morgen vorstellen würde! ;D
Also erstmal abwarten. ;)

MfG 8)

Relic
12.05.2005, 20:18
Bisher wurde die Dual-Chip-Idee ja nur von Relic und foenfriseur angesprochen- was spricht dagegen?
Wenn der G70 tatsächlich so sparsam (*buck*) ist wie vom INQ beschrieben (*chatt*) wäre es doch problemlos möglich, zwei Cores per SLI- Verbindung zusammenzuschalten.
Denn gerade SLI hat ja gezeigt, dass sich die Performance durch Parallelisierung (teils) nahezu ver-n-fachen lässt.
(okay, ich glaub ja nicht an nen sparsamen und kühlen Grafikchip... irgendwie)

Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.

Relic
12.05.2005, 20:25
ich mein: wozu brauch ich ne G70 die x-mal so schnell ist wie ne 6800U, wenn meine 6600GT mir reicht?!

Naja ich denke, dass sich die leistung zwischen mainstream (Otto-Normal Gamer) und dem Highendmarkt immer weiter auseinander klaffen wird. Zu geforce4 zeiten war der unterschied zwischen highend und mainstream (gf ti4200 -- gf ti4600) ein bischen Takt. Heute haben wir zwischen 6600gt und 6800ultra die doppelten pipelines, doppelt so breites speicherinterface (theoretisch also nahezu doppelte leistung).
Aber der highendmarkt bleibt nun mal der prestigeträchtigste.

ollix
12.05.2005, 20:55
']irgendwie fehlt im grafikkartenbereich noch ein wenig die entwicklung, die die amds mitgemacht haben. sprich mehr wert auf effizienz als auf rohe taktzahlen zu legen.Will ja keiner ein PowerVR Design kaufen :(

James Ryan
12.05.2005, 21:34
Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.

Wird aktuell nicht so leicht gehen, da beide Karten das gleiche Bios haben müssen.

MfG 8)

Lutscher
12.05.2005, 21:37
Vielleicht interessiert euch das:
Klick (http://www.digitimes.com/news/a20050510A6026.html)

xxmartin
12.05.2005, 21:55
http://www.digitimes.com/news/a20050510A6026.html
hab da was entdeckt



Vielleicht interessiert euch das:
Klick (http://www.digitimes.com/news/a20050510A6026.html)

Fällt Dir da etwas auf. :]


G70 doppelte Performance der 6800er-Reihe = Kaufzwang ... *buck*

foenfrisur
12.05.2005, 21:56
Naja Dualchip versionen werden weiterhin nur nieschenprodukte bleiben, weil sie einfach zu teuer herzustellen sind (boarddesign, kühlung).
Da is SLI schon ein wesentlich besserer ansatz, vorallem, weil man später, wenn man die leistung braucht, zu seiner graka einfach eine 2. dazusetzen kann und so günstig aufrüsten.



das würde ich nicht so sehen...bestes beispiel ist doch amd x2 oder nicht?? der hat doch auch nur eine verhältnismäßig geringe wärmeabfuhr und ist günstig. und besser wirds mit 65nm oder?
nur werden ati und nv sicher noch ein weilchen warten, bevor sie auch mit ( edit: )dualcores daherkommen...

mfg

Relic
12.05.2005, 23:03
das würde ich nicht so sehen...bestes beispiel ist doch amd x2 oder nicht?? der hat doch auch nur eine verhältnismäßig geringe wärmeabfuhr und ist günstig. und besser wirds mit 65nm oder?
nur werden ati und nv sicher noch ein weilchen warten, bevor sie auch mit dualchips daherkommen...


Wir reden hier von 2 verschiedenen sachen.
Du redest von dualcore und ich von dem hier im thread aufgeworfenen dualchip.
Dualchip brauchst du auf dem PCB 2xStromversorgungen, 2xLeitungen für Speicheranbindungen, 2xeffektivere Kühlung als 1 chip da doppelte abwärme, was das gesamte design nicht grade zu einem zuckerschlecken werden lässt. Seht euch einfach mal Bilder von der Dualchip 6800GT von Asus an (riesiges PCB, riesiger Kühler, ich will nicht wissen, was die wiegt). Und Asus hatte die karte als dual 6800 Ultra angekündigt, was sie jetzt doch nicht geworden ist und jetzt dürft ihr raten warum.

Dualcore von AMD ist eine ganz andere sache. Es sind (vereinfacht gesagt) 2 cores auf einem package, die sich aber das gleiche Speicherinterface teilen und mit der normalen Stromversorgung zu recht kommen. Mit der Wärmeabfuhr hat AMD insofern keine Porbleme, da die singlecore A64 schon sehr genügsam sind und so auch zu 2. nicht wirkliche kühlprobleme aufwerfen. Ausserdem ist eine CPU im vergleich zu einer Graka durch die Lage im Gehäuse auch sehr viel einfacher zu kühlen.

Dualcore bei Grafikchips ist insofern noch zukunftsmusik, da man 1. ein 512bit Speicherinterface bräuchte um beide chips mit genügend texturdaten füttern zu können, was aber noch viel zu teuer für den massenmarkt (preis <500€) wäre und 2. die heutigen Grafikchips schon an der thermischen grenze zu dem arbeiten, was sich mit vernünftigen (normalen, relativ kostengünstigen und nicht 70db lauten) mitteln abführen lässt. Wie willst du nun das doppelte davon auf immernoch relativ kleiner fläche wegbekommen?

Da der G70 (höchst wahrscheinlich) keine neues Design, sondern ein refresh chip wird, darf man garantiert keine wunder von ihm in stromverbrauchs/wärmeabgabe sicht erwarten. Die einsparungen von dem wechsel in 110nm werden durch die zusätzlichen pipes ziemlich aufgefressen werden. Wie soll da eine dualcore variante gekühlt werden?

Relic
12.05.2005, 23:43
Wird aktuell nicht so leicht gehen, da beide Karten das gleiche Bios haben müssen.


Da ja ein biosupdate so schwierig ist :]

foenfrisur
13.05.2005, 09:00
ich kenne die unterschiede, habe mich nur eben in der wortwahl verirrt. ich meinte natürlich wirklich dualcore.
habe gar nicht an dualchip gedacht, aber das gibts da ja auch noch *buck* ;D


mfg

Shyru
13.05.2005, 10:48
Also ich denke nicht dass der G70 nur ein Refresh-Chip ist.
Ende letzten 2004 ging ja die News die Runde, dass der eigentlich geplante Refresh-Chip (NV50) verworfen wurde (http://www.theinquirer.net/?article=20034), weil der neue Chip so gut anlief, und sie mit SLI noch genügend Vorteil gegenüber ATI hatten. Damals sprach natürlich noch keiner vom G70. Dann sickerten langsam Informationen zum G70 durch, und ich gehe davon aus, dass das der Chip mit der neuen Architektur ist. Es ist ja jetzt auch schon über ein Jahr her, dass der NV40 vorgestellt wurde. Sie hatten also auch genügend Zeit.
Dafür spricht für mich auch eindeutig der neue Codename. Nvidia ist sich seiner Namensgebung bis jetzt immer treu geblieben, sogar der RIVA 128 Chip war schon ein NV-Chip (nv1 glaub ich).
Also mich würde es nicht wundern wenn der G70 WGF2.0 unterstützen würde. Nvidia ist dafür bekannt, neue Techologien früh zu adaptieren (siehe SM3) und ursprünglich war Longhorn ja auch schon für 2005 vorgesehen. Wenn sie jetzt schon einen WGF2 Chip rausbringen, wären sie ATI wieder vorraus, und wenn Longhorn wirklich draussen wäre, hätten sie schon einen Refresh-Chip der WGF2 unterstützt.
Also wenn der G70 wirklich nur ein Refresh-Chip mit 24 Pipes wäre, hätte NVidia auch arge Probleme. Wenn ATI den R520 und AMR vorstellt, fehlt NVidia nämlich der SLI-Vorteil und ob ein normaler Refresh-Chip gegen den R520 anstinken könnte, mag ich zu bezweifeln.
Was meint Ihr?

JCDenton
13.05.2005, 12:23
[klugscheiss]Riva128 war der NV3, NV1 hatte afaik noch keinen Codenamen - TM30 hat wohl noch eine Karte mit diesem Chip[\klugscheiss]

Allerdings würde es mich auch wundern, wenn nVidia ihre aktuell gute Marktposition mit einem popeligen NV40 Refresh aufs Spiel setzen würden.

Aber mal was anderes: wie kommt ihr eigentlich auf die Idee, dass eine Dualcore GPU irgendwie einen Vorteil bringen würde ?
Graphikprozessoren sind doch schon prinzipiell hochgradig parallel aufgebaut - mehr Vertex-/Pixeleinheiten pro Chip, mehr ALUs pro Pipeline ---> höhere pro Mhz-Leistung.

so long

JCD

Kamui
13.05.2005, 13:16
Aber mal was anderes: wie kommt ihr eigentlich auf die Idee, dass eine Dualcore GPU irgendwie einen Vorteil bringen würde ?
Graphikprozessoren sind doch schon prinzipiell hochgradig parallel aufgebaut - mehr Vertex-/Pixeleinheiten pro Chip, mehr ALUs pro Pipeline ---> höhere pro Mhz-Leistung.
Naja, wegen SLI ;D
Natürlich werden schon jetzt mehrere Einheiten je Chip verbaut, das gilt ja der Ausreizung der technischen Gegebenheiten.
Nur jetzt nochmal ne weitere GPU draufzusetzen (womit wir dann jeweils doppelt so viele Einheiten hätten) ist ja genau das System von SLI (so der RAM ebenfalls verdoppelt wird), nur eben auf einer Platine

foenfrisur
13.05.2005, 15:05
Also mich würde es nicht wundern wenn der G70 WGF2.0 unterstützen würde. Nvidia ist dafür bekannt, neue Techologien früh zu adaptieren (siehe SM3) und ursprünglich war Longhorn ja auch schon für 2005 vorgesehen. Was meint Ihr?

das halte ich für ein gerücht, daß nv immer neue technologien früh adaptieren ;)
siehe ati damals mit der ersten dx9-karten auf dem markt...wurde erst ein "halbes jahr" später von nv mit einem (auch noch schlechten) chip gekontert...
diesmal war es mal wieder andersherum (sm3 hdr ...) und wer weiß wie es diesmal aussieht...wahrscheinl. können beide das gleiche, denn sooo viel neues kann und wird es erstmal nicht geben, außer wgf 2.0 konform und vielleicht ein supersampling aa.
letztendlich wird ati vermutl. nicht nochmal solch ein fehler (x8xx <-->68xx) machen und vorhandenes nicht implementieren um dann ausstattungstechnisch schlechter dazustehen...
die nehmen sich bestimmt nicht mehr viel, außer der ohnehin ausreichenden performance.
auch jetzt nicht.der eine hat dann eben mehr performance der andere mehr features. jeder sucht sich das, was er meint zu brauchen.
ati launched später, um dann an der taktschraube zu drehen, wenn der g70 raus is und fertig. was glaubt ihr denn, was da schon für besonders neue features drin stecken werden?? wgf-konform heisst doch auch nicht soo viel neues, außer evtl. sm4 und ein paar andere kleinigkeiten. wgf dauert ohnehin noch ewig... *noahnung* *noahnung*

mal abwarten, bleibt eh nix anderes übrig...*gespannt bin*

mfg

Relic
13.05.2005, 16:40
Also ich denke nicht dass der G70 nur ein Refresh-Chip ist.
Ende letzten 2004 ging ja die News die Runde, dass der eigentlich geplante Refresh-Chip (NV50) verworfen wurde (http://www.theinquirer.net/?article=20034), weil der neue Chip so gut anlief, und sie mit SLI noch genügend Vorteil gegenüber ATI hatten. Damals sprach natürlich noch keiner vom G70. Dann sickerten langsam Informationen zum G70 durch, und ich gehe davon aus, dass das der Chip mit der neuen Architektur ist. Es ist ja jetzt auch schon über ein Jahr her, dass der NV40 vorgestellt wurde. Sie hatten also auch genügend Zeit.
Dafür spricht für mich auch eindeutig der neue Codename. Nvidia ist sich seiner Namensgebung bis jetzt immer treu geblieben, sogar der RIVA 128 Chip war schon ein NV-Chip (nv1 glaub ich).
Also mich würde es nicht wundern wenn der G70 WGF2.0 unterstützen würde. Nvidia ist dafür bekannt, neue Techologien früh zu adaptieren (siehe SM3) und ursprünglich war Longhorn ja auch schon für 2005 vorgesehen. Wenn sie jetzt schon einen WGF2 Chip rausbringen, wären sie ATI wieder vorraus, und wenn Longhorn wirklich draussen wäre, hätten sie schon einen Refresh-Chip der WGF2 unterstützt.
Also wenn der G70 wirklich nur ein Refresh-Chip mit 24 Pipes wäre, hätte NVidia auch arge Probleme. Wenn ATI den R520 und AMR vorstellt, fehlt NVidia nämlich der SLI-Vorteil und ob ein normaler Refresh-Chip gegen den R520 anstinken könnte, mag ich zu bezweifeln.
Was meint Ihr?


Wieso sollten sie den arge probleme bekommen? Sie haben doch den technologisch führenden Chip und brauchen nur die flaschenhälse beseitigen und ihn "breiter" machen um mehr leistung zu bekommen. ATI is doch ganz klar im zugzwang und nicht Nvidia.

Und wegen WGF 2.0 hab ich doch schon früher gesagt, wieso es unterstützen, wenn man es mit der vorhandenen programmierschnittestelle (direct x) nicht ansprechen kann (opengl mal ausgeschlossen, aber darauf setzt ja kaum ein eintwickler)? Kostet doch nur unnötig transistoren und bis WGF 2.0 wirklich da ist hat die karte zu wenig leistung, um die features ernsthaft nutzen zu können.

Grundsätzlich brauch man sich vom G70 schon allein deshalb keine wunder erwarten, da einfach Speicherbandbreite fehlt. 512bit speicherinterface ist zu teuer und ddr3 speicher bekommt zu vernünftigen preisen bis max. 700mhz. Die heutigen highend-karten leiden bei AA ja schon unter zu wenig speicherbandbreite.

Und bitte zitiert nicht ständig FUAD ;).

eden
13.05.2005, 17:49
Wieso sollten sie den arge probleme bekommen? Sie haben doch den technologisch führenden Chip und brauchen nur die flaschenhälse beseitigen und ihn "breiter" machen um mehr leistung zu bekommen. ATI is doch ganz klar im zugzwang und nicht Nvidia.

Wenn ich mir die Verkaufszahlen so betrachte sind weder Nvidia, noch ATI in irgend ner Weiße in Zugzwang. ;D

RICHTHOFEN
13.05.2005, 20:02
Wenn ich mir die Verkaufszahlen so betrachte sind weder Nvidia, noch ATI in irgend ner Weiße in Zugzwang. ;D
ATI schon, weil ihnen die Gamerbasis davon rennt.
Im 1. Quartal hatte Nvidia laut Mercury Research ca. 70% des DX9 Performance Marktes eingeheimst.
Bei der Messung von Mercury zum DX9 Performance Markt zählt alles ab GF6600 bzw. Radeon X700.
Auf Dauer wird sowas gefährlich, weil dann die Entwickler beginnen zu sehr Eigenarten bestimmter Kartenmodelle bzw. GPU Serien zu berücksichtigen.
Splinter Cell 3 mit SM3 oder SM1 ist so ein Beispiel.
ATI muss dringend ihr Featureset aufpolieren.

foenfrisur
13.05.2005, 22:13
machen´se...wäre sehr dumm, wenn nicht ;)

mfg

xxmartin
13.05.2005, 22:51
Nächste bzw. übernächste Woche wird's interessant!

http://www.xbitlabs.com/news/video/display/20050512035137.html

vosmic
14.05.2005, 10:59
Nächste bzw. übernächste Woche wird's interessant!

http://www.xbitlabs.com/news/video/display/20050512035137.html
Maybe...
"Meanwhile ATI is reported to have have postponed the commercial release of its much-anticipated code-named R520 visual processing unit from June to a later date." :P

James Ryan
14.05.2005, 12:40
Da ja ein biosupdate so schwierig ist :]

Dabei geht die Garantie aber flöten... :]

MfG 8)

Relic
14.05.2005, 13:49
Dabei geht die Garantie aber flöten... :]

MfG 8)

Seit wann geht bei einem bios-update die garantie flöten?

TM30
14.05.2005, 14:27
[klugscheiss]Riva128 war der NV3, NV1 hatte afaik noch keinen Codenamen - TM30 hat wohl noch eine Karte mit diesem Chip[\klugscheiss]

yo und zwar die hier 8)

http://www.3dfx.ch/gallery/albums/album64/1_G_006.jpg



ach und zum G70... wenn ich schon wieder lese "doppelt so schnell wie die 6800Ultra..."

-> bestimmt unter 8xAA und 16xAF bei 2048x1536...
-> vorher 1FPS , mit dem G70 2FPS...

James Ryan
14.05.2005, 14:53
Seit wann geht bei einem bios-update die garantie flöten?

Bei 'nem Grakabiosupdate eigentlich immer.

MfG 8)

vosmic
14.05.2005, 15:03
Bei 'nem Grakabiosupdate eigentlich immer.

MfG 8)
Richtig. Es sein dender Hersteller rät zum Update.
Ist bei meinen Grakas bis jetzt noch nicht vorgekommen. Bei Asus war mal was (vor kurzem).

Zidane
15.05.2005, 07:35
Man kann ja ohne Probleme das Bios sichern, und hinterher wieder zurückspielen. Teilw. empfehlen einige Hersteller sogar wenn es ein neues gibt dieses auch zu nutzen. z.b Leadtek ! -

p4z1f1st
15.05.2005, 09:35
ach und zum G70... wenn ich schon wieder lese "doppelt so schnell wie die 6800Ultra..."

-> bestimmt unter 8xAA und 16xAF bei 2048x1536...
-> vorher 1FPS , mit dem G70 2FPS...

RÜSCHTÜÜÜSCH ;D

wie damals bei der Geforce2 ;)

eden
15.05.2005, 11:25
Oder der TNT2, TNT1, usw...
Ist leider der typische NV Werbetrick.
Ich erinnere mich noch an die Werbung, verzeihnung, Empfehlungen der "Fachzeitschriften" für die TNT2: Unbedingt kaufen, die kann 32bit Farben darstellen. Leider hat halt keiner gefragt wie schnell sie das konnte...

Fazit: Seien wir also mal gespannt (und skeptisch) was da kommt.

Kamui
15.05.2005, 14:23
Ich erinnere mich noch an die Werbung, verzeihnung, Empfehlungen der "Fachzeitschriften" für die TNT2: Unbedingt kaufen, die kann 32bit Farben darstellen. Leider hat halt keiner gefragt wie schnell sie das konnte...
Oder was das gebracht hat ;)

Genauso das Pseudo-Argument mit SM3 ;)

vosmic
15.05.2005, 14:58
Oder was das gebracht hat ;)

Genauso das Pseudo-Argument mit SM3 ;)
Ein Pseudo bzw. falsches Argument wäre es, wenn es in keine Richtung Vorteile bringen würde.
Ich sehe beim SM3 schon den einen oder anderen Vorteil. Essentiell ist es natürlich nicht.

MfG

Peilo
15.05.2005, 15:10
RÜSCHTÜÜÜSCH ;D

wie damals bei der Geforce2 ;)

oder vom der FX zur Geforce6 *buck* :] *lol*

foenfrisur
15.05.2005, 15:26
oder vom der FX zur Geforce6 *buck* :] *lol*


warum?? fands zur fx hin schlimmer..das war doch die graka mit eingebautem staubsauger oder doch nich?? die gf6 is ja knapp X-fach schneller...mit der konnte man auch mal übertreiben *buck*

mfg

eden
15.05.2005, 15:36
ands zur fx hin schlimmer..das war doch die graka mit eingebautem staubsauger oder doch nich??

Ganz genau! *buck*
Was lernen wir daraus? Schlimmer geht immer! ;)

Peilo
15.05.2005, 15:40
das mit dem staubsauger betraff aber nur 5800 ultra. die kleineren waren von der leistung her grottig aber von den features her war sie net so schlecht brachte sie doch entlich directX 9 für nVidia und so einige andere Nutzlichkeiten.
Ich finde nur das der Unterschied von ner 4Ti 4200 zur FX5700 Ultra aufwärts schon ziehmlich groß is
aber der Sprung von 5900n.U. zur 6800n.U.oder gar Le nich mehr so ins Gewicht fällt, weil man mit beiden Karten auser unter AA und AF bei der FX ganz gut zoggen kann.
Und wirklich neue Features gibtes bis auf entlich gescheite Shaderleistung unter DirectX9 und SM 3.0 oder 16AF eigentlich auch nich

nur meine Meinung

wollte ja nur klarstellen das es sich halt(im Moment)kaum lohnt von FX auf GF6 umzusteigen wenn man auf AA und AF erstmal verzichten kann ;)

Peilo
15.05.2005, 16:08
Hoffe nur das der G70, wenn er dann noch so heisst, mal wieder richtige Neuheiten bringt
[Übertreib an]Pipes verdoppeln kann jeder[Übertreib aus] :P

Relic
15.05.2005, 19:34
Hoffe nur das der G70, wenn er dann noch so heisst, mal wieder richtige Neuheiten bringt
[Übertreib an]Pipes verdoppeln kann jeder[Übertreib aus] :P

Was möchtest du den ausser mehr leistung gern haben, wenn du selbst AA + AF nicht als wichtiges argument siehst?

James Ryan
15.05.2005, 20:27
Hoffe nur das der G70, wenn er dann noch so heisst, mal wieder richtige Neuheiten bringt
[Übertreib an]Pipes verdoppeln kann jeder[Übertreib aus] :P

Was denn für Neuheiten?
Wäre nett wenn HDR + AA funzen würde und andere/bessere Superampling AA Methoden implementiert würden, aber soviel an Neuheiten würde ich da nicht erwarten.

MfG 8)

p4z1f1st
16.05.2005, 11:17
ein bissl Geduld - die E3 ist nur noch 1Tag (2Tage mit Zeitzone) entfernt ;D

freu mich eh schon, wie ein frisch paniertes Schnitzel dieses Jahr drauf ^^

DaBrain
16.05.2005, 12:53
Hoffe nur das der G70, wenn er dann noch so heisst, mal wieder richtige Neuheiten bringt
[Übertreib an]Pipes verdoppeln kann jeder[Übertreib aus] :P

Hmm 3dc Kompression wäre nett. n-Patches vermisse ich auch langsam.

Und ich wage es ja gar nicht zu schreiben, aber wie wäre es mit Glide Support? ^^

Achja, ein funktionierender Video Prozessor wäre ein nettes 'Feature'. *lol*

Kamui
16.05.2005, 12:58
freu mich eh schon, wie ein frisch paniertes Schnitzel dieses Jahr drauf ^^
Oh ja, ich mich auch! Bin mal gespannt, was sie da zeigen.


Achja, ein funktionierender Video Prozessor wäre ein nettes 'Feature'. *lol*
*rofl*
Aber glide... nope, leider nicht

foenfrisur
16.05.2005, 13:37
freu mich eh schon, wie ein frisch paniertes Schnitzel dieses Jahr drauf ^^


*lol* *lol* *chatt* *glaubses* *greater*


mfg

Peilo
16.05.2005, 13:57
Was denn für Neuheiten?
Wäre nett wenn HDR + AA funzen würde und andere/bessere Superampling AA Methoden implementiert würden, aber soviel an Neuheiten würde ich da nicht erwarten.

MfG 8)

Ich würde mich auch eher über so etwas freuen. Den funktionierenden Videoprozessor find ich ganz besonders wichtig, weil dieser zeigt das man auch noch andere Sachen wie zoggen oder 3dmurksen kann und auch soll. Z.Bsp. wenn man ein Video rippt das dann auch die Leistung der Graka genuzt wird und die nich die ganze Zeit nichts tut.

Was auch net schlecht wäre, z.Bsp. ein integrierter TV-(De)Encoder für Fernsehn oder gar schon in HDTV-Auflösung. Wäre schön :] :] 8)

Das wäre mal was innovatives *buck*

vosmic
16.05.2005, 14:36
Ich würde mich auch eher über so etwas freuen. Den funktionierenden Videoprozessor find ich ganz besonders wichtig, weil dieser zeigt das man auch noch andere Sachen wie zoggen oder 3dmurksen kann und auch soll. Z.Bsp. wenn man ein Video rippt das dann auch die Leistung der Graka genuzt wird und die nich die ganze Zeit nichts tut.

Was auch net schlecht wäre, z.Bsp. ein integrierter TV-(De)Encoder für Fernsehn oder gar schon in HDTV-Auflösung. Wäre schön :] :] 8)

Das wäre mal was innovatives *buck*

G R A F I K karte. Warum die wohl so heißt. ;)
Und das gucken von (hochauflösenden) Videos klappt bei mir auch ohne ruckeln...

TV-Karten wurden auch schon erfunden. Wäre dieser Schnickschnack noch mit auf der Graka, würden diese nur noch teurer werden.

gast0972
16.05.2005, 16:42
TV-Karten wurden auch schon erfunden. Wäre dieser Schnickschnack noch mit auf der Graka, würden diese nur noch teurer werden.

a) TEURER und wären b) ANFÄLLIGER für Defekte.

Merke: Je mehr Funktionen, desto wahrscheinlicher Defekte....

Peilo
16.05.2005, 17:00
a) TEURER und wären b) ANFÄLLIGER für Defekte.

Merke: Je mehr Funktionen, desto wahrscheinlicher Defekte....

ja ok ihr habt die besseren Argumente :-X

aber es gibt ja solche Karten wie in den Aldi-Dingern mit Tv-dingens und die verkaufen sich auch und laufen tun sie alle ;)

wäre trotzdem lustig wenn irgendwann dei Leistung eines 6800Ultra SLI System nicht brach liegt unter win, sondern halt von Seti oder so genutzt werden kann und man so 2 oder 3mal so viele WUs abliefern kann. OK ich glaub das liegt ja nicht (nur) an der Architektur der Graka sondern auch an den Programmen,
aber träumen wird man ja noch dürfen *buck* :] :o

foenfrisur
16.05.2005, 19:21
@vosmic und offtopic :)

du hast da einen rechtschreibfehler in deiner sig. speziell in diesem wort "funktionlstruckturelle"
klingt ja klug, sieht aber blöde aus, wenn die rechtschreibung nicht stimmt :)

is so wie:
Das maximale Volumen subterrarer Agrarprodukte steht in reziproker Relation zur intellektuellen Kapazität ihrer Produzenten.
--
Der Intelligenzquotient eines Agrarökonomen ist reziprok proportional dem Volumen diverser von ihm kultivierter Feldfrüchte.
--
Die Qualität und Quantität der subterranen Agrarproduktion steht in reziproker Relation zum Intelligenzquotienten des Erzeugers.
--
Die voluminöse Expansion subterraner Agrarprodukte steht in reziproker Relation zur geistigen Kapazität des Erzeugers.

auf gut deutsch: Die dümmsten Bauern ernten die dicksten Kartoffeln


mfg

vosmic
16.05.2005, 20:31
du hast da einen rechtschreibfehler in deiner sig. speziell in diesem wort "funktionlstruckturelle"
klingt ja klug, sieht aber blöde aus, wenn die rechtschreibung nicht stimmt :)

Fang mal lieber an in Deiner eigenen Sig aufzuräumen. Da sieht es ja aus. ;)
Das war übrigens ein Tippfehler :P

foenfrisur
16.05.2005, 22:15
Fang mal lieber an in Deiner eigenen Sig aufzuräumen. Da sieht es ja aus. ;)
Das war übrigens ein Tippfehler :P


jo mann...sieht eben aus wie ne foenfrisur *lol* *lol*
sieht echt ein bissel zerstreut aus... *buck*


mfg

vosmic
17.05.2005, 02:29
@foe(h)nfrisur
Nu aber... aufräumen! ;D Die Sig ist Dein Aushängeschild und Du willst doch wohl keinen schlechten Eindruck machen :)

@Topic
Die Jungs von Computerbase haben die Gerüchte des Inq. nochmal auf deutsch zusammengefasst. Wobei die Quelle bzw. Author der ursprünglichen Meldungen immer noch Fuad ist.

KLICK MICH! (http://www.computerbase.de/news/hardware/grafikkarten/2005/mai/neues_atis_r520_nvidias_g70/)

Relic
17.05.2005, 04:10
Hmm 3dc Kompression wäre nett. n-Patches vermisse ich auch langsam.

Und ich wage es ja gar nicht zu schreiben, aber wie wäre es mit Glide Support? ^^

Achja, ein funktionierender Video Prozessor wäre ein nettes 'Feature'. *lol*

3dc unterstützen schon alle NV4x modelle per Treiber (aber hardware unterstützung wäre natürlich schöner).

Glide support gibts genügend wrapper für.

Videoprozessor funktioniert seit den nv40 sprösslingen (z. B. nv43) wenn auch nur mit der nvidia software (aber das ist ja nur ne treiber sache).



Wäre nett wenn HDR + AA funzen würde und andere/bessere Superampling AA Methoden implementiert würden, aber soviel an Neuheiten würde ich da nicht erwarten.


HDR + AA erwarte ich auch (und weniger performanceeinbruch bei HDR) aber ich denke im bereich AA wird sich nicht viel tun, da man ja im vergleich zu ATI auf diesem gebiet doch die weitaus größere auswahl bieten kann (sogar inzwischen gammekorrektes AA).

Ich würd mich freuen, wenn sie endlich wieder das AF winkelunabhängig wie zu gf4 zeiten machen würden (leistung dürfte ja mehr als genug da sein) und auch das brilliniare filtern abschaffen.

SKYNET
17.05.2005, 10:12
Name: GeForce 7
Model: Ultra
Transistors: 260 million
Core clock: 450MHz
Piplines: 24
Pixel Fillrate: 10800M/s
Texel Fillrate: 10800M/s
FP operations: FP16, FP32
DirectX: DirectX 9.0c
Pixel shaders: PS 3.0
Vertex shaders: VS 3.0
OpenGL: 1.5+ (2.0)
RAMDAC: 400MHz
Memory: 512MB GDDR3
Memory clock: 2x 700MHz
Memory bus: 256bit
Memory bandwidth: 44800MB/s


fand sich irgentwie in meinen mailkasten wieder... :-X

vosmic
17.05.2005, 10:28
fand sich irgentwie in meinen mailkasten wieder... :-X
Kein Absender ???
Fuad vielleicht? Aber klingt dafür zu realistisch ;)

Kamui
17.05.2005, 10:35
fand sich irgentwie in meinen mailkasten wieder... :-X
;D :)

Ulukay
17.05.2005, 11:15
fand sich irgentwie in meinen mailkasten wieder... :-X

Spammails die durch meinen Spamfilter rutschen lösche ich normalerweise

SKYNET
17.05.2005, 11:40
Spammails die durch meinen Spamfilter rutschen lösche ich normalerweise


me2, aber das ist ne "spam-"mail die man gerne sieht. ;D

gast0972
17.05.2005, 11:44
Name: GeForce 7
Model: Ultra
Transistors: 260 million
Core clock: 450MHz
Piplines: 24
Pixel Fillrate: 10800M/s
Texel Fillrate: 10800M/s
FP operations: FP16, FP32
DirectX: DirectX 9.0c
Pixel shaders: PS 3.0
Vertex shaders: VS 3.0
OpenGL: 1.5+ (2.0)
RAMDAC: 400MHz
Memory: 512MB GDDR3
Memory clock: 2x 700MHz
Memory bus: 256bit
Memory bandwidth: 44800MB/s

...und warum falle ich nicht vom Hocker?

Abgesehen von 24 Pipes, 512 MB RAM läuft diese "g70" fast genauso wie meine 6800 GT..., yeah, der totale Grund wieder ~500 Euronen auszugeben... *g*

EDIT: Btw., wo kommt das Dokument her? Indien? Auf Anhieb 2 Rechtschreibfehler entdeckt, nicht sehr Vorteilhaft für evtl. "geheimnisvolle Zusendungen"... ;D

SKYNET
17.05.2005, 11:50
ist halt nur nen aufgebohrter NV40/45, bissl mehr takt und pipes, nen bissl mehr speicher und feddich.

Relic
17.05.2005, 12:53
naja immernoch reine spekulation die Daten aber dafür eine realistische....

sth
17.05.2005, 13:00
ist halt nur nen aufgebohrter NV40/45, bissl mehr takt und pipes, nen bissl mehr speicher und feddich.
...dafür aber wohl (hoffentlich ;-) ) mit vollständig funktionierendem Video-Prozessor und nativem PCIe.

Mal im Ernst: Viel mehr war/ist doch auch nicht zu erwarten. Neue Architektur gibt's doch eh' erst mit dem NV50 und 32 Pipelines wären nicht nur teuer sondern auch nicht gerade leicht zu kühlen (Thema Staubsauger)...

gast0972
17.05.2005, 13:19
ist halt nur nen aufgebohrter NV40/45, bissl mehr takt und pipes, nen bissl mehr speicher und feddich.

Irgendwas wurmt mich dennoch; wieso sollte NVIDIA einem "Refresh" eine neue Nummer aká GeForce 7 zuordnen? Üblicherweise macht NVIDIA das nur bei neuen Chipdesigns; dieser "Refresh" ist aber kein Redesign...

...ich denk' mal, das was rauskommen wird, ist nicht das was wir hier alle vermuten... ;D

Peilo
17.05.2005, 13:34
Irgendwas wurmt mich dennoch; wieso sollte NVIDIA einem "Refresh" eine neue Nummer aká GeForce 7 zuordnen? Üblicherweise macht NVIDIA das nur bei neuen Chipdesigns; dieser "Refresh" ist aber kein Redesign...

...ich denk' mal, das was rauskommen wird, ist nicht das was wir hier alle vermuten... ;D

was? ham die doch beim Geforce3 auch getan. Der Geforce4 war im Grund auch nur ein überarbeiteter 3er mit mehr takt und so. Also von daher und auch sonst, wie solln die denn sonst nennen? 6850Ultra oder 6900?*kopfkratz* Wer will den dann kaufen?
Das hört sich für jeden glücklichen 6800-Besitzer*massa**massa**massa**massa* doch nur nach ner steigerung um ein Prozent oder so an.
Ich denke der neue Name is vom Marketing her schon ne gute Idee für die California. Die haben sich ja auch von dem FX im Namen verabschiedet*abgelehnt*

gast0972
17.05.2005, 13:43
was? ham die doch beim Geforce3 auch getan. Der Geforce4 war im Grund auch nur ein überarbeiteter 3er mit mehr takt und so. Also von daher und auch sonst, wie solln die denn sonst nennen? 6850Ultra oder 6900?*kopfkratz* Wer will den dann kaufen?
Das hört sich für jeden glücklichen 6800-Besitzer*massa**massa**massa**massa* doch nur nach ner steigerung um ein Prozent oder so an.
Ich denke der neue Name is vom Marketing her schon ne gute Idee für die California. Die haben sich ja auch von dem FX im Namen verabschiedet*abgelehnt*

Ok, was die GF3 oder GF4 betrifft, hast Du natürlich recht, obgleich man nicht wirklich von einer "einfachen" Verbesserung sprechen kann. Es war sehr viel bugfixing dabei, außerdem kamen zusätzliche Transistoren ins Spiel. Im Großen und Ganzen hast Du allerdings Recht!
Ich hab' 'ne 6800 GT und kann Dir SCHWÖREN, das ich keine G70 kaufen werde ^^;;
Schade um das FX, aber NVIDIA hat so rumgemurkst mit den 5xxxern, das "FX" wirklich nur noch für lausige Performance steht (obgleich die Videoqualität und DUAL-Fähigkeit enorm gut ist), aber das ist OT.

Neugierig bin ich, ja, aber solange der neue Chip keine Sprünge wie von FX5900 auf 6800 GT verspricht, habe ich kein Interesse.



Übrigens, an alle Quäker wegen dem defekten Video-Prozessor: Es betrifft AUSSCHLIEßLICH die GeForce 6800 GT / 6800 Ultra AGP Reihe !!! Die PCI-E sind "bereinigt", ebenso die neueren 6800 nU's, von der 6600er Reihe sowieso abgesehen.

MASTER-STYX
17.05.2005, 13:52
skynet, du musst die adresse haben von der die mail geschickt wurde ;)

sag mal ^^


€dit:
wer so nen quatsch glaubt was da steht ist selber schuld :-X

TM30
17.05.2005, 14:26
abwarten und Tee rauchen, mehr soag i ned ;D (Hindl... ;) )

MASTER-STYX
17.05.2005, 14:46
n/c zu skynet ^^

R520 von ATI rock, mehr soag i ned ;D

Relic
17.05.2005, 15:24
Übrigens, an alle Quäker wegen dem defekten Video-Prozessor: Es betrifft AUSSCHLIEßLICH die GeForce 6800 GT / 6800 Ultra AGP Reihe !!! Die PCI-E sind "bereinigt", ebenso die neueren 6800 nU's, von der 6600er Reihe sowieso abgesehen.

Lest ihr den meine beiträge nicht? Das hab ich schon vor ner halben seite geschreiben :]


n/c zu skynet ^^

R520 von ATI rock, mehr soag i ned

Öhm dann kannste uns gerne mal die genauen daten zum R520 geben, wenn du weisst, dass sie rocken wird?

Peilo
17.05.2005, 15:28
Öhm dann kannste uns gerne mal die genauen daten zum R520 geben, wenn du weisst, dass sie rocken wird?

ja würde auch gerne ein paar finale daten haben wenn du dir so sicher bist,
das die rockt :P *buck*

weil wenn sie rockt *massa*

kaufen*massa*


OT:*massa*ist einfach nur mein Lieblings-Smile

gast0972
17.05.2005, 16:17
Lest ihr den meine beiträge nicht? Das hab ich schon vor ner halben seite geschreiben :]


Videoprozessor funktioniert seit den nv40 sprösslingen (z. B. nv43) wenn auch nur mit der nvidia software (aber das ist ja nur ne treiber sache).

Der Satz ist SO nunmal nicht korrekt; der VP funzt auch OHNE die NVIDIA-Software; sie ist nur für die 6800 GT / 6800 Ultra AGP notwendig. Für Letztere benötigst Du a) aktivierte FastWrites im BIOS, b) aktuelle ForceWare, c) den NVIDIA-DECODER (gibt's btw. GRATIS auf NVIDIAS FTP) und d) eine Abspielsoftware (dank NVIDIA-DECODER mit integriertem MPEG2-CoDec NICHT notwendig).


Meine Güte, was hier an Spam ist... sorry Leute, löscht den Mist und auch dieser Post wird verschwinden, aber so... Versuchen wir doch, den Thread hier lesenswert zu halten, okay?!

Danke.

??? *noahnung* ???

MASTER-STYX
17.05.2005, 16:25
high-end (R520)
-neue architektur
-90nm bei TSMC
-ca. 500 MHz Chiptakt
-24 Extreme Pixel Pipelines
-1.25 ns Speicher
-1400 - 1600 MHz Speichertakt
-256Bit Speicherinterface
-DX 9.0c, ShadelModel 3.0
-PCI-Express und AGP 8x
-über 300 Millionen Transistoren


deshalb wird ATi mehr rocken :P
und die werte kommen nicht von irgendeinem mail versender :P

Kamui
17.05.2005, 16:33
-1.25 ns Speicher
-1400 - 1600 MHz Speichertakt

Ach, und wo wollen die derartige ICs herbekommen? Von dir?



und die werte kommen nicht von irgendeinem mail versender :P
Ah, du hast dir das also ausgedacht... jetzt dämmerts mir ;D -;)

p4z1f1st
17.05.2005, 16:38
high-end (R520)
-neue architektur
-90nm bei TSMC
-ca. 500 MHz Chiptakt
-24 Extreme Pixel Pipelines
-1.25 ns Speicher
-1400 - 1600 MHz Speichertakt
-256Bit Speicherinterface
-DX 9.0c, ShadelModel 3.0
-PCI-Express und AGP 8x
-über 300 Millionen Transistoren


deshalb wird ATi mehr rocken :P
und die werte kommen nicht von irgendeinem mail versender :P

du solltest lieber mal deine Hausaufgaben für die Schule machen und dann später mit deinen Freunden aufm Spielplatz spielen gehn, statt so'n Blödsinn zu verbreiten :]

MASTER-STYX
17.05.2005, 16:41
wenn ihr wüsstet ;D

n/c

*bye2*

ich geh mal meine hausaufgaben machen und mit meinen freunden aufm spielplatz spielen pazifist :P

Peilo
17.05.2005, 16:45
und was soll ne fertige karte mit 512mb und 300Mio. Transistoren kosten?600-1000€?*rofl**rofl**rofl**rofl**rofl*

und selbst dann machen die nur 3-4€Gewinn weil die ic's so teuer sind oder wie? ???

selbst wenn die Daten stimmen sollten kann ich mir nich vorstellen, das die Mainstreamversionen noch ausreichend Leistung bringen, so wegen halbierung der des Speicherbusses, reduzierung der Pipes usw.

so long

MASTER-STYX
17.05.2005, 16:52
mainstream (RV530)
-neue architektur
-90 oder 110nm bei TSMC
-16 PixelPipelines
-256Bit Speicherinterface
-DX 9.0c, Shade Model 3.0
-PCI-Express und AGP 8x
-ca. 220 Millionen Transistoren

kommt kurz nach der R520er :P

preis der ICs sind nicht problematisch, die karten kommen erst ende dieses jahres heraus ...

vergesst nicht wasa die xbox360 haben wird, für unter 300 euro ;)

huch, meine freunde warten auf mich aufm spielplatz :P

*bye2*

SFVogt
17.05.2005, 17:05
das es derartige chips schon vorgestellt worden sein sollen hab ich auch schon gelesen...bis zu 800mhz ddr...aber die sollen noch nicht in serie geggangen sein und derzeit noch unwirtschaftlich teuer sein

...falls die neuen karten mit derartigen speicher kommen sollten...dürfte der preis wohl unverhältnismäßig teuer werden

...wo man sich dann fragt, wo ati noch nvidia ihren absatz haben will bzw haben wird *noahnung*

MASTER-STYX
17.05.2005, 17:10
am mainstream, innerhalb 4 monaten müssten die preise für high end (r520) sehr fallen :)


PS:
hab schon ne sandburg gebaut im sandkasten *buck*

andisaw
17.05.2005, 17:22
oh ich habe noch ein paar schwarze steinchen damit können wir die burg verzieren :)

habe ebend über die PS3 gelesen .. XDR-Speicher mit 3,2 G getaktet ...

http://www.computerbase.de/news/consumer_electronics/konsolen/sony/2005/mai/sony_playstation_3/

SFVogt
17.05.2005, 17:27
...ob eure sandkasten spiele hier wirklich reingehören ??? ...ich glaube kaum das einer dieser art kommentare wirklich lustig findet *noahnung*


Zusätzlich stehen der Playstation 3 256 MB XDR-Speicher der Firma Rambus zur Seite, der ebenfalls mit 3,2 GHz taktet und eine Anbindung mit 25,6 GB/s hat.

Dem Grafikchip stehen 256 MB GDDR3-Speicher mit 700 MHz zur Verfügung, der es somit auf 22,4 GB/s bringen.
...und der xdr speicher ist eher als hauptspeicher anzusehen und nicht als grafikkarten speicher

andisaw
17.05.2005, 17:42
ich meinte nur .. vielleicht hat ja ATI nicht vor DDR3 zu verwenden .. weil 1400 MHz ist heftig für DDR

SFVogt
17.05.2005, 17:50
bei DIESEM (http://www.computerbase.de/news/consumer_electronics/konsolen/microsoft/2005/mai/xbox_360_spezifikationen/) bericht über die neue xbox wird von 512MB DDR3 gesprochen...ich halte es für unwahrscheinlich das ati was anderes verweden wir für seine nächstes projekt

andisaw
17.05.2005, 17:54
die leistung der xbox-grafik-engine wird ja auch nur mit der der X700 verglichen von daher würd ich bezweifeln das da schon der neue drin steckt .. war ja auch nur son gedankenspiel :) .. neue architektur = eventuell neue speicheranbindung

Relic
17.05.2005, 19:51
mainstream (RV530)
-neue architektur
-90 oder 110nm bei TSMC
-16 PixelPipelines
-256Bit Speicherinterface
-DX 9.0c, Shade Model 3.0
-PCI-Express und AGP 8x
-ca. 220 Millionen Transistoren

kommt kurz nach der R520er :P

preis der ICs sind nicht problematisch, die karten kommen erst ende dieses jahres heraus ...

vergesst nicht wasa die xbox360 haben wird, für unter 300 euro ;)

huch, meine freunde warten auf mich aufm spielplatz :P

*bye2*

220 millionen transen im Mainstream sind wohl nicht zu realisieren, da viel zu teuer. (als vergleich der R420/480 hat jetzt im highend grade mal 160mio.)


oh ich habe noch ein paar schwarze steinchen damit können wir die burg verzieren

habe ebend über die PS3 gelesen .. XDR-Speicher mit 3,2 G getaktet ...

http://www.computerbase.de/news/con..._playstation_3/

Das ist Spiecher exklusiv für CPU und kommt von Rambus. Also müsste ATI das auch von Rambus lizensieren und ich bezweifel mal, dass sich sich so abhängig machen werden. Haben ja gesehen, was bei intel rauskam.


bei DIESEM bericht über die neue xbox wird von 512MB DDR3 gesprochen...ich halte es für unwahrscheinlich das ati was anderes verweden wir für seine nächstes projekt

Die 512MB sind aber unfied für CPU und GPU.


die leistung der xbox-grafik-engine wird ja auch nur mit der der X700 verglichen von daher würd ich bezweifeln das da schon der neue drin steckt .. war ja auch nur son gedankenspiel .. neue architektur = eventuell neue speicheranbindung

Das kommt von heise und die haben dabei nur die rohleistung des grafikchips betrachtet, aber in aktuellen/zukünftigen spielen kommt es viel mehr auf die shader leistung an und die ist wesentlich höher als die des x800 und vorallem sehr viel flexibler durch sm3 und unfied shaderarchitektur.

Peilo
17.05.2005, 23:46
220 millionen transen im Mainstream sind wohl nicht zu realisieren, da viel zu teuer. (als vergleich der R420/480 hat jetzt im highend grade mal 160mio.)



Verglichen mit jetztigen Hihg-Endchips von ATI-->Nvidia hat ja schon ca.220Mio. im
6800. Und ne 6800le is schon fast Mainstream ;)

http://www.geizhals.at/deutschland/?fs=6800le&in=

Relic
17.05.2005, 23:50
Die 6800Le ist ja auschussware der NV40 Produktion. Da sieht man ja das nvidia probleme mit dem yield hat, wenn sie das machen und wollen damit die Produktion rentabler gestalten (und das bei einem Highendchip).

RICHTHOFEN
18.05.2005, 00:22
Die 6800Le ist ja auschussware der NV40 Produktion. Da sieht man ja das nvidia probleme mit dem yield hat, wenn sie das machen und wollen damit die Produktion rentabler gestalten (und das bei einem Highendchip).

macht ATI genauso, also kein Unterschied zwischen beiden.
Offensichtlich ist Nvidia aber in der Lage mehr Transistoren zu verbauen und trozdem attraktive Produkte zu attraktiven Preisen zu bringen. Nebenbei steigen auch noch Umsatz und Gewinn. Also kann es so schlimm mit der Ausbeute nicht sein.

Vergleich doch mal dazu ATI. Im kompletten Mainstreamsegment unter 200 Euro verbauen sie weniger Transistoren als Nvidia und bringen trozdem nicht die Performance einer GF6600GT zu Stande - von den Preisen ganz zu schweigen.
Die 6600GT gibts für AGP ab 149 und für PCI-Express ab 129 Euro.
ATI bietet da nur die jämmerliche X700pro. Die X700XT ist ja gleich wieder gestrichen worden, weil zu heiss und zu beschissene Ausbeute und das bei weniger Transistoren als die 6600GT.

Relic
18.05.2005, 00:37
macht ATI genauso, also kein Unterschied zwischen beiden.
Offensichtlich ist Nvidia aber in der Lage mehr Transistoren zu verbauen und trozdem attraktive Produkte zu attraktiven Preisen zu bringen. Nebenbei steigen auch noch Umsatz und Gewinn. Also kann es so schlimm mit der Ausbeute nicht sein.

Vergleich doch mal dazu ATI. Im kompletten Mainstreamsegment unter 200 Euro verbauen sie weniger Transistoren als Nvidia und bringen trozdem nicht die Performance einer GF6600GT zu Stande - von den Preisen ganz zu schweigen.
Die 6600GT gibts für AGP ab 149 und für PCI-Express ab 129 Euro.
ATI bietet da nur die jämmerliche X700pro. Die X700XT ist ja gleich wieder gestrichen worden, weil zu heiss und zu beschissene Ausbeute und das bei weniger Transistoren als die 6600GT.

Was hat das jetzt mit dem thema zu tun, dass ich meine, dass 220 Mio. Transistoren für Mainstream zu viel sind?

SKYNET
18.05.2005, 00:43
Irgendwas wurmt mich dennoch; wieso sollte NVIDIA einem "Refresh" eine neue Nummer aká GeForce 7 zuordnen? Üblicherweise macht NVIDIA das nur bei neuen Chipdesigns; dieser "Refresh" ist aber kein Redesign...

...ich denk' mal, das was rauskommen wird, ist nicht das was wir hier alle vermuten... ;D


nö, geforce4 war auch nur nen aufgebohrter geforce3.

SKYNET
18.05.2005, 00:46
high-end (R520)
-neue architektur
-90nm bei TSMC
-ca. 500 MHz Chiptakt
-24 Extreme Pixel Pipelines
-1.25 ns Speicher
-1400 - 1600 MHz Speichertakt
-256Bit Speicherinterface
-DX 9.0c, ShadelModel 3.0
-PCI-Express und AGP 8x
-über 300 Millionen Transistoren


deshalb wird ATi mehr rocken :P
und die werte kommen nicht von irgendeinem mail versender :P


die 300mio. transen sind ziemlich unwahrscheinlich, dürften ca. 30-50mio. mehr sein als beim r420.

SFVogt
18.05.2005, 00:48
nö, geforce4 war auch nur nen aufgebohrter geforce3.
...hatte aber immernoch die "nv" typenbezeichnung aber keine völlig andere bezeichnung wie jetzt "G70"

sth
18.05.2005, 01:28
Das mit dem G70 hat vermutlich einen ganz simplen Grund: Der übliche +5-Codename für den Refresh-Chip ging ja nicht, weil das schon vom NV40+PCIe-Bridge verwendet wird. NV48 würde zwar noch gehen aber wo ist dann der Platz für die etwas kleineren Chips (falls geplant)?

Und da der NV50 sicher schon seit längerer/langer Zeit in der Entwicklung ist wäre es ein zu großer Aufstand, jetzt den Namen überall umzuändern und den jetzigen G70 so zu nennen. Ergo verlässt man man kurz das bisherige Namensschema.

SFVogt
18.05.2005, 01:49
...naja...so richtig einleuchtend scheint mir deine erläuterung auch nicht zu sein ?! ...da frag ich ja wieder warum nicht "G4x" ??? sondern gleich die "70" die damit ja rein garnicht zu tun hat ?!?!

mibo
18.05.2005, 08:23
Habt ihr die PS3 News gelesen?
http://www.heise.de/newsticker/meldung/59620
Da hat nVidia 128Bit rendering bei der zweifachen Leistung einer 6800Ultra reingebaut - würde mich nicht wundern, wenn das der G70 sehr ähnlich wäre.

mibo

MASTER-STYX
18.05.2005, 08:53
RV530 wird mind. 220 Millionen Transistoren haben
mir waYne wenn ihr es mir nicht glaubt :P

geforce 6800GT karten gibts schon für 240 Euro !
220 Mill. Transisotren, 16 Pipes, SM3 ...

highend, zum preis von mainstream ;)

MASTER-STYX
18.05.2005, 09:24
die 300mio. transen sind ziemlich unwahrscheinlich, dürften ca. 30-50mio. mehr sein als beim r420.


*suspect* meinst doch nicht in ernst ?

mibo
18.05.2005, 13:01
Jetzt scheint ja einiges geklärt zu sein ;D

http://www.vr-zone.com/?i=2206&s=1

vosmic
18.05.2005, 13:06
Hier mal auf deutsch:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/mai/neuigkeiten_g70-chip_nvidia/

22 JUNI VORSTELLUNG!


Netzteilspecs?
http://pics.computerbase.de/news/10900/1.jpg

foenfrisur
18.05.2005, 14:14
top...
zumindest können x800 user scheinbar ihre karten mit einem sli-brett mit ati´s mvp betreiben, wegen des externen connectors ;D

http://www.theinquirer.net/?article=23265

mfg

Relic
18.05.2005, 14:23
Habt ihr die PS3 News gelesen?
http://www.heise.de/newsticker/meldung/59620
Da hat nVidia 128Bit rendering bei der zweifachen Leistung einer 6800Ultra reingebaut - würde mich nicht wundern, wenn das der G70 sehr ähnlich wäre.

mibo

128Bit Rendering kann nvidia schon seit dem NV30 (das is Marketinggeblubber für 4x32RGBA, was z. B. von dem NV40 bei HDR verwendung findet)

Relic
18.05.2005, 14:25
RV530 wird mind. 220 Millionen Transistoren haben
mir waYne wenn ihr es mir nicht glaubt :P

geforce 6800GT karten gibts schon für 240 Euro !
220 Mill. Transisotren, 16 Pipes, SM3 ...

highend, zum preis von mainstream ;)

Mainstream ist wohl eher die 150€ klasse, z. B. das was in vielen oem PCs verbaut wird (also der volumenträchtige Markt)

Relic
18.05.2005, 14:27
Hier mal auf deutsch:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/mai/neuigkeiten_g70-chip_nvidia/

22 JUNI VORSTELLUNG!


Netzteilspecs?

_pic_



Also schonmal kein stromsparwunder, was von einigen prognostiziert wurde.

Und noch ein paar spekulative daten, die sich mit den erwartungen decken.

mibo
18.05.2005, 14:28
@Relic:
Danke für die Info. Das wusste ich nicht.
Es bezieht sich also nicht auf die Bit/Pixel, die im Bildspeicher gehalten werden !?

Relic
18.05.2005, 14:33
@Relic:
Danke für die Info. Das wusste ich nicht.
Es bezieht sich also nicht auf die Bit/Pixel, die im Bildspeicher gehalten werden !?

Doch aber es werden halt 4x32bit informationen gespeichert und das wird dann im Marketing zu 128bit.

JCDenton
18.05.2005, 14:41
Naja, falls die Spezifikationen da zutreffend sein sollten muss nVidia m.E. an der GPU etwas mehr getan haben, als 8Pipes dazu zu klatschen und den Speichertakt um 150Mhz erhöhen, wenn sie ernsthaft was reissen wollen - 2 zusätzliche ALUs/Pipeline wären imho schon mal ein guter Anfang ;D (zusätzlich von einer dedizierten Textureinheit)


so long

JCD

xxmartin
18.05.2005, 15:19
Hm, nur die 7800 GTX SLI-fähig? Das wird aber ein teurer Spaß ... naja, abwarten wie die Specs aller finalen Karten dann tatsächlich sind.

Aber wenn sich die 7800 GTX im 450-500€ Segment der bisherigen 6800 Ultras einordnet, wär's ok.

vosmic
18.05.2005, 15:38
top...
zumindest können x800 user scheinbar ihre karten mit einem sli-brett mit ati´s mvp betreiben, wegen des externen connectors ;D

http://www.theinquirer.net/?article=23265

mfg

Fuad ???

MASTER-STYX
18.05.2005, 15:48
xxmartin, ja

Fuad Abazovic, kommt aus bosnien, redakteur bei the inquirer :)

foenfrisur
18.05.2005, 16:10
@foe(h)nfrisur
Nu aber... aufräumen! ;D Die Sig ist Dein Aushängeschild und Du willst doch wohl keinen schlechten Eindruck machen :)


@OT zum ² extreme
*party* *chatt* *buck*
so, habe fertig ...
befehl erfolgreich ausgeführt


mfg

vosmic
18.05.2005, 16:11
xxmartin, ja

Fuad Abazovic, kommt aus bosnien, redakteur bei the inquirer :)
Das ist klar. Nur ist das natürlich dann eine fragwürdige Quelle.

MASTER-STYX
18.05.2005, 16:42
dass AMR nen zusätzlichen stromanschluss braucht ist ja klar oder ;D
ich meine, ich habs mir auch so vorgestellt

foenfrisur, lass dich nicht unterkriegen *yeah*

James Ryan
18.05.2005, 16:42
Naja, falls die Spezifikationen da zutreffend sein sollten muss nVidia m.E. an der GPU etwas mehr getan haben, als 8Pipes dazu zu klatschen und den Speichertakt um 150Mhz erhöhen, wenn sie ernsthaft was reissen wollen - 2 zusätzliche ALUs/Pipeline wären imho schon mal ein guter Anfang ;D (zusätzlich von einer dedizierten Textureinheit)


so long

JCD

Wer hat denn wirklich mehr erwartet? *noahnung*
Würde mich nicht wundern wenn NVIDIA mit dem Takt sogar noch weiter runter geht, vor allem beim Speicher.
Wegen letzteres können wir eh wieder monatelang auf die Karten warten. :]

MfG 8)

SFVogt
18.05.2005, 16:46
...keine "ultra" bei der 7xxx reihe ?!?!? ...kann ich nicht glauben! ...die warten bestimmt wieder ab was ati leistet und schieben eventuell noch nen höher getaktetes "ultra" model nach ;)

foenfrisur
18.05.2005, 16:49
dass AMR nen zusätzlichen stromanschluss braucht ist ja klar oder ;D
ich meine, ich habs mir auch so vorgestellt

foenfrisur, lass dich nicht unterkriegen *yeah*


keine sorge...
und es heißt MVP ;)


mfg

vosmic
18.05.2005, 19:31
@OT zum ² extreme
*party* *chatt* *buck*
so, habe fertig ...
befehl erfolgreich ausgeführt


mfg
Das ist schon viel besser ;D
Jetzt noch ein passendes Benutzerbild:
http://www.bollay.de/2hassen/Bilder/frisur_jpg.jpg
Dann ist das ne runde Sache...
Weiter so :)

foenfrisur
18.05.2005, 20:28
*lol* *lol* *lol* *lol* *greater* *great* *rofl* *rofl* *rofl* *rofl* *rofl*


mfg (bald mit neuem pic?!)

Relic
18.05.2005, 20:28
könnt ihr den nicht mal euer offtopic gelaber in die pms verlagern?

themk
18.05.2005, 22:57
...naja...so richtig einleuchtend scheint mir deine erläuterung auch nicht zu sein ?! ...da frag ich ja wieder warum nicht "G4x" ??? sondern gleich die "70" die damit ja rein garnicht zu tun hat ?!?!


"7" wegen GeForce 7?

Hübie
18.05.2005, 23:22
@vosmic und offtopic :)

du hast da einen rechtschreibfehler in deiner sig. speziell in diesem wort "funktionlstruckturelle"
klingt ja klug, sieht aber blöde aus, wenn die rechtschreibung nicht stimmt :)

is so wie:
Das maximale Volumen subterrarer Agrarprodukte steht in reziproker Relation zur intellektuellen Kapazität ihrer Produzenten.
--
Der Intelligenzquotient eines Agrarökonomen ist reziprok proportional dem Volumen diverser von ihm kultivierter Feldfrüchte.
--
Die Qualität und Quantität der subterranen Agrarproduktion steht in reziproker Relation zum Intelligenzquotienten des Erzeugers.
--
Die voluminöse Expansion subterraner Agrarprodukte steht in reziproker Relation zur geistigen Kapazität des Erzeugers.

auf gut deutsch: Die dümmsten Bauern ernten die dicksten Kartoffeln


mfg
*spam on*
Das maximale Volumen subterrarer Agrarerzeugnisse steht in reziproker Relation, welche exponentiell ansteigt/abfällt, zur interlektuellen sowie spirituellen Kapazität ihrer, landwirtschaftlich tätigen, Produzenten.
*spam off*

Also was mit dem G70 ist, sollte doch denen, die ne Karte der neuen Generation ham ersma Wurst sein - oder wollt ihr gleich wieder aufrüsten??
Ich denke schon, das allein auf Grund der Kosteneffizienz, erstmal ein remakechip entsteht.

Warum wird hier eigentlich behauptet, das ATi nur remakes macht?! Seht euch doch mal die Architekturen an.
Klar wurde teils nur oben n bissl aufgegossen, aber das hat man überall.
(VW Golf, Quake/Doom³-Engine oder GameStar - das Gerüst bleibt bestehen)


bye Hübie

SFVogt
18.05.2005, 23:26
"7" wegen GeForce 7?
...wer weiß?! ...aber nv4x war ja auch die 6er reihe...also irgendwie alles merkwürdig...ich glaube auch fast das da noch was anderes dahinter steckt ?!?! *noahnung*

vosmic
19.05.2005, 09:52
*spam on*
Das maximale Volumen subterrarer Agrarerzeugnisse steht in reziproker Relation, welche exponentiell anstiegt, zur interlektuellen sowie spirituellen Kapazität ihrer, landwirtschaftlich
??? Komm noch mal neu ;D

Nochmal zu ATI:
Argh. Falscher Link. Die Geschichte ist ein Jahr alt...

Hübie
19.05.2005, 11:57
??? Komm noch mal neu ;D

Nochmal zu ATI:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/chat_ati_2100_uhr/
Bin mal gesapannt wie die sich aus dem Schlamassel herausreden. Aber immerhin sie gehen in die Offensive :]

Hä worum gehts da? Filteroptimierungen?? Wo? Welche? Find das net im Forum....


bye Hübie
ps: hab editiert :P

mibo
19.05.2005, 12:24
@vosmic:
19.Mai 2004 !!!

Oder war das nen Scherz?

vosmic
19.05.2005, 12:44
@vosmic:
19.Mai 2004 !!!

Oder war das nen Scherz?

Aus der Rubrik:
Heute vor einem Jahr:
:P

foenfrisur
19.05.2005, 13:32
na super...
da stehn einem ja die haare zu berge...

hier nochmal watt interessantes zum fudo...
das das game da flüssig lief, sagt mal wieder nix, außer das er läuft...

http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1116492826

und flüssigmetallkühlung...

http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1116491589


mfg

TM30
19.05.2005, 13:40
flüssigmetallkühlung...

der Anfang vom Ende!

Skynet! (die Firma, nich der User *chatt*)
der T-1000
Astalavista, baby

das wars!

foenfrisur
19.05.2005, 14:08
ich mein ich weiß ja auch nicht, wieviel oder wenig metall da drin ist, aber leichter wird sie sicher nicht...
mal sehen, wann der erste kühlturm für den pc kommt

mfg

Hübie
19.05.2005, 14:11
der Anfang vom Ende!

Skynet! (die Firma, nich der User *chatt*)
der T-1000
Astalavista, baby

das wars!

Na das wär doch n Brett! *lova*


bye Hübie
ps: Gonzo wo findest du immer so einen Mist??

MASTER-STYX
19.05.2005, 14:23
wer ist gonzo ;D

12 °C `? geht doch nicht ;D
oder war die raumtemperatur unter 0°C ? *chatt*
wahrscheinlich war die karte nichtmal unter volllast *buck*


T1000 *lol* *lol* *lol* *lol* *lol* *lol* *wegbrech* *lol* *lol*


PS:
http://www.gamezoom.de/artikel/show/0,162843,1,11214.html

die haben sich verschrieben gg :D
AMR ist 2.5 mal so schnell wie SLI mit 6800U, mit 2 karten, nicht mit einer, ^__^

vosmic
19.05.2005, 14:39
na super...
da stehn einem ja die haare zu berge...

hier nochmal watt interessantes zum fudo...
das das game da flüssig lief, sagt mal wieder nix, außer das er läuft...

http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1116492826

und flüssigmetallkühlung...

http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1116491589


mfg

Flüssigmetallkühlung *chatt*
Das wär ja mal was. Kann ich aber irgendwie nicht so ganz glauben. 12Grad ?
http://www.actuacine.net/Wallpapers/Wall_T1000.jpg
Wenn der Kühler dann noch so aussieht... kauf ich nur noch ATI

MASTER-STYX
19.05.2005, 14:44
so ne blechbüchse passt eher zu nVidia *chatt*

http://www.tjhsst.edu/~yzhang1/techlab/research/research_paper/t1000.jpg

ich glaub der muss mehr als 12°C haben *chatt*


ich glaub der braucht ne FOENFRISUR *party* *party* *party2* *lol* ^__^

vosmic
19.05.2005, 19:47
Mal wieder was von Fuad. Infos von der E3:
http://www.theinquirer.net/?article=23325


MfG

foenfrisur
19.05.2005, 20:01
das finde ich sogar noch glaubwürdig, wenn man bedenkt, das er eine singleslotkühlung haben soll...und auch genug taktspielraum nach oben
dennoch hieß es am anfang, das sie 130nm oder 110nm verwenden werden woll(t)en...
und wieder mal die divise: abwarten )(( *wegpenn*

mfg

foenfrisur, die wo auch gonzo is...bin eben sehr facettenreich... nase wie gonzo und ne foenfrisur...super

MASTER-STYX
19.05.2005, 20:50
abwarten und haare foenen ;D

ne frage, was sind denn jetzt die 10 MB EDRAM im R500er ?
der R520er hats ja nicht oder ?

für mich sieht es aus wie bei einer CPU der L2 ... die stufe vor dem grafikspeicher :]

oder ?

aber warum hat dann der R520er keinen, wenn es die GraKa schneller macht ?


bist du jetzt die oder der foenfrisur ? : ) weiss noch immer nicht wer gonzo ist : )
... das haarstudio in deiner sig... ist es deins ;D ?

alzen
19.05.2005, 21:17
Wird ja immer interessanter:o.
Wenn der Inq ausnahmsweise(;)) mal keinen Lötzinn verzapfen sollte, würde der G70 zu Recht den Titel Geforce7 tragen und ATI könnte mit ihrem Fudo(oder wie das Teil sich schimpft*noahnung*) einpacken 8)

Das Argument, dass 10MB Cache zuteuer würden, haut zwar überhaupt nicht hin...eine ganze P3 kostet ja nur 300$, dann muss es ja auch möglich sein eine Graka der 400€ Klasse damit auszustatten:].

Das aktuellste Gefasel vom Inq. klingt für mich logischer und glaubwürdige als die Specs, die vor ein paar Tagen veröffentlicht wurden, immerhin erzählt NV&Co(ok, ist Marketinggeblubber:]), dass der G70 einzel die Leistung eines 68U SLI Gespanns hat.
Mit den Daten von vr-zone wäre das aber nicht mal ansatzweise zuschaffen.

Des Weiteren traue ich NV blind zu, selbst so kurz nach dem erfolgreichen NV40, wieder ein komplett neues Design auf den Markt zuschmeißen.(auf jeden Fall eher, als dass ATI endlich mal was neues auf die Beine stellt;))

Aber wir werdens ja bald wissen, was es wirklich mit dem G70 auf sich hat; hoffe aber mal das Nvidia ATI mal richtig zeigt wo der Hammer hängt;D. Dann würden die Roten hoffentlich endlich was GANZ neues basteln und nicht nur eine aufgemotzte 9700:-X. Vll lernen sie dabei auch wie man einen ordentlichen Treiber programmiert:].

mfg
alzen

Relic
19.05.2005, 22:08
*spam*

ne frage, was sind denn jetzt die 10 MB EDRAM im R500er ?
der R520er hats ja nicht oder ?

..

aber warum hat dann der R520er keinen, wenn es die GraKa schneller macht ?

*spam*

Weil 10MB grade für den framebuffer einer konsole reichen, aber bei den PC üblichen auflösungen und AA leveln einfach zu wenig ist und mehr als 10mb viel zu teuer sind.

MASTER-STYX
19.05.2005, 22:44
versteh ich noch immer nicht *buck*

-der 10 MB puffer, ist garkein richtiger grafikHAUPTspeicher ? -ja ?
-haben die XBOX360 einen zusätzlichen grafikspeicher zu den EDRAM ? -ja ?
-warum wird die R500 einen 10 MB EDRAM haben und die R520 nicht, obwohl die R520er schneller sein soll !?!


:)

Relic
20.05.2005, 01:45
versteh ich noch immer nicht *buck*

-der 10 MB puffer, ist garkein richtiger grafikHAUPTspeicher ? -ja ?
-haben die XBOX360 einen zusätzlichen grafikspeicher zu den EDRAM ? -ja ?
-warum wird die R500 einen 10 MB EDRAM haben und die R520 nicht, obwohl die R520er schneller sein soll !?!


:)

Also mal anders:

-Für was ist der grafikHAUPTspeicher da? -Texturen und und verschiedene Buffer.

-Als was wird edram eingesetzt? - Eine sehr schnelle ERGÄNZUNG zum dem hauptspeicher, also man speichert da drinne das selbe wie im Hauptspeicher, nur man kann flaschenhälse beseitigen.

-Was passt bei aktuellen/zukünftigen spielen in einen 10MB edram und braucht viel bandbreite? -Der Framebuffer aber auch nur in bestimmten situationen (Auflösung/AA dürfen nicht zu hoch sein, da sonst der Speicherbedarf zu hoch wird). Alles andere braucht zu viel platz oder ist nicht so bandbreitenabhängig.

-Reichen 10MB für die aktuell auf Highendkarten verwendeten Auflösungen und AA-Leveln? -Nein

-Reichen 10MB edram für 720p HDTV auflösung und 2xAA, wie es die xbox360 wohl in den meisten spielen bieten wird? -Ja(maybe auch für 4xAA aber dazu müsste ATI etwas an ihrem AA modus geändert haben)

-Also ist es sinnvoll edram atm in PC-grafikchips einzubauen? -Nein, da es nicht genug speicherplatz für eine sinnvolle anwendung hätte.

Btw wer sagt das der R520 schneller als der R500 wird (und unter welchen Aspekten?)? Mal davon abgesehen, dass es 2 total verschiedene Architekturen sind und davon abgesehen, dass das eine ein PC-chip und das andere ein konsolen-chip ist, was sie schonmal überhaupt nicht vergleichen lässt.

SFVogt
20.05.2005, 02:55
wie erklärst du dir dan die namensgebung seitens ati ?!?! so verschieden können die chips garnicht sein...sonst würde ati nicht ansatzweise den gleiche codenamen verwenden "R5xx" ;)

in der xbox war auch nur ein leicht abgewandelter geforce3 ...hatte irgendwie den namen NV2A wenn ich mich nicht irre...also auch ähnlichkeit mit dem pc grafikchips

...das einzige was hier rein garnicht in das konzept passt ist eben der G70... ??? bin mal gespant was da noch so ans tageslicht kommt demnächst

Relic
20.05.2005, 04:24
naja eigentlich wird das ganze ein bischen zu offtopic aber egal:

R500: Unified Shader wie sie erst mit WGF 2.0 (Longhorn) auf dem PC eingeführt werden, edram und auch ein paar andere nette gimmicks (nachzulesen hier: http://www.techreport.com/etc/2005q2/xbox360-gpu/index.x?pg=1)

R520(sehr wahrscheinlich): DX9 design, SM 3.0 unterstützung, herkömmliches Quaddesign

Wie und woher ATI jetzt ihre namensgebung nimmt ist mir eigentlich reichlich egal.
Genauso wie bei Nvidia.

Wieso guckt ihr eigentlich immer auf die codenamen und versucht irgendwas reinzuinterpretieren. Setzt auch doch mal mit dem auseinander was wir wissen oder zumindest glauben zu wissen ;)

SFVogt
20.05.2005, 04:31
...jo...aner nis jetzt ist alles nur spekulation :] ...wer weis, vielleicht spekuliere ich mich ja auch...aber deine annahmen stehen ja auch nicht auf festen boden sondern auf gerüchten...

...auserdem warum gehts hier eig um den r5xx von ati ?!?! ...soweit ich weiß gehts hier um den G70...

...ich aute mich jetzt mal hier klar: es lebe nVidia - puhhh ATI *lol*

Relic
20.05.2005, 04:43
...jo...aner nis jetzt ist alles nur spekulation :] ...wer weis, vielleicht spekuliere ich mich ja auch...aber deine annahmen stehen ja auch nicht auf festen boden sondern auf gerüchten...

...auserdem warum gehts hier eig um den r5xx von ati ?!?! ...soweit ich weiß gehts hier um den G70...

...ich aute mich jetzt mal hier klar: es lebe nVidia - puhhh ATI *lol*

Nö die R500 informationen sind sicher, da, wenn du den link gelesen hättest, hättest du gesehen, dass diese von Bob Feldstein, Vice President of Engineering bei ATI stammen.

Und das der R520 keine unified shader hat ist auch sicher, da dies DX9 einfach nicht unterstützt und es noch ewigkeiten zu WGF 2.0 sind.

Und zum thema offtopic: In dem thread wurde schon über sigs, nicks,
und avatare diskutiert da sind wir hier noch ziemlich nah am thema ;)

SFVogt
20.05.2005, 05:58
...ich meinte auch nur die spekulation über den r520...das die daten dea r500 für die box raus sind hab ich auch schon gelesen

vosmic
20.05.2005, 08:30
Und zum thema offtopic: In dem thread wurde schon über sigs, nicks,
und avatare diskutiert da sind wir hier noch ziemlich nah am thema ;)
1. siehst Du genau richtig
2. hab auch nichts dagegen wenn über Ati spekuliert wird
3. Setzt man allerdings beides ins "Topic" so hat man meist nur Fanboygeflame.
4. ein bisschen Offtopic trägt zur Auflockerung bei (wenn man es nicht übertreibt/sowas reguliert sich aber meist von selbst)

Noch mal eine Ergänzung zur Flüssigmetallkühlung:
http://www.computerbase.de/news/hardware/grafikkarten/2005/mai/sapphire_fluessigmetallkuehlung/
http://pics.computerbase.de/news/10922/2.gif
MfG

MASTER-STYX
20.05.2005, 09:44
ich glaub dass die temp von solchen grafikkarten 15°C über raumtemperatur geht ...
also ca. 38°C unter last, und 33°C idle ?!?!

12°C ist absolut unrealistisch *suspect*

mibo
20.05.2005, 10:39
Das sehe ich auch so.
Es kann nicht unter Raumtemperatur gehen!

Metall - steht wohl nur für kleinste (unter 1µm) Metall "Krümel", die mit Magnetfeldern (durch den Kühlkreislauf) bewegt werden. Wegen der geringen Größe nehmen sie auch die Flüssigkeit mit in der sie schwimmen - dadurch entfällt die mechanische Pumpe.

foenfrisur
20.05.2005, 11:19
zur ähnlichkeit...r500 und r520...die müssen nicht soo ähnlich sein, weil ati nur das chipdesign quasi gesponsort hat und die produktion etc. direkt an microsoft, die dann die produktion in eigenregie übernehmen, abgegeben hat. ms lässt sie also bei tsmc fertigen.
die sind also eher getrennt gelaufen. denke daher auch, das die namensgebung daherrührt, das man den ja schlecht r300 oder so nennen kann...an r500 sieht man die ati nähe und das sie eben ordentlich feuer hat für ne konsole, ähnlich wie der fudo im pc-bereich. das muss nich zwangsläufig mit der architektur zu tun haben. meine meinung.


mfg

foenfrisur
20.05.2005, 11:28
hier nochmal specs...und evtl. neuigkeiten??
weil ein paar sachen waren ohnehin schon bekannt...

http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1116532835

http://www.ati-news.de/Bilder/News/Nvidia/78003.jpg
http://www.ati-news.de/Bilder/News/Nvidia/78002.jpg


edit (<- is auch nen frauenname): find den letzten satz interessant

mfg

James Ryan
20.05.2005, 15:22
hier nochmal specs...und evtl. neuigkeiten??
weil ein paar sachen waren ohnehin schon bekannt...

http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1116532835

http://www.ati-news.de/Bilder/News/Nvidia/78003.jpg
http://www.ati-news.de/Bilder/News/Nvidia/78002.jpg


edit (<- is auch nen frauenname): find den letzten satz interessant

mfg

Ok, damit dürfte der G70 chancenlos gegen den R520 sein!

MfG 8)

NoHopeNoFear
20.05.2005, 15:31
http://www.theinquirer.net/?article=23325

Hübie
20.05.2005, 16:17
Ok, damit dürfte der G70 chancenlos gegen den R520 sein!

MfG 8)

Abwarten, was sich in der Praxis ergibt ;) 8)
Bin zwar auch ATi-Jünger, aber Skepsis sollte trotzdem immer mitschwingen...


bye Hübie

foenfrisur
20.05.2005, 16:22
also is die meldung mit 90nm auch schonmal wieder mist von the inqu.
denn da steht ja 110nm.

mfg

tuskbs
20.05.2005, 16:23
Sorry ich zu faul den ganzen Thread durchzulesen und hoffe, daß noch keiner diese Frage gestellt hat.

Ich frage mich,

1. Wieviel werden die beiden neuen Karten kosten (G70, ATI Pendant)
2. Eigentlich wollte ich am Montag ne 6800GT PCI-e bestellen. Ich könnte aber noch bis max. Ende Juni warten. Falls bis dahin die neuen da sind könnte ich gleich die kaufen. Allerdings weigere ich m ich mehr als 399 Euronen für ne GraKa auszugeben.

Nochmals ich hoffe Ihr habt das nicht schon bis zum abwinken diskutiert...

PS: Diese Forum ist einfach genial, Dank an alle fleissigen Poster und die Admins. *massa*

Gruß,

Ben

Hübie
20.05.2005, 16:27
Afaik ~500€... Aber du kannst sicher sein, das es wieder verschiedene Modelle gibt, wie jetzt eben 6800xx und 6600xx sowie 6200xx usw...
Also wenn ich du wär (was ich zum Glück net bin :P) dann würd ich in den nächsten Wochen zur 6800GT AGP für ~250€ greifen!


bye Hübie

SKYNET
20.05.2005, 16:29
*suspect* meinst doch nicht in ernst ?


doch, eher weniger, da der chip ja weiterhin 16 pipes hat und nur SM3.0 dazubekommt, das wars. :-X

SKYNET
20.05.2005, 16:31
Hm, nur die 7800 GTX SLI-fähig? Das wird aber ein teurer Spaß ... naja, abwarten wie die Specs aller finalen Karten dann tatsächlich sind.

Aber wenn sich die 7800 GTX im 450-500€ Segment der bisherigen 6800 Ultras einordnet, wär's ok.


wenn sie rauskommt wohl eher im 520-650€ segment...
so wie immer. 8)

tuskbs
20.05.2005, 16:45
Wenn ich mich recht erinnere kamen die 6800GT's so bei € 499 auf den Markt und haben sich dann in der Hauptphase auf +/- € 399 eingependelt (Ultra Variante €100 mehr). Als meine GF 2 Ultra 64MB rauskam hat sie $ 449 gekostet und ich hab sie dann für $ 349 gekauft.

Wäre es nicht logisch, daß sich die G70er änlich verhalten werden. Villeicht € 50 mehr, aber dann ist Schluß, sonst kauft die doch keiner.


Odääääää?

SKYNET
20.05.2005, 16:47
der Anfang vom Ende!

Skynet! (die Firma, nich der User *chatt*)
der T-1000
Astalavista, baby

das wars!



metall/material durch spannung in unterschiedliche formen zu bringen gibt es schon lange, flüssige metalle die das können gibt es soweit ich weiß auch schon.. also theoretisch möglich einen T1000 zu "schaffen"







die haben sich verschrieben gg :D
AMR ist 2.5 mal so schnell wie SLI mit 6800U, mit 2 karten, nicht mit einer, ^__^


marketing geblubber, alleine die "kümmerliche" füllrate vom R520 langt nicht dafür aus, und die bandbreite dürfte auch zum engpass werden(so wie sie auch beim G70 zum engpass werden wird).

hat nur 16 pipes, daher keine gefahr.

füllrate 2x 6800U @ SLI = 425 x 2 x 16 = 13600M
füllrate 2x r520 @ AMR = 700(eher 650MHz) x 2 x 16 = 20800M
heißt es kann maximal 76.5% schneller sein als ein 6800U SLI gespann

füllrate 2x G70 Ultra @ SLI = 430(eher 450MHz) x 2 x 24 = 20640M

und wenn man nun mal die aktuellen karten vergleicht:
6800U = 425 x 16 = 6800M
X800XTPE = 520 x 16 = 8320M

trotz 22.35% mehr füllrate ist die XTPE nur gleich schnell wie ne 6800U...
will damit sagen, das NV mit der nächsten gereation füllraten mäßig ziemlich gleich mit ATI ist, und darum wird auch der kampf zugunsten für NV ausgehn, da sie den takt und die füllrate besser umsetzen.

James Ryan
20.05.2005, 16:49
Abwarten, was sich in der Praxis ergibt ;) 8)
Bin zwar auch ATi-Jünger, aber Skepsis sollte trotzdem immer mitschwingen...


bye Hübie

Ich bin kein ATi- oder NVIDIA-Jünger, nur Realist!
Sollte der G70 wirklich nur ein auf 24 Pipes erweiterter NV40 sein, hat ATi wirklich leichtes Spiel.
Man muss sich nichts vormachen, die X850 XT PE ist zur Zeit schneller als alle vergleichbare NVIDIA Chips. Verpasst man diesem Chip dann noch SM3 und mehr Pipes, siehts übel aus für den G70.
Was würde dann noch für ihn sprechen, im Gegensatz zum R520?
SM3? SLI? Wird der R520 auch haben!

MfG 8)

SKYNET
20.05.2005, 16:50
Ich bin kein ATi- oder NVIDIA-Jünger, nur Realist!
Sollte der G70 wirklich nur ein auf 24 Pipes erweiterter NV40 sein, hat ATi wirklich leichtes Spiel.
Man muss sich nichts vormachen, die X850 XT PE ist zur Zeit schneller als alle vergleichbare NVIDIA Chips. Verpasst man diesem Chip dann noch SM3 und mehr Pipes, siehts übel aus für den G70.
Was würde dann noch für ihn sprechen, im Gegensatz zum R520?
SM3? SLI? Wird der R520 auch haben!

MfG 8)


der R520 bekommt keine 24 pipes.... nur mehr takt, das wars.

James Ryan
20.05.2005, 16:51
hat nur 16 pipes, daher keine gefahr.


Redest du vom R520? Woher weißt du dass dieser nur 16 Pipes haben wird?
Ist eher unwahrscheinlich, ATi ist doch nicht doof! ;D

MfG 8)

SKYNET
20.05.2005, 16:53
Redest du vom R520? Woher weißt du dass dieser nur 16 Pipes haben wird?
Ist eher unwahrscheinlich, ATi ist doch nicht doof! ;D

MfG 8)


wer auf 3DC liest weiß halt mehr... :P

tuskbs
20.05.2005, 16:57
OT: Vor mir liegen grade 4 ASUS 6800GT (bin auf Arbeit, wir verleihen die Dinger). Und meine Boss, der fiese Sack, wird sich 2 von denen in seinen neuen Spiele-Rechner einbauen. Ich darf mir nichmal eine ausleihen (wir vermieten die Dinger gerade 3 mal im Jahr) *motz* .

RICHTHOFEN
20.05.2005, 17:49
also is die meldung mit 90nm auch schonmal wieder mist von the inqu.
denn da steht ja 110nm.

mfg

Originalposting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2232486)

nö die ist kein MIst die Meldung. der Inquire ist nur halt zu blöd die Sachen auseinander zu halten. Wer dem Nvidia Management genau zuhört, weiss dass es noch dieses Jahr 0.09 von ihnen geben wird.
Nur ist das eben einem Refresh vorbehalten. Macht ja auch Sinn, Jetzt ist schneller Speicher eh begrenzt nur verfügbar. Da reicht auch 0.11 und weniger Takt.
Vielleicht fragt ihr euch mal wieso in den Folien nirgends von einer GF7800Ultra die Rede ist :)
Wer 1 und 1 zusammenzählen kann kommt auf 2 und weiss was gegen Ende des Jahres angesagt ist.
Erstmal kommt der G70 und dann kommt der R520 und dann hat Nvidia genügend Infos um den 0.09 Refresh so zu finalisieren, dass er entsprechend vorn liegt, vorausgesetzt, dass der G70 in 0.11 am R520 nah drann bleiben kann.

RICHTHOFEN
20.05.2005, 17:53
Ich bin kein ATi- oder NVIDIA-Jünger, nur Realist!
Sollte der G70 wirklich nur ein auf 24 Pipes erweiterter NV40 sein, hat ATi wirklich leichtes Spiel.
Man muss sich nichts vormachen, die X850 XT PE ist zur Zeit schneller als alle vergleichbare NVIDIA Chips. Verpasst man diesem Chip dann noch SM3 und mehr Pipes, siehts übel aus für den G70.
Was würde dann noch für ihn sprechen, im Gegensatz zum R520?
SM3? SLI? Wird der R520 auch haben!

MfG 8)

Originalposting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2232521)

So wie es derzeit aussieht, wird der R520 nach Meinung vieler wohl nur 16 Pipes haben wie die aktuelle Generation. Das heisst es wird einiges an Mehrtakt nötig werden.
Da wundert es wenig, wieso der R520 sich so verspätet.
Wenn Nvidia es schafft mit dem konservativen 0.11er G70 ganz nah am R520 drann zu bleiben, dann hat ATI den Fertigungsvorteil nicht entscheidend genutzt und dürfte beim 0.09 Refresh des G70 in doch recht arge Bedrängnis kommen.

MASTER-STYX
20.05.2005, 17:54
skynet, könntest du bitte uns mit dem käse verschonen ?
wenn man echt keine ahnung hat, nur nen fetten pc, den man sich in den ***** geschoben hat lassen, dann sollte man die ****** halten ;D

die R520 WIRD 24 PixelPipelines haben !

und die G70 wird keine chance haben, glaubs einfach, ich bin selber realist ...

SKYNET
20.05.2005, 18:05
skynet, könntest du bitte uns mit dem käse verschonen ?
wenn man echt keine ahnung hat, nur nen fetten pc, den man sich in den arsch geschoben hat lassen, dann sollte man die fresse halten ;D

die R520 WIRD 24 PixelPipelines haben !

und die G70 wird keine chance haben, glaubs einfach, ich bin selber realist ...



1. keine ahnung von nix(du).
2. nix käse, kleiner ATI fanboy *lol* aber solltest mal in nen paar anderen foren unterwegs sein, dann weißt du auch ein wenig mehr. :P
3. genau... wenn man keine ahnugn hat einfach mal fresse halten! im gegensatz zudir, bin ich für mein rechner arbeiten gegangen. :o 8)
4. wird er nicht, alles spricht dagegen.
5. der G70 wird mindestens gleich schnell sein... eher schneller, aufgrund der besseren pro-taktleistung der GPU.
6. deine ausdrucksweise lässt zu wünschen übrig... naja, was erwartet man von nem vorpupärtären 18 jährigen, der denkt die welt sei eine scheibe... *lol*

vosmic
20.05.2005, 18:12
http://www.hartware.de/news_37999.html
http://www.hartware.net/news_37993.html
Nichts wirklich neues aber naja...
Besser als sich hier Gegenseitig in die Karre zu fahren :]

Und nochmal vom Inq.

http://www.the-inquirer.com/?article=23362
http://www.the-inquirer.com/?article=23392

James Ryan
20.05.2005, 18:22
wer auf 3DC liest weiß halt mehr... :P

Originalposting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2232528)

Du weißt vom R520 nichts, genau wie jeder andere hier!
Das der R520 16 Pipes haben wird, ist reine Spekulation!
Warten wir es einfach ab!
Aber erwartet nicht zuviel vom G70, sonst ist die Enttäuschung wieder groß!

MfG 8)

SKYNET
20.05.2005, 18:26
Du weißt vom R520 nichts, genau wie jeder andere hier!
Das der R520 16 Pipes haben wird, ist reine Spekulation!
Warten wir es einfach ab!
Aber erwartet nicht zuviel vom G70, sonst ist die Enttäuschung wieder groß!

MfG 8)


ich erwarte vom G70 garnix ausser das er schneller als der NV45 ist. ;)

und das der R520 16 pipes haben wird ist ziemlich sicher, schon aus dem grund das es kein speicher gibt der bei 24 pipes und dem takt, die füllrate "bearbeiten" könnte.

sprich, wäre füllrate ohne bandbreite = bringt nix ausser viele transen die extrem heizen und viele $$$ mehr kosten. :)
und bei dem takt heizt das ding eh schon genug, wenn man bedenkt was ne x850xtpe frisst. *buck* *lol*

MASTER-STYX
20.05.2005, 19:05
ich weiß es dass die R520 24 ! pipes haben wird 8)
und das ist KEINE SPEKULATION ;D

OMG, ich glaub ich lass es lieber ... skynet, echt, geh mit deinen freunden sandburg bauen ;D

SKYNET, du hast mich schonmal (GhettoRapper) im **-inside genervt mit deinem 5900vs.9800er gelaber ...
echt, leute, hört auf mich, :] sowas nennt man ADS, aufmerksamkeits-defizit-syndrom !

meine quelle ist kein fuad oder inq, oder 3DC ... ;D

*wusch* bin weg ;D

SKYNET
20.05.2005, 19:14
ich weiß es dass die R520 24 ! pipes haben wird 8)
und das ist KEINE SPEKULATION ;D

OMG, ich glaub ich lass es lieber ... skynet, echt, geh mit deinen freunden sandburg bauen ;D

SKYNET, du hast mich schonmal (GhettoRapper) im **-inside genervt mit deinem 5900vs.9800er gelaber ...
echt, leute, hört auf mich, :] sowas nennt man ADS, aufmerksamkeits-defizit-syndrom !

meine quelle ist kein fuad oder inq, oder 3DC ... ;D

*wusch* bin weg ;D


stimmt, deine quelle enspringt deinem kleinhirn, dort wo die phantasien gebildet werden. *lol*

foenfrisur
20.05.2005, 19:39
oh mann...

also was soll denn der 520 werden, wenn er fertig ist?? eine x850xtpe mit sm3??
das glaubt ihr doch wohl selber nicht...die müssen doch mehr machen, als nur mehr takt und sm3...und in 90nm soll er ja glaub ich gefertigt werden...

und richthofen war doch der, der bisher zu jeder neuen graka-generation zwischen nv und ati immer meinte, nvidia wird alles in den schatten stellen...bisher stimmte es irgendwie nicht...
woher??
aber das soll ja nix heißen ;D :-X

sag lieber, das du dir wünschst, das es nv schafft, aber nicht jedesmal so psycho: "die schaffen das auf jeden fall...ich weiß, das die die besten sind..."
und in diesem jahr noch ein 0.09er refreshchip?? jo...weil der g70 auch erst gegen ende d. jahres kommt...schon klar...
wenn ich schon, bevor eine neue graka auf dem markt is, weiß, das ein refreshchip unterwegs ist, würdest du dir den g70 kaufen?? denke nicht...
anfang next year...

edit:
vor allem kann keiner genau sagen, wer besser sein wird auch nicht nv oder ati, aber ihr wisst es sicher, das es nv ist...ihr hattet die karten schon zu hause zum einsehen...
und dann klingelt der wecker und ihr wacht auf...

mfg

foenfrisur
20.05.2005, 19:46
das find ich auch interessant:

... ob die Grafikkarten wenige Wochen später auch erhältlich sein werden. Eigentlich wollte man von den sogenannten ''Paper-Launches'' abkommen, bei denen Produkte schon Monate vor der tatsächlichen Verfügbarkeit offiziell vorgestellt werden....

:)

wäre auch nicht schlecht...

edit:
das war mir nicht bekannt...also neues:
"Übrigens hat ATI kürzlich die Markennamen ''ATI CrossFire'' und ''CrossFire'' in den USA registrieren lassen. Es wird vermutet, dass CrossFire der offizielle Name für MVP/AMR bzw. die Dual-VGA Lösung von ATI ist."
und 2,5mal schneller?? hmm...naja...aber warum nicht :)
ein r520 wird schon mind. so schnell sein wie 2x 6800u sli, weil xtpe isses ja auch schon fast...


mfg

MASTER-STYX
20.05.2005, 20:22
aso, skynet du vollnap ^^
die ersten R520er Grafikkarten sind schon bei bestimmten spieleentwicklern ;)
was heist das wiederrum ? -haben 24 pipes, fertig, schluss, ende, aus, platz, ;D

RICHTHOFEN
20.05.2005, 20:38
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2232787)
sag lieber, das du dir wünschst, das es nv schafft, aber nicht jedesmal so psycho: "die schaffen das auf jeden fall...ich weiß, das die die besten sind..."
und in diesem jahr noch ein 0.09er refreshchip?? jo...weil der g70 auch erst gegen ende d. jahres kommt...schon klar...
wenn ich schon, bevor eine neue graka auf dem markt is, weiß, das ein refreshchip unterwegs ist, würdest du dir den g70 kaufen?? denke nicht...
anfang next year...

Wer weiss denn schon, dass es noch einen 0.09er Chip geben wird ausser uns in den Foren? Richtig von den DAUs niemand. Die kaufen fleissig erstmal die 0.11er Variante.
Ich werde jedenfalls warten.
MIch machen da zu viele Sachen stuzig.

1) hat das Nvidia Management vor Monaten offiziell in einer Konferenz bestätigt, dass sie noch 1 bis 2 Produkte DIESES Jahr in 0.09er Fertigungstechnologie bringen wollen

2) es keine GF7800Ultra in der Produktpalette auf dem Foliensatz gibt sondern nur 7800, GT und GTX.

3) Nvidia nicht 2 Monate vor ATI launcht um nix in der Hinterhand zu haben. Die wissen doch genauso wie jeder, dass ATI seine Spezifikationen erst festlegt, wenn der G70 draussen ist.
Also etwas Luft lassen schadet somit nicht und die Luft ist ja mit 0.09 vorhanden.

4) Nvidia sich wegen dem PS3 Deal mit Sony sowieso mit 0.09 auseinander setzen musste.

5) es bereits Gerüchte über einen G70 mal in 0.11 und mal in 0.09 gab. Das passt wunderbar ins Bild nur hat der INQ das Bild nicht richtig zusammengesetzt bzw. das Puzzle.

Ich halte es für wahrscheinlich, dass der G70@0.09 gegen Ende des 4. Quartals noch bei den Reviewern landet. Bis dahin musste auch ATI die Hosen runter lassen in Sachen Specs.
ATI läuft die Zeit nämlich auch davon. Momentan verlieren sie ziemlich stark an Boden, was die Marktverbreitung angebt. 70:30 % für Nvidia im 1. Quartal 2005 bei DX9 Performance GPUs also ab GF6600.

foenfrisur
20.05.2005, 20:58
ATI läuft die Zeit nämlich auch davon. Momentan verlieren sie ziemlich stark an Boden, was die Marktverbreitung angebt. 70:30 % für Nvidia im 1. Quartal 2005 bei DX9 Performance GPUs also ab GF6600.


das stimmt...

aber ich habe nicht gesagt, das es ihn nie in 0.09 geben wird ;)


mfg

SKYNET
21.05.2005, 02:26
ATI läuft die Zeit nämlich auch davon. Momentan verlieren sie ziemlich stark an Boden, was die Marktverbreitung angebt. 70:30 % für Nvidia im 1. Quartal 2005 bei DX9 Performance GPUs also ab GF6600.


ist ja auch logisch, wer will denn auch SM2.0"B" wenn man SM3.0 und HDR haben kann, das im SLI sogar mit AA nutzbar ist. 8)



aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2232855)

aso, skynet du vollnap ^^
die ersten R520er Grafikkarten sind schon bei bestimmten spieleentwicklern ;)
was heist das wiederrum ? -haben 24 pipes, fertig, schluss, ende, aus, platz, ;D


*gähn* geh im sandkasten weiter deine geschichten erzählen bübchen. :-*
kannst nochmal wiederkommen wenn du was weißt, und nicht wenn du denkst was zu wissen. :-X





ein r520 wird schon mind. so schnell sein wie 2x 6800u sli, weil xtpe isses ja auch schon fast...


halloziantionen? *buck*

der ist nichtmal annähernd soschnell wie 2x 6800GT im SLI @ defaulttakt.
wie soll der also fast soschnell sein wie 2x ultra die mit jeweils 75Mhz mehr getaktet ist? :]

also bleib ma realistisch junge.

gast0972
21.05.2005, 09:37
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233158)

ist ja auch logisch, wer will denn auch SM2.0"B" wenn man SM3.0 und HDR haben kann, das im SLI sogar mit AA nutzbar ist. 8)




*gähn* geh im sandkasten weiter deine geschichten erzählen bübchen. :-*
kannst nochmal wiederkommen wenn du was weißt, und nicht wenn du denkst was zu wissen. :-X



halloziantionen? *buck*

der ist nichtmal annähernd soschnell wie 2x 6800GT im SLI @ defaulttakt.
wie soll der also fast soschnell sein wie 2x ultra die mit jeweils 75Mhz mehr getaktet ist? :]

also bleib ma realistisch junge.



*hust*, bevor Du hier einen auf dicke Hose und Professor Oberschlau machst und anderes User diffamierst, solltest Du lieber zusehen und Dein vor MONATEN ABGEGEBENES VERSPRECHEN von Benchmark Ergebnissen Deines "angeblichen" SLI-Gespanns nachreichen.

Solange Du das nicht getan hast, nimmt Dich eh Keiner für voll... ;)

SKYNET
21.05.2005, 11:15
*hust*, bevor Du hier einen auf dicke Hose und Professor Oberschlau machst und anderes User diffamierst, solltest Du lieber zusehen und Dein vor MONATEN ABGEGEBENES VERSPRECHEN von Benchmark Ergebnissen Deines "angeblichen" SLI-Gespanns nachreichen.

Solange Du das nicht getan hast, nimmt Dich eh Keiner für voll... ;)



warum sollte ich? die user dies wissen sollen wissens, das langt. :-*


und was hat das im übrigen mit dem thema hier zutun? :]

also ksch ksch, raus hier wenn du nix dazu beizutragen hast, oder ich lasse onkel moderator den thread von dir säubern. :P

vosmic
21.05.2005, 11:23
Wichtiger als SM3 und HDR ist vermutlich die Tatsache, dass ATI der 6600GT nichts entgegenzusetzen hat.

Im Moment ist Ati auf jedenfall im Hintertreffen. Das kann sich auch wieder ändern.
Egal... Hauptsache es bleibt diese Konkurrenzsituation.
MfG

James Ryan
21.05.2005, 11:47
ist ja auch logisch, wer will denn auch SM2.0"B" wenn man SM3.0 und HDR haben kann, das im SLI sogar mit AA nutzbar ist. 8)

HDR und AA zusammen kann derzeit kein aktueller Chip!
Nicht aus Perfomancegründen, sondern auch Technikgründen! ;)


und das der R520 16 pipes haben wird ist ziemlich sicher, schon aus dem grund das es kein speicher gibt der bei 24 pipes und dem takt, die füllrate "bearbeiten" könnte.

Schon klar! Deiner Logik nach dürfte der G70 dann auch nur 16 Pipes haben. :]
Oder glaubst du NVIDIA bekommt anderen Speicher als ATi?

MfG 8)

SKYNET
21.05.2005, 12:26
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233326)

HDR und AA zusammen kann derzeit kein aktueller Chip!
Nicht aus Perfomancegründen, sondern auch Technikgründen! ;)



Schon klar! Deiner Logik nach dürfte der G70 dann auch nur 16 Pipes haben. :]
Oder glaubst du NVIDIA bekommt anderen Speicher als ATi?

MfG 8)


nö, NV dreht aber nicht am takt und brezelt pipes rein, sondern macht nur mehr pipes, das wars.
dazu mit 700MHz GDDR3 garniert und fertig ist das gesammt paket.
aber 600MHz und 24 pipes = selbstbremse, zumal ATI garnicht die nötigen reserven hat um 24 pipes und viel takt zu verwirklichen, weil der deal mit MS hat ATI sämtliche reserven gekostet, nicht umsonst wurde der "launch termin" unbestimmt nach hinten verschoben.
wenn du mehr wissen willst kannst ja mal auf 3dc die G70 und r520 threads lesen... sind auch nur ca. 3500 posts zusammen. ;D

James Ryan
21.05.2005, 12:52
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233385)

nö, NV dreht aber nicht am takt und brezelt pipes rein, sondern macht nur mehr pipes, das wars.
dazu mit 700MHz GDDR3 garniert und fertig ist das gesammt paket.
aber 600MHz und 24 pipes = selbstbremse, zumal ATI garnicht die nötigen reserven hat um 24 pipes und viel takt zu verwirklichen, weil der deal mit MS hat ATI sämtliche reserven gekostet, nicht umsonst wurde der "launch termin" unbestimmt nach hinten verschoben.
wenn du mehr wissen willst kannst ja mal auf 3dc die G70 und r520 threads lesen... sind auch nur ca. 3500 posts zusammen. ;D


Die habe ich gelesen. :P
Der G70 wird vorerst auch nur auf 600 MHz Speicher zurückgreifen können, da kannst du dir sicher sein!
Damit wird der G70 nicht so große Sprünge machen wie von dir erhofft wird!

MfG 8)

vosmic
21.05.2005, 12:57
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233416)

Die habe ich gelesen. :P
Der G70 wird vorerst auch nur auf 600 MHz Speicher zurückgreifen können, da kannst du dir sicher sein!
Damit wird der G70 nicht so große Sprünge machen wie von dir erhofft wird!

MfG 8)


Einfach die Timings bei aktuellen Rams noch weiter nach unten schrauben fertig ist 700Mhz GDDR3. :P

eden
21.05.2005, 12:59
nö, NV dreht aber nicht am takt und brezelt pipes rein, sondern macht nur mehr pipes, das wars. dazu mit 700MHz GDDR3 garniert und fertig ist das gesammt paket.

Alles zu G70 und r520 sind momentan nicht mehr als Gerüchte und reine Spekulation.

RICHTHOFEN
21.05.2005, 13:36
Tim Sweeney von EPIC Games wurde auf der E3 zur neuen Unreal 3 Engine interviewed.
Am Schluss gibts dann auch noch die pikante Frage zum R520 vs G70.
Er antwortet auch darauf - G70.

Hier 2 links:

http://www.nvnews.net/articles/e3_2005/sweeneyinterview.wmv

http://dmode.datamachine.net/sweeneyinterview.html

themk
21.05.2005, 13:40
Ist ja logisch, da NV auch in der PS3 drinnen ist.

foenfrisur
21.05.2005, 14:01
aber 600MHz und 24 pipes = selbstbremse, zumal ATI garnicht die nötigen reserven hat um 24 pipes und viel takt zu verwirklichen, weil der deal mit MS hat ATI sämtliche reserven gekostet, nicht umsonst wurde der "launch termin" unbestimmt nach hinten verschoben.



also hier stehts anders:
http://3dcenter.de/news/2005/woche19.php#2005-05-13

"Wie bekannt, hat nVidia der seinerzeitige Deal zur ersten Xbox reichlich Reserven gekostet, womit auch diverse PC-Grafikchips in Verzug kamen. ATI scheint dies nun cleverer gelöst zu haben, indem das komplette Design des R500 an Microsoft lizensiert wurde und Microsoft nun eigenverantwortlich bei TSMC produzieren läßt. Der eDRAM wird zudem von NEC beigesteuert, so daß ATI faktisch raus ist und sich wieder ganz weiteren Entwicklungen im PC-Bereich konzentrieren kann."

das habe vorher schon geschrieben und es IST VON 3DC ;)
aber du weißt es ja ohnehin besser...

mfg

James Ryan
21.05.2005, 14:02
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233430)

Einfach die Timings bei aktuellen Rams noch weiter nach unten schrauben fertig ist 700Mhz GDDR3. :P


Toll, dann hat man 700 MHz Speicher der langsamer ist als 600 MHz Speicher! :]

MfG 8)

RICHTHOFEN
21.05.2005, 14:03
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233475)

Ist ja logisch, da NV auch in der PS3 drinnen ist.

er bringt das Spiel doch auch für die xbox oder nicht? :)

foenfrisur
21.05.2005, 14:04
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233471)

Tim Sweeney von EPIC Games wurde auf der E3 zur neuen Unreal 3 Engine interviewed.
Am Schluss gibts dann auch noch die pikante Frage zum R520 vs G70.
Er antwortet auch darauf - G70.

Hier 2 links:

http://www.nvnews.net/articles/e3_2005/sweeneyinterview.wmv

http://dmode.datamachine.net/sweeneyinterview.html


das div. spielehersteller auch div. karten eon ihren sponsoren empfehlen dürfte auch für dich nichts neues sein ;)
dein eine sagt ati, der andere nv...
oder meinste schumacher empfiehlt mclaren mercedes??
is doch immer der selbe quark...aber wer weiß...

mfg

foenfrisur
21.05.2005, 14:06
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233488)

Toll, dann hat man 700 MHz Speicher der langsamer ist als 600 MHz Speicher! :]

MfG 8)


er wollte damit wohl nur sagen, das man anhand der frequenz nicht unbedingt die performance erkennen bzw. wiedergeben kann, oder??

mfg

foenfrisur
21.05.2005, 14:09
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233491)

er bringt das Spiel doch auch für die xbox oder nicht? :)



aber epic/atari waren doch schon immer nv oder nicht?? twimtbp-logo kram...

ich finde, so wie er es sagt, klingt es nicht so überzeugend, aber er muss es ja sagen...er ist nämlich parteiisch ;)

mfg

Hübie
21.05.2005, 14:30
Und das geile daran is, das die ATi-Karten auf nVidia-optimierten Spielen mehr wegrocken, als nFunzel.... ;D

Wenn er ATi gesagt hätte wär ihm das Gehalt gekürzt worden ;) Das is ne Aussage, die sehr schwammig ist und nur Nullinformationen unterhält (erinnert mich an die Frauen ;D)...


bye hübie

vosmic
21.05.2005, 14:34
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233529)

Und das geile daran is, das die ATi-Karten auf nVidia-optimierten Spielen mehr wegrocken, als nFunzel.... ;D

Wenn er ATi gesagt hätte wär ihm das Gehalt gekürzt worden ;) Das is ne Aussage, die sehr schwammig ist und nur Nullinformationen unterhält (erinnert mich an die Frauen ;D)...


bye hübie

Du bist aber auch ein elendiger Fanboy ;D
Bekommst Du Geld aus Kanda?

TM30
21.05.2005, 14:35
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233537)

Du bist aber auch ein elendiger Fanboy ;D
Bekommst Du Geld aus Kanda?


yo echt schlimm hier. ich halt mich lieber zurück.

SKYNET
21.05.2005, 14:41
Die habe ich gelesen. :P
Der G70 wird vorerst auch nur auf 600 MHz Speicher zurückgreifen können, da kannst du dir sicher sein!
Damit wird der G70 nicht so große Sprünge machen wie von dir erhofft wird!

MfG 8)



der G70 wied den gleichen speicher haben wie der R520. ;)
das steht jetzt schon fest, und zwar ziemlich sicher.
letzendlich muss NV eigentlich nix machen als nur die pipes druff hauen, der rest währe zuviel weil es sonst eh kein speicher gibt der die füllrate verarbeiten könnte.
essei man würde den speicher mit 512bit anbinden, das kommt aber erst mit NV50(G80?) und R620.

p.s. von der pixelshader leistung kann sogar nen 6800GT ner X800XTPE den arsch versohlen. ;)
nur leider sind die vertexshader beim NV4x nicht so stark. :(

SKYNET
21.05.2005, 14:46
Ist ja logisch, da NV auch in der PS3 drinnen ist.


hat der R520 auch...

dadrann kanns also nicht liegen, wohl eher dadrann das der G70 performanter sein wird als der R520 *spekuliation*

SKYNET
21.05.2005, 14:48
also hier stehts anders:
http://3dcenter.de/news/2005/woche19.php#2005-05-13

"Wie bekannt, hat nVidia der seinerzeitige Deal zur ersten Xbox reichlich Reserven gekostet, womit auch diverse PC-Grafikchips in Verzug kamen. ATI scheint dies nun cleverer gelöst zu haben, indem das komplette Design des R500 an Microsoft lizensiert wurde und Microsoft nun eigenverantwortlich bei TSMC produzieren läßt. Der eDRAM wird zudem von NEC beigesteuert, so daß ATI faktisch raus ist und sich wieder ganz weiteren Entwicklungen im PC-Bereich konzentrieren kann."

das habe vorher schon geschrieben und es IST VON 3DC ;)
aber du weißt es ja ohnehin besser...

mfg


dann lese mal in den passenden threads, da steht auch das es nicht so ist.
weil das da oben ist nur ein gerücht... der R520 sollte nämlich schon im ersten quartal diesn jahres vorgestellt werden.... sehe ihn aber nirgens. :]

vosmic
21.05.2005, 14:48
der G70 wied den gleichen speicher haben wie der R520. ;)

Das Datenblatt kann man sich bei Samsung angucken. Da wird nichts neues kommen.

MfG

SKYNET
21.05.2005, 14:52
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233529)

Und das geile daran is, das die ATi-Karten auf nVidia-optimierten Spielen mehr wegrocken, als nFunzel.... ;D

Wenn er ATi gesagt hätte wär ihm das Gehalt gekürzt worden ;) Das is ne Aussage, die sehr schwammig ist und nur Nullinformationen unterhält (erinnert mich an die Frauen ;D)...


bye hübie


ohja, sieht man ja besonders gut bei D3 wo ne 6800GT ne X850XTPE grün und blau knüppelt. *lol*
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=159&seite=14

wenn man stänkern will, sollte man zumindest vorher überprüfen obs auch so ist wie man meint. :P

themk
21.05.2005, 15:04
Hört einfach auf zu spamen & flamen!

Ist ja nicht zum aushalten.

foenfrisur
21.05.2005, 15:13
essei man würde den speicher mit 512bit anbinden, das kommt aber erst mit NV50(G80?) und R620.


woher du das immer weißt?? *noahnung*
du musst ja echt ein richtiger fuchs sein...du musst für die arbeiten, das du das immer weißt...hammer ;D sehr be-(-neidens,-mitleidens)wert...
bis vor kurzem wusste ja noch keiner, das der neue nv g70 heißt (außer dir sicherlich, aber du dürftest es ja keinem sagen richtig?) *lol* *lol*
mei mei...
aber die im 3dc-forum wissen sicher auch alles, sind keine spekulationen...nein...das sind alles fakten von denen und nicht auch nur vermutungen wie hier...jojo...ja nee, is klar

zu d3, das dürfte eine der ausnahmen sein und das weißt du...das es bei anderen spielen nicht so ist, weißt du auch, also was soll das?? vielleicht mag sich das wirklich mit dem g70 ändern, aber wenn nicht, dann sollst du im boden versinken und lieber nix mehr schreiben...

mit den anderen machts wenigstens spass hier zu schreiben, da kommt auch mal was witziges, das man lachen kann, aber mit dir ( du musst ja nen grau-nv-grünen alltag haben )?? und ich geh auch noch immer wieder drauf ein... *glaubses*

mfg

edit:
ich geh ma eben noch nen paar spekulatius essen, vielleicht hab ich ja dann auch die eingebung und erleuchtung, das es nur einen gott gibt und der beginnt mit n :)

Relic
21.05.2005, 15:14
p.s. von der pixelshader leistung kann sogar nen 6800GT ner X800XTPE den arsch versohlen. ;)
nur leider sind die vertexshader beim NV4x nicht so stark. :(


Das stimmt so nicht. Die pro Mhz Leistung der Pixelshader de NV40 ist besser als des R420 aber gegen den Takt der X800XTPE hat die 6800GT keine Chance.
Und welche Anwendung ausser 3DM2005 ist vertexshader limitiert? Bei spielen merkst du zwischen einer auf 16x6 gemoddeten 6800LE und einer auf 16x4 gemoddeten nichts. Also is die vertexshader leistung heute bei beiden herstellern im überfluss vorhanden.

RICHTHOFEN
21.05.2005, 16:35
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233501)

aber epic/atari waren doch schon immer nv oder nicht?? twimtbp-logo kram...


TWIMTBP sagt nix darüber aus ob einer parteiisch ist oder nicht. Das Logo bekommt der, mit dessen Publisher Nvidia einen Werbevertrag hat.
Entwicklerunterstützung ist darin nicht enthalten. Es ist lediglich Marketing.

RICHTHOFEN
21.05.2005, 16:38
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233529)

Und das geile daran is, das die ATi-Karten auf nVidia-optimierten Spielen mehr wegrocken, als nFunzel.... ;D


Naja das lassen wir mal dahingestellt sein. Umgekehrt ist es ja auch nicht anders siehe 6600GT gegen diese lachhafte X700pro om HL2.

Wie ich bereits sagte: Das Logo ist ein Werbevertrag. Es sagt nix über den Optimierungsgrad eines Spiels aus.

themk
21.05.2005, 17:11
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233695)
Umgekehrt ist es ja auch nicht anders siehe 6600GT gegen diese lachhafte X700pro om HL2.

Die X700pro ist im allgemeinen nicht auf der Ebene der 6600gt, das hat nichts mit HL² zu tun.

foenfrisur
21.05.2005, 18:17
jo..eher die x800pro

mfg

themk
21.05.2005, 18:35
aus diesem Posting (http://www.planet3dnow.de/vbulletin/showpost.php?p=2233843)

jo..eher die x800pro

mfg


dürfte doch eher die normale x800 sein!?