App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Auch die GeForce 9800GTX hat nur 128 Stream-Prozessoren
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Nach Informationen verschiedener Hardware-Seiten soll die kommende 9800GTX auf dem G92 basieren und damit nur 128 Stream-Prozessoren besitzen.
Der G92, der bereits auf der 8800GT und GTS verbaut wird und auch der 9800GT zum Einsatz kommen soll (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1203443333">wir berichteten</a>), soll dann einen Takt von 750MHz bis 850MHz besitzen. Da es sich um NVIDIAs Topprodukt im Bereich der Single-GPU-Grafikkarten handeln wird, darf man von eienm Speichertakt jenseits der GHz-Grenze ausgehen, jedoch ist zu diesem nichts Näheres bekannt.
Erwartet wird die GeForce 9800GTX zwei Wochen nach der Vorstellung der 9800GX2 im späten März. Die GeForce 9-Reihe bringt dann keine großen technologischen Neuerungen mit sich, da PCIe 2.0 bereits in mit der 8800GT eingeführt wurde und DirectX 10.1 weiterhin noch nicht unterstützt wird.
Danke an Saphyrro für das Einsenden der Meldung!
<b>Quellen:</b><ul><li><a href="http://www.vr-zone.com/articles/GeForce_9800_GTX_(D9E-20)_to_launch_in_Late_March/5574.html" target="_blank">GeForce 9800 GTX (D9E-20) to launch in Late March</a></li><li><a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=5861&Itemid=1" target="_blank">Nvidia's new card is 9800GTX</a></li></ul><b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1203443333">G92 + Triple-SLI = 9800GT</a>
Der G92, der bereits auf der 8800GT und GTS verbaut wird und auch der 9800GT zum Einsatz kommen soll (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1203443333">wir berichteten</a>), soll dann einen Takt von 750MHz bis 850MHz besitzen. Da es sich um NVIDIAs Topprodukt im Bereich der Single-GPU-Grafikkarten handeln wird, darf man von eienm Speichertakt jenseits der GHz-Grenze ausgehen, jedoch ist zu diesem nichts Näheres bekannt.
Erwartet wird die GeForce 9800GTX zwei Wochen nach der Vorstellung der 9800GX2 im späten März. Die GeForce 9-Reihe bringt dann keine großen technologischen Neuerungen mit sich, da PCIe 2.0 bereits in mit der 8800GT eingeführt wurde und DirectX 10.1 weiterhin noch nicht unterstützt wird.
Danke an Saphyrro für das Einsenden der Meldung!
<b>Quellen:</b><ul><li><a href="http://www.vr-zone.com/articles/GeForce_9800_GTX_(D9E-20)_to_launch_in_Late_March/5574.html" target="_blank">GeForce 9800 GTX (D9E-20) to launch in Late March</a></li><li><a href="http://www.fudzilla.com/index.php?option=com_content&task=view&id=5861&Itemid=1" target="_blank">Nvidia's new card is 9800GTX</a></li></ul><b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1203443333">G92 + Triple-SLI = 9800GT</a>
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Tja, das hat sich ja abgezeichnet. nV hat da doch recht lange gebraucht, um mit G92 letztlich nur einen leicht modifizierten Refresh des G80 zu Stande zu bringen. Freilich besteht auch kaum Druck von Seiten von Ati, eine grundlegend schnellere neue Architektur für single-GPUs rauszuhauen. Man darf gespannt sein, wer von beiden als erster eine zweite Generation DX10-Architektur zu Wege bringt.....
NV hatte genug Zeit eine neue Architektur zu entwickeln, aber solange AMD keinen Druck macht, haben die keinen Grund was Neues zu launchen... Würde mich nicht wundern wenn sie schon so weit wären die "richtige" nächste Generation zu bringen. Denn die Nummer 9, hat dies GF-Serie auf keine Fall verdient...
Und mit der 9600GT machten sie AMD das Leben noch schwerer...
Ich hoffe auf einen baltigen Konter von AMD, denn diese NV High-End Herrschaft ist einfach nur zum Kotzen...
Und mit der 9600GT machten sie AMD das Leben noch schwerer...
Ich hoffe auf einen baltigen Konter von AMD, denn diese NV High-End Herrschaft ist einfach nur zum Kotzen...
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.368
- Renomée
- 9.694
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
ist nich schon bald der launch für die nächste ati generation? meine doch mal was von ende 1. anfang 2. quartal gelesen zu haben?
Nein, bislang geht man von Juni aus.
prinz_will
Lieutnant
- Mitglied seit
- 19.04.2007
- Beiträge
- 58
- Renomée
- 0
Warum heissen die jetzt auf einmal GeForce 9?
Sind Nvidia die Bezeichner hinter den Nummern ausgegenagen oder blicken die da selbst nicht mehr durch und machen einen kompletten Neuanfang?
Sind Nvidia die Bezeichner hinter den Nummern ausgegenagen oder blicken die da selbst nicht mehr durch und machen einen kompletten Neuanfang?
Fusseltuch
Vice Admiral Special
- Mitglied seit
- 29.12.2004
- Beiträge
- 848
- Renomée
- 8
- Prozessor
- Intel C2Q6600 @ 3.2GHz
- Mainboard
- MSI P35 Neo2-FR
- Kühlung
- Alpenföhn Gross Clockner
- Speicher
- 8GB DDR2-800
- Grafikprozessor
- HD6850
- Display
- 24" Eizo SX2461W 1920x1200 / 21.3" Eizo S2100 1600x1200
- HDD
- 160GB X-25M G2 2x 640GB WD6400AAKS 1x 500GB WD5000AACS
- Optisches Laufwerk
- LiteOn iHas120
- Soundkarte
- Onboard
- Gehäuse
- Antec P180
- Netzteil
- Enermax Modu82+ 425W
- Betriebssystem
- Win7 64bit
- Webbrowser
- Opera 11
NV hatte genug Zeit eine neue Architektur zu entwickeln, aber solange AMD keinen Druck macht, haben die keinen Grund was Neues zu launchen... Würde mich nicht wundern wenn sie schon so weit wären die "richtige" nächste Generation zu bringen.
Das sehe ich anders. Der G80 war laut nvidia fast 4 jahre in arbeit. In nur 1.5 jahren kann nvidia unmöglich eine komplett neue architektur auf die beine stellen, genau wie der R700 auch keine neue architektur wird.
G70 war ja auch nur ein stark aufgebohrter NV40. Und wahrscheinlich wird, wie auch immer sie es nennen mögen, das was nach der GF9 kommt, auch wieder nur ein (diesmal) deutlich verbesserter G80 sein (ich sage bewusst nicht G92, da der urvater immer noch G80 heisst).
Das was hier jetzt von nvidia kommt, kommt mit detail verbesserungen und höheren taktraten und hat die 9 wohl noch weniger verdient als AMDs aktuelle pferdchen die 3 - ist aber vom marketing standpunkt her gesehen völlig verständlich.
Andy06
Grand Admiral Special
- Mitglied seit
- 02.05.2006
- Beiträge
- 2.318
- Renomée
- 9
- Standort
- Berlin
- Mein Laptop
- Acer Aspire 1410
- Prozessor
- AMD FX 8350
- Mainboard
- MSI 760GA-P43 (FX)
- Kühlung
- Alpenföhn Matterhorn 2x120er Lüfter
- Speicher
- 16 GB DDR3 @1894
- Grafikprozessor
- Gigabyte R9 280X Rev.2
- Display
- 27" iiyama ProLite E2773HDS
- SSD
- Samsung SSD 840 1TB
- Optisches Laufwerk
- Lite iHOS104 BluRay Laufwerk
- Soundkarte
- onBoard
- Netzteil
- 500 Watt OCZ ModXStream-Pro
- Betriebssystem
- Windows 7 HP 64bit
- Webbrowser
- Google Chrome
Speicher jenseits der 1 GHz Grenze?? Ich dachte NVidia setzt(e) nur auf GDDR3 und da ist doch ziemlich genau bei 1 GHz schluss. Oder??
Oder kann man einfach GDDR4 drauf packen?
MfG
Oder kann man einfach GDDR4 drauf packen?
MfG
CrazyStrump
Vice Admiral Special
NV hatte genug Zeit eine neue Architektur zu entwickeln, aber solange AMD keinen Druck macht, haben die keinen Grund was Neues zu launchen... Würde mich nicht wundern wenn sie schon so weit wären die "richtige" nächste Generation zu bringen. Denn die Nummer 9, hat dies GF-Serie auf keine Fall verdient...
Und mit der 9600GT machten sie AMD das Leben noch schwerer...
Ich hoffe auf einen baltigen Konter von AMD, denn diese NV High-End Herrschaft ist einfach nur zum Kotzen...
Warum sollte NV jetzt warten, wenn sie eine neue Top GPU pereits fertig hätten? Und wenn die nur in kleinen Stückzahlen zu hohen Preisen angeboten würde. Da könnte man AMD aus den Highend-Segment rauskegeln. Gerade jetzt, wo der Mitbewerber anfängt sich etwas zu erholen.
w0mbat
Commodore Special
- Mitglied seit
- 19.05.2006
- Beiträge
- 416
- Renomée
- 18
- Mein Laptop
- Lenovo ThinkPad L450@Ubuntu MATE
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- MSI MAG B550M Mortar Max WIFI
- Kühlung
- NZXT Kraken X63
- Speicher
- G.SKILL F4-3600C17D-32GTZR
- Grafikprozessor
- XFX Speedster QICK 319 Radeon RX 6800 BLACK Gaming
- Display
- LG 34UC79G-B
- SSD
- 2TB WD_BLACK SN850X | 2TB Samsung 970 EVO Plus
- Soundkarte
- Realtek ALC1220
- Gehäuse
- Lian Li O11 Dynamic Mini
- Netzteil
- Cougar SF750 Platinum
- Tastatur
- CM QuickFire Rapid-i
- Maus
- Logitech G Pro X Superlight 2
- Betriebssystem
- Windows 11 Pro x64
- Webbrowser
- Firefox
Speicher jenseits der 1 GHz Grenze?? Ich dachte NVidia setzt(e) nur auf GDDR3 und da ist doch ziemlich genau bei 1 GHz schluss. Oder??
Oder kann man einfach GDDR4 drauf packen?
MfG
Es gibt 0.83ns GDDR3 VRAM welcher mit 1200MHz (2400MHz DDR) spezifiziert ist. 256-bit*2400MHz = 76,80GB/s (8800GTS-512 = 62,08GB/s).
Zuletzt bearbeitet:
Sir Mixalot
Commodore Special
- Mitglied seit
- 27.08.2002
- Beiträge
- 400
- Renomée
- 1
Hi,
Das die 9800GTX nur 128 Stream-Prozessoren ist irgendwie klar...Nvidia will ja auch noch ne Ultra bringen,die wird mehr haben und auch DirecX 10.1 haben,bin mir da ziehmlich sicher...
Ich selber werde mir eine neuGrafikkarte erst dann wieder kaufen,wenn Crysis mit 1920 mal 1200 mit allen details mit 60 Fps lauft...
Die neue 9800Gtx dürfte in meinen augen nur so um die 370 €uro kosten,aber die wird auch wieder wie alle anderen 500 bis 600 €uro kosten,trodz dem kleineren herstellungsprozesses wo man ja einspart...
Gruss Mixalot...
Das die 9800GTX nur 128 Stream-Prozessoren ist irgendwie klar...Nvidia will ja auch noch ne Ultra bringen,die wird mehr haben und auch DirecX 10.1 haben,bin mir da ziehmlich sicher...
Ich selber werde mir eine neuGrafikkarte erst dann wieder kaufen,wenn Crysis mit 1920 mal 1200 mit allen details mit 60 Fps lauft...
Die neue 9800Gtx dürfte in meinen augen nur so um die 370 €uro kosten,aber die wird auch wieder wie alle anderen 500 bis 600 €uro kosten,trodz dem kleineren herstellungsprozesses wo man ja einspart...
Gruss Mixalot...
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Die 370€ für die 9800GTX sind eindeutig zu hoch gegriffen, eine 8800GTS für nichtmal 250€ bietet, abgesehen vom Takt und dem zweiten SLI-Connector, schon die gleiche Hardware. Das Produkt für mehr als 400€ ist eindeutig die 9800GX2.
Einen eigenen Chip nur für eine eventuelle Ultra wird imho nicht kommen, das lohnt einfach nicht.
Einen eigenen Chip nur für eine eventuelle Ultra wird imho nicht kommen, das lohnt einfach nicht.
w0mbat
Commodore Special
- Mitglied seit
- 19.05.2006
- Beiträge
- 416
- Renomée
- 18
- Mein Laptop
- Lenovo ThinkPad L450@Ubuntu MATE
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- MSI MAG B550M Mortar Max WIFI
- Kühlung
- NZXT Kraken X63
- Speicher
- G.SKILL F4-3600C17D-32GTZR
- Grafikprozessor
- XFX Speedster QICK 319 Radeon RX 6800 BLACK Gaming
- Display
- LG 34UC79G-B
- SSD
- 2TB WD_BLACK SN850X | 2TB Samsung 970 EVO Plus
- Soundkarte
- Realtek ALC1220
- Gehäuse
- Lian Li O11 Dynamic Mini
- Netzteil
- Cougar SF750 Platinum
- Tastatur
- CM QuickFire Rapid-i
- Maus
- Logitech G Pro X Superlight 2
- Betriebssystem
- Windows 11 Pro x64
- Webbrowser
- Firefox
Hi,
Das die 9800GTX nur 128 Stream-Prozessoren ist irgendwie klar...Nvidia will ja auch noch ne Ultra bringen,die wird mehr haben und auch DirecX 10.1 haben,bin mir da ziehmlich sicher...
Ich selber werde mir eine neuGrafikkarte erst dann wieder kaufen,wenn Crysis mit 1920 mal 1200 mit allen details mit 60 Fps lauft...
Die neue 9800Gtx dürfte in meinen augen nur so um die 370 €uro kosten,aber die wird auch wieder wie alle anderen 500 bis 600 €uro kosten,trodz dem kleineren herstellungsprozesses wo man ja einspart...
Gruss Mixalot...
Da der G92 nur 128SP hat und kein DX10.1 unterstützt wird das wohl nicht möglich sein, egal wie sicher du dir bist
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Gibts Quellen zu der Entwicklungszeit? Ansonsten: Wenn eine neue GPU-Architektur 4 Jahre Entwicklungsarbeit benötigen sollte, dann wär das neu, so große Abstände hats nämlich z.B. zwischen Geforce256 und Geforce3 (10-1999 bis 02-2001) oder zwischen Geforce3 und GeforceFX (02-2001 bis 01-2003) nicht gegeben AFAIK. Oder die haben auch damals schon so lange entwickelt, dann wurde allerdings parallel an mehreren Architekturen gearbeitet, so wie es ja auch bei den CPU Entwicklern üblich ist. Dann wüsste ich aber auch nicht, was dagegen spräche, dass das immer noch so ist. Jedenfalls wären 4 Jahre zwischen zwei grundlegenden Architekturen in der Vergangenheit völlig inakzeptabel im Wettbewerb gewesen. Ich vermute ganz stark, dass das auch in Zukunft nicht tragfähig wäre......Das sehe ich anders. Der G80 war laut nvidia fast 4 jahre in arbeit. In nur 1.5 jahren kann nvidia unmöglich eine komplett neue architektur auf die beine stellen, genau wie der R700 auch keine neue architektur wird.
Dass G70 ein aufgebohrter NV40 war ist ja unstrittig. Aber zwischen beiden lagen nur 13 Monate AFAIK. Und die 7800GTX hatte schon deutlich mehr Leistung, als eine 6800Ultra, auch architektonisch durch 6 Quads vs. 4 Quads. Demgegenüber hat nV noch kein Refresh des G80 hinbekommen, der mehr Leistung bringt. Der G92 ist ausschließlich auf sparsamere Produktion getrimmt.G80 auf G92 entspricht eigentlich mehr dem Refresh von G70 auf G71, wofür nV drei Quartale gebraucht hatte damals.....G70 war ja auch nur ein stark aufgebohrter NV40. Und wahrscheinlich wird, wie auch immer sie es nennen mögen, das was nach der GF9 kommt, auch wieder nur ein (diesmal) deutlich verbesserter G80 sein (ich sage bewusst nicht G92, da der urvater immer noch G80 heisst).
Da kann ich Dir nur Recht geben! Trotzdem muss nV noch dieses Jahr eine neue Architektur bringen, sonst werden die sich hoffentlich umschauen müssen. Hoffentlich deshalb, weil auch zu hoffen ist, dass Ati mit ner echten 2nd Generation DX10 kommt.....Das was hier jetzt von nvidia kommt, kommt mit detail verbesserungen und höheren taktraten und hat die 9 wohl noch weniger verdient als AMDs aktuelle pferdchen die 3 - ist aber vom marketing standpunkt her gesehen völlig verständlich.
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.754
- Renomée
- 145
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
ja, Nv hat (mindestens) 2 Entwicklerteams die parallel an unterschiedlichen Architekturen arbeiten. Das mit den 4 Jahren kann also durchaus stimmen, ergo sollte der Nachfolger der G80 Architektur schon seit laengerer Zeit in Arbeit (oder sogar bereits fertiggestellt) sein.Gibts Quellen zu der Entwicklungszeit? Ansonsten: Wenn eine neue GPU-Architektur 4 Jahre Entwicklungsarbeit benötigen sollte, dann wär das neu, so große Abstände hats nämlich z.B. zwischen Geforce256 und Geforce3 (10-1999 bis 02-2001) oder zwischen Geforce3 und GeforceFX (02-2001 bis 01-2003) nicht gegeben AFAIK. Oder die haben auch damals schon so lange entwickelt, dann wurde allerdings parallel an mehreren Architekturen gearbeitet, so wie es ja auch bei den CPU Entwicklern üblich ist. Dann wüsste ich aber auch nicht, was dagegen spräche, dass das immer noch so ist. Jedenfalls wären 4 Jahre zwischen zwei grundlegenden Architekturen in der Vergangenheit völlig inakzeptabel im Wettbewerb gewesen. Ich vermute ganz stark, dass das auch in Zukunft nicht tragfähig wäre......
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
Anscheinend hat Nvidia in der 9er Generation doch eine ganze Menge geändert zumindest deutlich mehr, als wir bisher dachten:
Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:
http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating
Und dann schaut euch einmal die Technischen Daten an:
http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten
Das ist fast die Hälfte der Recheneinheiten. Die theoretische Leistung ist nur 60% von der 8800GT bzw. die 8800GT ist 60-70% schneller beim Chip. Zwar ist die 8800GT stark speicherlimitiert wegen den 256Bit, aber so arg ist es nun auch bei weitem wieder nicht. Da hat Nvidia einiges geändert und wenn die dann mit 512Bit für ihre High End Karte daherkommen und den doppelten Einheiten im Chip, dann wird da schon etwas ordentliches Rausschauen. Die SLI/Crossfire Lösungen muss man ja eigentlich ausklammern, weil dank Mikroruckler von den höheren average FPS nicht mehr viel übrig bleibt. Ist doch egal, ob jetzt 1 Frame alle 20ms erzeugt wird oder 2 Frames alle 25ms um 5ms versetzt. Man merkt immer den größten Abstand und das sind in beiden Fällen 20ms.
Wenn Nvidia mit einer 9600GT mit 128 Stream Prozessoren, 64TMUs/TAUs und 512Bit ankommt mit erhöhten Taktraten, dann geht die ordentlich ab. Da kann keine 8800 Ultra auch nur annähernd mithalten und die 9800 GX2 bzw. 3870 X2 sind eh mehr Marketing, als wirklich an Leistung da ist. Dass die Mikroruckler sowohl bei ATI, als auch bei Nvidia auftreten zeigt doch, dass das Problem nicht nur ein Bug ist, der schnell behoben ist, sondern ein Problem grundsätzlicher Natur nur fällt es 99% der User nicht auf, die nur average FPS sehen.
Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:
http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating
Und dann schaut euch einmal die Technischen Daten an:
http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten
Das ist fast die Hälfte der Recheneinheiten. Die theoretische Leistung ist nur 60% von der 8800GT bzw. die 8800GT ist 60-70% schneller beim Chip. Zwar ist die 8800GT stark speicherlimitiert wegen den 256Bit, aber so arg ist es nun auch bei weitem wieder nicht. Da hat Nvidia einiges geändert und wenn die dann mit 512Bit für ihre High End Karte daherkommen und den doppelten Einheiten im Chip, dann wird da schon etwas ordentliches Rausschauen. Die SLI/Crossfire Lösungen muss man ja eigentlich ausklammern, weil dank Mikroruckler von den höheren average FPS nicht mehr viel übrig bleibt. Ist doch egal, ob jetzt 1 Frame alle 20ms erzeugt wird oder 2 Frames alle 25ms um 5ms versetzt. Man merkt immer den größten Abstand und das sind in beiden Fällen 20ms.
Wenn Nvidia mit einer 9600GT mit 128 Stream Prozessoren, 64TMUs/TAUs und 512Bit ankommt mit erhöhten Taktraten, dann geht die ordentlich ab. Da kann keine 8800 Ultra auch nur annähernd mithalten und die 9800 GX2 bzw. 3870 X2 sind eh mehr Marketing, als wirklich an Leistung da ist. Dass die Mikroruckler sowohl bei ATI, als auch bei Nvidia auftreten zeigt doch, dass das Problem nicht nur ein Bug ist, der schnell behoben ist, sondern ein Problem grundsätzlicher Natur nur fällt es 99% der User nicht auf, die nur average FPS sehen.
Saulus
Grand Admiral Special
- Mitglied seit
- 11.07.2005
- Beiträge
- 8.747
- Renomée
- 95
- Mein Laptop
- ACER 5930G
- Prozessor
- ii7-4790K
- Mainboard
- GIGABYTE GA-Z97P-D3
- Kühlung
- HR-02 Macho Rev. B
- Speicher
- 16 GB DDR3-1600
- Grafikprozessor
- GTX 980ti
- Display
- 27" iiyama B2776HDS
- SSD
- 2x SSD 256GB
- HDD
- 1x HDD 750GB
- Optisches Laufwerk
- keins mehr
- Soundkarte
- nur noch Onboard
- Gehäuse
- ANTEC Sonata III
- Netzteil
- Enermax Liberty ECO II 720W
- Betriebssystem
- W7
- Webbrowser
- FireFox
Warum sollte NV jetzt warten, wenn sie eine neue Top GPU pereits fertig hätten? Und wenn die nur in kleinen Stückzahlen zu hohen Preisen angeboten würde. Da könnte man AMD aus den Highend-Segment rauskegeln. Gerade jetzt, wo der Mitbewerber anfängt sich etwas zu erholen.
Weil Entwicklung Geld kostet, darum. Und wenn man genau so gut Geld verdienen kann mit etwas deren Entwicklung schon bezahlt ist wäre man sehr dämlich was neues auf den Markt zu werfen. Denn jetzt ist genau die Zeit in der am meisten verdient wird.
nVidia wie auch ATI haben mehr als nur ein Entwicklerteam, die parallel arbeiten. Die entwinkeln am G100 und auch schon an deren Nachfolger. Und wahrscheinlich auch schon am über über nächsten.Das sehe ich anders. Der G80 war laut nvidia fast 4 jahre in arbeit. In nur 1.5 jahren kann nvidia unmöglich eine komplett neue architektur auf die beine stellen, genau wie der R700 auch keine neue architektur wird.
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Vielleicht wird ja auch das Speicherinteface wieder verbreitert ist ja bei der 8800GT doch ein Flaschenhals in sehr hohen Auflösungen mit AA
Würde aber wieder auf einen separaten Grafikchip hinauslaufen, da der G92 ebend nur 256Bit liefert.
Meiner Meinung nach wird da an der Taktschraube gedreht und das wars.
.
EDIT :
.
Anscheinend hat Nvidia in der 9er Generation doch eine ganze Menge geändert zumindest deutlich mehr, als wir bisher dachten:
Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:
http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating
Und dann schaut euch einmal die Technischen Daten an:
http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten
Na holla....satte 10 Treiberversionen (5 ATI, 5 nVidia) wurden da verwendet. Werden da einfach alte Testergebnisse in die Tabelle reinkopiert?
Sehe ich das richtig und der aktuellste ATI Treiber ist quasi der Catalyst 8.1 bei der HD 3870 X2?
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Das wurde hier im Forum schon reichlich diskutiert. Ja, vermutlich sind das "historische" Ergebnisse. Rechne mal durch, was die für Testzeiträume hätten, wenn sie 18 Grakas jedesmal neu durchtesten würden. Abgesehen davon, dass viele semiprofessionelle Sites ja Testsamples bekommen, die wieder zurückgeschickt werden. Der Leistungsunterschied ist außerdem meist ja nicht sooo gewaltig durch neue Treiberversionen, so dass das ganze als Orientierung trotzdem nützlich ist IMHO.Na holla....satte 10 Treiberversionen (5 ATI, 5 nVidia) wurden da verwendet. Werden da einfach alte Testergebnisse in die Tabelle reinkopiert?
Sehe ich das richtig und der aktuellste ATI Treiber ist quasi der Catalyst 8.1 bei der HD 3870 X2?
.
EDIT :
.
Anscheinend hat Nvidia in der 9er Generation doch eine ganze Menge geändert zumindest deutlich mehr, als wir bisher dachten:
Wenn ihr hier das Rating vergleicht, dann werdet ihr feststellen, dass auch in etwas höheren Auflösungen die 9600GT nur ca. 10% hinter der 8800GT liegt:
http://www.computerbase.de/artikel/...e_9600_gt_sli/24/#abschnitt_performancerating
Und dann schaut euch einmal die Technischen Daten an:
http://www.computerbase.de/artikel/...rce_9600_gt_sli/2/#abschnitt_technische_daten
Das ist fast die Hälfte der Recheneinheiten. Die theoretische Leistung ist nur 60% von der 8800GT bzw. die 8800GT ist 60-70% schneller beim Chip. Zwar ist die 8800GT stark speicherlimitiert wegen den 256Bit, aber so arg ist es nun auch bei weitem wieder nicht. Da hat Nvidia einiges geändert und wenn die dann mit 512Bit für ihre High End Karte daherkommen und den doppelten Einheiten im Chip, dann wird da schon etwas ordentliches Rausschauen. Die SLI/Crossfire Lösungen muss man ja eigentlich ausklammern, weil dank Mikroruckler von den höheren average FPS nicht mehr viel übrig bleibt. Ist doch egal, ob jetzt 1 Frame alle 20ms erzeugt wird oder 2 Frames alle 25ms um 5ms versetzt. Man merkt immer den größten Abstand und das sind in beiden Fällen 20ms.
Wenn Nvidia mit einer 9600GT mit 128 Stream Prozessoren, 64TMUs/TAUs und 512Bit ankommt mit erhöhten Taktraten, dann geht die ordentlich ab. Da kann keine 8800 Ultra auch nur annähernd mithalten und die 9800 GX2 bzw. 3870 X2 sind eh mehr Marketing, als wirklich an Leistung da ist. Dass die Mikroruckler sowohl bei ATI, als auch bei Nvidia auftreten zeigt doch, dass das Problem nicht nur ein Bug ist, der schnell behoben ist, sondern ein Problem grundsätzlicher Natur nur fällt es 99% der User nicht auf, die nur average FPS sehen.
Hab ich nicht irgendwo gelesen, dass die neuen Treiber die Textureinheiten irgendwie anders ansprechen und deswegen ein Leistungsplus (hoffentlich nicht gleichzeitig ein Qualitätsminus.....) mit reinkommt? Und die goodies, auch das neue PureVideoHD, sollen ja auf G92 demnächst auch freigeschaltet werden. Wenn das so stimmt, dann ist der Chip doch nicht wesentlich gegenüber G92 aufgebort.
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
So viel ändert sich bei einem neuen Treiber nicht, wenn die Karten (8800 GTX) schon seit über einem Jahr am Markt sind. Wie wollt ihr euch sonst den Unterschied erklären, dass die 8800 GTX, die 50% mehr Speicherbandbreite und einen 60-70% leistungsfähigeren Chip hat selbst unter 1600x1200 nur 34% schneller ist. CPU Limitierung wird es ja kaum sein, schon gar nicht bei 3DMark, wo es nur 10% sind. Bei der 8800 GT hat man noch sagen können, dass nur der Speicher weniger Bandbreite hat, aber der Chip etwas höher getaktet ist und die Einheiten fehlen ihr auch fast keine (gerade einmal 1/8). Gerade, dass die 8800 GTS langsamer ist, kann man sich so nicht erklären. Die hat vielleicht 20% weniger Takt, aber 50% mehr Einheiten.
VJoe2max
Lt. Commander
- Mitglied seit
- 08.05.2003
- Beiträge
- 104
- Renomée
- 4
- Mein Laptop
- Targa Visionary 811 (Athlon64 Mobile 2800+)
- Prozessor
- C2D E6400
- Mainboard
- ASUS Commando
- Kühlung
- NexXxos XP Bold 775
- Speicher
- 2x1024MB, Cellshock PC800, 4-4-4-12
- Grafikprozessor
- MSI 7900GTO Wakü mit EK-FC79
- Display
- Samsung SyncMaster 939BF
- HDD
- 2x WD 250GB 7200Rpm, 1x Samsung 250GB 7200Rpm
- Optisches Laufwerk
- Samsung DVD-ROM, LG DVD-RW
- Soundkarte
- Creative Soundblaster Audigy SE
- Gehäuse
- CM-Stacker Mod.
- Netzteil
- BeQuiet Dark Power Pro 530W
- Betriebssystem
- WinXP Pro SP2
- Webbrowser
- Firefox 2.0
- Verschiedenes
- CM Stacker mit Doppelkreislauf Wakü.
Da zeichnet sich doch irgendwie wieder der alte Trend aus den Anfangszeiten der GeForce-Reihe ab: geradzahlig (Gf 2, 4) Top - ungeradzahlig (GF 1 (256), 3, 5) Flop.
Die 6xxxer und 7xxxer Reihe passt vielleicht nicht ganz ins Schema, Bei 8xxx und 9xxx schient´s aber wieder zu passen.
Die 6xxxer und 7xxxer Reihe passt vielleicht nicht ganz ins Schema, Bei 8xxx und 9xxx schient´s aber wieder zu passen.
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Also wo die GF1 ein Flop gewesen sein soll, das muste erstmal erkären?
Ich war mit der Creative GF256 DDR superst zufrieden, dagegen hat die GF2 nicht so wirklich Mehrleistung gebracht. Quake3 Arena ging immer noch nicht in 1600x1200 in 32 Bit flüssig zu spielen.
In 16 Bit hatte auch die Gf256 gereicht.
Ich war mit der Creative GF256 DDR superst zufrieden, dagegen hat die GF2 nicht so wirklich Mehrleistung gebracht. Quake3 Arena ging immer noch nicht in 1600x1200 in 32 Bit flüssig zu spielen.
In 16 Bit hatte auch die Gf256 gereicht.
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Ergänzung zu meinem obigen Post: Ja, im cb-Test der 9600GT hab ich es gelesen. Zitat: "Nvidia hat für den G94 die ROPs per Treiber leicht verbessert (wobei der G92 genauso von den Modifizierungen profitiert). So hat man die Kompression der ROPs erhöhen können, womit G92 sowie G94 vor allem bei höheren Qualitätseinstellungen weniger Speicher- und Speicherbandbreite benötigen." http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/3/
Ob das als Erklärung für die teilweise erstaunlich gute Leistung z.B. der 9600GT langt, sei mal dahingestellt. Auf jeden Fall sagt jeder in den Reviews, die Architektur sei ansonsten nicht wesentlich verändert worden von G92 zu den 9xxx-Karten. Das erscheint mir auch höchst wahrscheinlich. Wenn nV ein neues Fass hätte aufmachen wollen, dann hätten sie bei der Gelegenheit auch gleich den shadern DX10.1 beibringen können.....
Ob das als Erklärung für die teilweise erstaunlich gute Leistung z.B. der 9600GT langt, sei mal dahingestellt. Auf jeden Fall sagt jeder in den Reviews, die Architektur sei ansonsten nicht wesentlich verändert worden von G92 zu den 9xxx-Karten. Das erscheint mir auch höchst wahrscheinlich. Wenn nV ein neues Fass hätte aufmachen wollen, dann hätten sie bei der Gelegenheit auch gleich den shadern DX10.1 beibringen können.....
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 21
- Aufrufe
- 5K
- Antworten
- 22
- Aufrufe
- 3K
- Antworten
- 1
- Aufrufe
- 2K
- Antworten
- 27
- Aufrufe
- 5K