App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA GeForce 7900 - Erste Spezifikationen aufgetaucht
- Ersteller AMD-Hammer
- Erstellt am
AMD-Hammer
Grand Admiral Special
- Mitglied seit
- 05.10.2003
- Beiträge
- 2.760
- Renomée
- 123
- Standort
- Bornheim (Rheinland)
- Mein Laptop
- Lenovo IBM Thinkpad X301
- Prozessor
- AMD Athlon 64 X2 "Manchester" 3800+
- Mainboard
- EPoX 9NPA+ SLi
- Kühlung
- Zalman CNPS 7700-Cu
- Speicher
- 4x 1GB G.Skill CL3 F1-3200PHU2-2GBNT
- Grafikprozessor
- XFX GeForce 7600 GT
- Display
- 2x 17 Zoll TFT LG Flatron L1710S
- HDD
- Hitachi 1TB HDT721010SLA360, Samsung 160GB 1614N, Samsung 200GB 2014N, IBM Hitachi GXP180 120 GB
- Optisches Laufwerk
- LG GSA 4163A
- Gehäuse
- Coolermaster CAV-T03
- Netzteil
- Seasonic S12 600 Watt
- Betriebssystem
- Debian GNU/Linux 5.0.1 AMD64
- Webbrowser
- Firefox
Nachdem sich in der letzten Zeit die Hinweise gehäuft haben, dass die neue GeForce 7900 Serie aus dem Hause NVIDIA zur CeBIT veröffentlicht wird (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1140115382" target="b">wir berichteten</a>), tauchen nun auch die ersten, jedoch noch inoffiziellen, Spezifikationen dazu auf.
So haben unsere Kollegen von <a href="http://www.vr-zone.com.sg/" target="b">VR-Zone</a> nun angeblich erste Informationen zur kommenden GeForce Serie erhalten, welche auf dem G71 Grafikprozessor basiert und der kürzlich erschienden Radeon X1900 Serie (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1138113312" target="b">wir berichteten</A>) die Leistungskrone wieder entreißen soll.
Aus dem aktuellen <a href="http://www.vr-zone.com.sg/?i=3240" target="b">Bericht</a> bei VR-Zone geht hervor, dass für die neue in 90nm gefertigte Grafikkartenserie, genau wie bei der Einführung der GeForce 7800, zwei Modelle geplant sind. Laut Aussage von VR-Zone sollen diese wieder GeForce 7900 GTX und GeForce 7900 GT heißen. Ob es auch, wie auch bei dem G70-Chip (<a href="http://www.planet3dnow.de/artikel/hardware/geforce_g78gs_agp/" target="b">wir berichteten</a>), eine GeForce 7900 GS geben wird ist zur Zeit noch unklar, jedoch recht unwahrscheinlich.
Die GeForce 7900 Serie soll nach Aussagen des Berichtes wie folgt ausgestattet sein:
<B>NVIDIA GeForce 7900 GTX</b><ul><li>Chip: G71</li><li>Pixelpipelines: 32</li><li>Chiptakt: 650 MHz</li><li>Speichertakt: 800 MHz (1.6 GHz)</li><li>Speicher: GDDR 3 512 MB [1.1 ns]</li></ul><B>NVIDIA GeForce 7900 GT</b><ul><li>Chip: G71</li><li>Pixelpipelines: 24</li><li>Chiptakt: 450 MHz</li><li>Speichertakt: 666 MHz (1.32 GHz)</li><li>Speicher: GDDR 3 256 MB [1.4 ns]</li></ul>Sollte man diesen Zahlen glauben schenken, dann überraschen doch einige Werte sehr. So verwundert es den Leser zum Beispiel beim Anblick der Pixelpipelines bei der GeForce 7900 GTX, da nach der Erhöhung der Pipelines bei Einführung der GeForce 7800 GTX erst einmal keine Änderungen in nächster Zeit vorrauszusehen waren. Auch die kaum zu erwähnende Erhöhung des GPU-Taktes sollte doch ein wenig Verwunderung hervorrufen.
Was jedoch deutlich auffällt ist der doch recht große Unterschied zwischen der -GTX und -GT Variante. Hier fällt dir Differenz doch größer aus als bisher erwartet und lässt auch einiges an Preis- und Leistungsunterschieden vermuten.
<b>Links zum Thema:</b><ul><li><a href="http://www.vr-zone.com.sg/?i=3240" target="b">NVIDIA GeForce 7900 Series Specs</a></li></uL>
So haben unsere Kollegen von <a href="http://www.vr-zone.com.sg/" target="b">VR-Zone</a> nun angeblich erste Informationen zur kommenden GeForce Serie erhalten, welche auf dem G71 Grafikprozessor basiert und der kürzlich erschienden Radeon X1900 Serie (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1138113312" target="b">wir berichteten</A>) die Leistungskrone wieder entreißen soll.
Aus dem aktuellen <a href="http://www.vr-zone.com.sg/?i=3240" target="b">Bericht</a> bei VR-Zone geht hervor, dass für die neue in 90nm gefertigte Grafikkartenserie, genau wie bei der Einführung der GeForce 7800, zwei Modelle geplant sind. Laut Aussage von VR-Zone sollen diese wieder GeForce 7900 GTX und GeForce 7900 GT heißen. Ob es auch, wie auch bei dem G70-Chip (<a href="http://www.planet3dnow.de/artikel/hardware/geforce_g78gs_agp/" target="b">wir berichteten</a>), eine GeForce 7900 GS geben wird ist zur Zeit noch unklar, jedoch recht unwahrscheinlich.
Die GeForce 7900 Serie soll nach Aussagen des Berichtes wie folgt ausgestattet sein:
<B>NVIDIA GeForce 7900 GTX</b><ul><li>Chip: G71</li><li>Pixelpipelines: 32</li><li>Chiptakt: 650 MHz</li><li>Speichertakt: 800 MHz (1.6 GHz)</li><li>Speicher: GDDR 3 512 MB [1.1 ns]</li></ul><B>NVIDIA GeForce 7900 GT</b><ul><li>Chip: G71</li><li>Pixelpipelines: 24</li><li>Chiptakt: 450 MHz</li><li>Speichertakt: 666 MHz (1.32 GHz)</li><li>Speicher: GDDR 3 256 MB [1.4 ns]</li></ul>Sollte man diesen Zahlen glauben schenken, dann überraschen doch einige Werte sehr. So verwundert es den Leser zum Beispiel beim Anblick der Pixelpipelines bei der GeForce 7900 GTX, da nach der Erhöhung der Pipelines bei Einführung der GeForce 7800 GTX erst einmal keine Änderungen in nächster Zeit vorrauszusehen waren. Auch die kaum zu erwähnende Erhöhung des GPU-Taktes sollte doch ein wenig Verwunderung hervorrufen.
Was jedoch deutlich auffällt ist der doch recht große Unterschied zwischen der -GTX und -GT Variante. Hier fällt dir Differenz doch größer aus als bisher erwartet und lässt auch einiges an Preis- und Leistungsunterschieden vermuten.
<b>Links zum Thema:</b><ul><li><a href="http://www.vr-zone.com.sg/?i=3240" target="b">NVIDIA GeForce 7900 Series Specs</a></li></uL>
MagicAndre1981
Vice Admiral Special
- Mitglied seit
- 05.09.2005
- Beiträge
- 674
- Renomée
- 10
- Standort
- Nordhausen
- Mein Laptop
- FSC Amilo 1424
- Prozessor
- AMD AthlonXP 2400+@2,2GHz
- Mainboard
- ASUS A7V600
- Speicher
- 1GB PC3200 MDT
- Grafikprozessor
- ATI Radeon 9500Pro@350MHz Chip- und 300MHz Speichertakt
- Display
- 19" CRT
- HDD
- 2*120GB Maxtor IDE
- Optisches Laufwerk
- PIONEER DVD 120-S (DVD-ROM)
- Soundkarte
- Creative Soundblaster Live! 5.1
- Netzteil
- 350W Enermax
- Betriebssystem
- WindowsXP Prof. SP2
200MHz niedriger Chiptakt bei der GT, das ist komisch. Naja, mal schauen wann die Karten kommen.
Wedge
Admiral Special
Auch die kaum zu erwähnende Erhöhung des GPU-Taktes sollte doch ein wenig Verwunderung hervorrufen.
Der Satz ist zumindest merkwürdig:
1. Sind 100Mhz mehr Kerntakt schon allerhand
2. dazu kommen 8 weitere Pixelpipelines
was in der Summe eine um knapp 50% gesteigerte Füllrate bringt (7800GTX : 13200Mpixel/s gegen 7900GTX : 20800Mpixel/s).
Weiß nich was daran bei einem Refreshchip so verwunderlich sein soll
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Der Satz ist zumindest merkwürdig:
1. Sind 100Mhz mehr Kerntakt schon allerhand
2. dazu kommen 8 weitere Pixelpipelines
was in der Summe eine um knapp 50% gesteigerte Füllrate bringt (7800GTX : 13200Mpixel/s gegen 7900GTX : 20800Mpixel/s).
Weiß nich was daran bei einem Refreshchip so verwunderlich sein soll
1. eben - abgesehen davon, dass die GTX 512 wohl kaum als Standardmodell gelten kann: schlecht verfügbar und teurer als vergleichbare Karten.
Ich bin mir allerdings nicht ganz sicher, ob mir diese Taktsteigerung besonders gefällt ... wenn nVidia mit dem G71 in die gleiche Falle tappt wie Ati beim R520/580, fällt für mich der Stromverbrauch als letztes Pro-Argument für die GTX Versionen in der G70 Serie flach.
2. Füllrate ist ja erst mal unspannend - das wird immer mehr an Bedeutung verlieren; allerdings sollte der 7900GTX immerhin eine wirklich brachiale Shaderleistung haben.
32PS/2 Shader-ALUs@650Mhz sollten gegen 16PS/3 Shader-ALUs@650Mhz gut ankommen - was die füllratenlastigen Spiele wie Q4 oder Doom3 angeht, wird der G71 wohl die dominante Stellung von nVidia nicht aufgeben.
Trotzdem werden mir die GPUs von Ati immer sympathischer - man hat einfach den Eindruck, dass Ati das intelligentere Design besitzt, während nVidia mit reiner Kraftprotzerei kontert ...
so long
JCD
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Was mich nur verwundert ist, dass bei Hartware.net eine Tabelle mit den technischen Daten basierend auf den bisherigen Gerüchten veröffentlich wurde und bei der GeForce 7900 GTX wie bei der GeForce 7900 GT von acht Vertex Shader Units gespreochen wird. Dabei müsste doch eigentlich je Pixel Shader Pipeline Quad eine Vertex Shader Unit vorhanden sein, sodass die GeForce 7900 GTX auf 10 Einheiten kommen müsste.
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
[...] Dabei müsste doch eigentlich je Pixel Shader Pipeline Quad eine Vertex Shader Unit vorhanden sein, sodass die GeForce 7900 GTX auf 10 Einheiten kommen müsste.
die VS sind (anders als noch bei der R4xx Serie von Ati) unabhängig von dem Rest der Ausführungseinheiten - da 1. die Geometrieleistung bei Spielen meist ohnehin nicht wichtig ist und 2. der Chiptakt beim G71 ja recht hoch angesetzt ist, erscheint es schon sinnvoll, die Transistoren für weitere VS zu sparen
*edit* Deine Rechnung hat einen kleinen Haken: wenn pro Pixelshaderquad ein VS zu Verfügung stehen sollte, müsste eine GF6800 3 statt 5 VS haben, eine 6800GT 4 statt 6 und eine 7800GTX 6 statt 8
so long
JCD
Zuletzt bearbeitet:
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Wieso es kommt doch hin. Eine GeForce 6800 hat 12 Pixelpipelines und 5 Vertex Shader Units. Die GeForce 6800 GT hat ein Pipe Quad mehr und insgesamt 6 Vertex Shader Units. Die GeForce 7800 GT hat wiederrum ein Pipe Quad mehr und somit insgesamt 20 Pixel Pipelines und hat gegenüber der GeFeforce 6800 GT eine Vertex Shader Unit (7) mehr. Die GeForce 7800 GTX hat dann wieder ein Pipe Quad mehr und eine Vertex Shader Einheit zusätzlich. Somit kommen immer auf vier Pixel Shader Pipelines eine Vertex Shader Unit. Man muss den Satz nur so formulieren, dass nicht auf vier Pixelpipelines eine Vertex Shader Einheit kommt, sondern auf ein zusätzliches Pipe Quad eine Vertex Shader Unit.*edit* Deine Rechnung hat einen kleinen Haken: wenn pro Pixelshaderquad ein VS zu Verfügung stehen sollte, müsste eine GF6800 3 statt 5 VS haben, eine 6800GT 4 statt 6 und eine 7800GTX 6 statt 8
Zuletzt bearbeitet:
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Ach so; entschuldige bitte, ich hatte Deinen Gedankengang missverstanden
Allerdings wäre es in meinen Augen - aus o.g. Gründen - eben ohnehin wenig sinnvoll diese 10VS zu implementieren.
so long
JCD
Allerdings wäre es in meinen Augen - aus o.g. Gründen - eben ohnehin wenig sinnvoll diese 10VS zu implementieren.
so long
JCD
Zuletzt bearbeitet:
Lutscher
Vice Admiral Special
- Mitglied seit
- 18.10.2004
- Beiträge
- 956
- Renomée
- 3
- Standort
- In der Nähe von Bremerhaven
- Mein Laptop
- Lenovo T430
- Prozessor
- Core i7 13700K
- Mainboard
- MSI Pro Z790-A Wifi
- Kühlung
- be quiet Pure Loop 2 FX
- Speicher
- GSkill Trident Z5 DDR6400 CL32
- Grafikprozessor
- MSI GeForce RTX 3080 12G
- Display
- ASUS PA32UCK
- SSD
- Samsung 990 Pro NVMe
- Soundkarte
- Creative AE9-PE
- Gehäuse
- Corsair AIR
- Netzteil
- be quiet Straight Power 11 1200W
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Internetanbindung
- ▼500 ▲100
Das der Unterschied grösser wird zwischen den Modellen war klar, denn zwischen der 7800 GT und der normalen GTX waren gerade mal 10~15 % Unterschied je nach Anwendung und das bei durchschnittlich 120€ Preisunterschied.
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Das der Unterschied grösser wird zwischen den Modellen war klar, denn zwischen der 7800 GT und der normalen GTX waren gerade mal 10~15 % Unterschied je nach Anwendung und das bei durchschnittlich 120€ Preisunterschied.
eigentlich war das ja in der Vergangenheit recht normal: GF4 Ti4200 vs. 4600 = etwas mehr Takt (mehr RAM), R9700 vs. Pro = etwas mehr Takt, GF6800GT vs. Ultra = etwas mehr Takt ... etc.
Die 7900GT nicht nur zweier Pixelquads zu berauben, sondern auch den Chiptakt satte 100Mhz geringer anzusetzen ist in meinen Augen schon ein sehr harter Einschnitt ...
so long
JCD
Low Rider
Grand Admiral Special
- Mitglied seit
- 20.08.2003
- Beiträge
- 4.251
- Renomée
- 44
- Standort
- Stuttgart/Berlin
- Prozessor
- Phenom II X6 1090T
- Mainboard
- Asus Crosshair IV
- Kühlung
- Alpenföhn Matterhorn
- Speicher
- 2x 2GB Geil DDR3-1600
- Grafikprozessor
- Zotac GTX 480 AMP
- Display
- Dell 27"
- HDD
- Crucial RealSSD 128 GB + WD Green 1000 GB
- Optisches Laufwerk
- Samsung SH-B083L Bluray/DVD
- Soundkarte
- on Board
- Gehäuse
- Silverstone Fortress 2
- Netzteil
- Enermax Modu 82+ 625W
- Betriebssystem
- Windows 7 Ultimate 64bit
Erstaunlich welch Unterschied da zwischen der 7900GT und GTX sein soll. Da drängt sich doch gleich der Verdacht auf, daß die GTX als absolute Benchmarkkiller-Karte dienen soll und dabei (wenn überhaupt verfügbar) für irrsinnige Summen weggehen wird.
Die Highend-Massenkarte wird gewiss die 7900GT, aber ob die schneller als eine X1900 wird?
Die Highend-Massenkarte wird gewiss die 7900GT, aber ob die schneller als eine X1900 wird?
Nicht daß ich hohen Stromverbrauch gutheiße... aber idle verbrauchen X1900 und 7800GTX etwa gleich viel, bei Last brauch die ATI mehr. Aber ob ich nun 133 oder 100W verbrauche macht bei 3 Stunden Zocken pro Tag in einem Jahr ganze 7,30€ Mehrkosten (bei 0,2€/kWh)...1. eben - abgesehen davon, dass die GTX 512 wohl kaum als Standardmodell gelten kann: schlecht verfügbar und teurer als vergleichbare Karten.
Ich bin mir allerdings nicht ganz sicher, ob mir diese Taktsteigerung besonders gefällt ... wenn nVidia mit dem G71 in die gleiche Falle tappt wie Ati beim R520/580, fällt für mich der Stromverbrauch als letztes Pro-Argument für die GTX Versionen in der G70 Serie flach.
G
gast0972
Guest
Erstaunlich welch Unterschied da zwischen der 7900GT und GTX sein soll. Da drängt sich doch gleich der Verdacht auf, daß die GTX als absolute Benchmarkkiller-Karte dienen soll und dabei (wenn überhaupt verfügbar) für irrsinnige Summen weggehen wird.
Die Highend-Massenkarte wird gewiss die 7900GT, aber ob die schneller als eine X1900 wird?
Nicht daß ich hohen Stromverbrauch gutheiße... aber idle verbrauchen X1900 und 7800GTX etwa gleich viel, bei Last brauch die ATI mehr. Aber ob ich nun 133 oder 100W verbrauche macht bei 3 Stunden Zocken pro Tag in einem Jahr ganze 7,30€ Mehrkosten (bei 0,2€/kWh)...
Dann kommt noch hinzu, das in den nächsten ForceWare's wohl eine Funktion hinzukommt, die AMD's Cool'n'Quiet wohl ähnlich sein wird.
Und was der Titulierung "Benchmarkkiller" hinzuzufügen wäre, ist Folgendes:
a) hat das auch Ati mit seinem Flaggschiff erstklassig hinbekommen (nur eine handvoll Karten verfügbar)
b) werden soooviele Leute diese Karte nun auch nicht kaufen. Es werden Fetischisten sein, Leute die halt privat auch einen Ferrari oder Lamborghini benötigen um einkaufen zu fahren...
Wichtig ist, das die GT ausreichend verfügbar sein wird und daran hege ich keinerlei Zweifel.
WolfenStein
Captain Special
- Mitglied seit
- 30.10.2003
- Beiträge
- 230
- Renomée
- 1
Feine Sache - wollte mir schon eine 7800GT holen, werde jetzt doch noch ein bisschen warten und die Preise/Benchmarks beobachten.
Desertdelphin
Grand Admiral Special
- Mitglied seit
- 23.10.2002
- Beiträge
- 4.395
- Renomée
- 185
während nVidia mit reiner Kraftprotzerei kontert ...
Das find ich saugeil und das macht mich tierisch an... So animalisch *Grins*
G
gast0972
Guest
Das find ich saugeil und das macht mich tierisch an... So animalisch *Grins*
Zu diesem Kommentar, der Dich anscheinend animalisch anzieht, wollte ich auch noch was loswerden:
War es nicht die liebe Firma ATI, die SCHWITZEND nur an der Taktschraube drehte und vielen Karten den Tod brachte, während NVIDIA die technisch weit überlegene NV40 Generation auf den Markt bracht...?
Alles bleibt sich doch irgendwie gleich. Umso schöner, das es bei ATI und NVIDIA recht ausgeglichen zugeht.
ja ATI hat 2005 eindeutig Ihre Chance verpasst und Nvidia einfach hart eroberten Markt wieder geschenkt. besonders in der Zeit wo die meisten Spiele rausgekommen sind und die Leute mit Geld zu den teuersten Karten zugerfiffen hatten, die aber nur von Nvidia zur Verfuegung gab. Mit dem entsprechenden Image ist es dann auch leicht die 7900 er Serie sogar fuer 600 Euro locker zu vertilgen und Preisleistungstechnisch ist die ATIs X8xx Serie auch nicht der Renner, wo schon 7800GT fuer unter 280 € erhaeltlich ist... Tendenz zu 250€. Und die Nvidias Strategie mit mehr Pipelines ist zwar nicht effizient aber das errinert mich an damalige Zeit, wo AMD mit Athlon XP gegen Intel mit seinen 3 Gigaherz Monstern wirken wollte.
Flox
Admiral Special
Gemäß Dailytech schaut das für die GTX schon wieder ganz anders aus:
http://www.dailytech.com/article.aspx?newsid=915
Keine Rede von 32 pipes.
Da bleibt wohl nur der ausgelutschte Spruch: abwarten und Tee trinken...
Gruß, Flox
http://www.dailytech.com/article.aspx?newsid=915
Keine Rede von 32 pipes.
Da bleibt wohl nur der ausgelutschte Spruch: abwarten und Tee trinken...
Gruß, Flox
Ähnliche Themen
- Antworten
- 613
- Aufrufe
- 49K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 680
- Aufrufe
- 89K
- Antworten
- 0
- Aufrufe
- 1K