App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
NVIDIA GT200 mit 192 Streamprozessoren?
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Wie NVIDIA gestern bei einer Presseveranstaltung in München bestätigte, soll der GT200 über eine Gesamtzahl von rund einer Milliarde Transistoren verfügen, was die Zahl von 192 Streamprozessoren realistisch erscheinen lässt.
Vergleicht man die Transistorenzahl der beiden aktuellen Grafikchips G92 und G94, die auf aktuellen GeForce-Grafikkarten der achten und neunten Generation zum Einsatz kommen, so bestätigt sich diese Vermutung. Gegenüber dem mit "nur" 64 Streamprozessoren ausgestatteten G94 besitzt der G92 (128 SPs) ungefähr 250 Millionen Transistoren mehr. Dies legt die Vermutung nahe, dass der GT200 gegenüber dem G92 ebenfalls 64 weitere Streamprozessoren besitzt, da er abermals rund 250 Millionen Transistoren mehr besitzt.
<center><table><tr><td><table cellpadding="5" cellspacing="0" width="500" style="border-color:#000000; border-width:1px; border-style:solid;"><tr><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Grafikchip</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Streamprozessoren</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">ROPs</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">TMUs</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Transistoren</font></b></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>GT200</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>192*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>24*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>96*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>rund 1 Milliarde</b></center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>G92</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>128</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>16</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>64</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>754 Millionen</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>G94</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>64</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>8</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>32</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>505 Millionen</center></font></td></tr></table></td></tr></table></center>
* Bei den genannten Daten handelt es sich ausschließlich um Spekulationen.
<b>Quelle:</b> <a href="http://www.golem.de/0804/58955.html" target="_blank">Nvidia bestätigt: "GT-200" mit 1 Milliarde Transistoren</a>
<b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1207679745">NVIDIA GeForce 9800GX2 soll bereits im Juni auslaufen</a>
Vergleicht man die Transistorenzahl der beiden aktuellen Grafikchips G92 und G94, die auf aktuellen GeForce-Grafikkarten der achten und neunten Generation zum Einsatz kommen, so bestätigt sich diese Vermutung. Gegenüber dem mit "nur" 64 Streamprozessoren ausgestatteten G94 besitzt der G92 (128 SPs) ungefähr 250 Millionen Transistoren mehr. Dies legt die Vermutung nahe, dass der GT200 gegenüber dem G92 ebenfalls 64 weitere Streamprozessoren besitzt, da er abermals rund 250 Millionen Transistoren mehr besitzt.
<center><table><tr><td><table cellpadding="5" cellspacing="0" width="500" style="border-color:#000000; border-width:1px; border-style:solid;"><tr><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Grafikchip</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Streamprozessoren</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">ROPs</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">TMUs</font></b></td><td align="center" valign="top" bgcolor="#000000"><b><font face="arial,helvetica" color="#008c58">Transistoren</font></b></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>GT200</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>192*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>24*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>96*</b></center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center><b>rund 1 Milliarde</b></center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>G92</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>128</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>16</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>64</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>754 Millionen</center></font></td></tr><tr><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>G94</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>64</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>8</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>32</center></font></td><td bgcolor="#ffffff" style="border-right-color:#000000; border-bottom-color:#000000; border-right-width:1px; border-bottom-width:1px; border-right-style:solid; border-bottom-style:solid; border-left-style:none;"><font face="arial,helvetica" size="-1"><center>505 Millionen</center></font></td></tr></table></td></tr></table></center>
* Bei den genannten Daten handelt es sich ausschließlich um Spekulationen.
<b>Quelle:</b> <a href="http://www.golem.de/0804/58955.html" target="_blank">Nvidia bestätigt: "GT-200" mit 1 Milliarde Transistoren</a>
<b>Link zum Thema:</b> <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1207679745">NVIDIA GeForce 9800GX2 soll bereits im Juni auslaufen</a>
N1truX
Admiral Special
- Mitglied seit
- 06.07.2007
- Beiträge
- 1.155
- Renomée
- 64
- Standort
- Berlin
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC
- Lieblingsprojekt
- QMC
- Meine Systeme
- Athlon II X4 620, Athlon II X2 250, Phenom II X4 940 BE
- BOINC-Statistiken
- Mein Laptop
- ASUS U38N
- Details zu meinem Desktop
- Prozessor
- AMD FX-8150 @4 GHz
- Mainboard
- GIGABYTE GA-990XA-UD3
- Kühlung
- Antec H2O 920
- Speicher
- 4x4 GB DDR3-1866 CL9
- Grafikprozessor
- Sapphire Radeon HD 5770 (940/1290))
- Display
- 2x Eizo EV2333W-BK
- HDD
- SanDisk Extreme SSD 120 GB + 9 TB Storage-Server
- Optisches Laufwerk
- LiteOn iHOS104 (BluRay-ROM)
- Soundkarte
- Denon AVR-1610 :)
- Gehäuse
- Antec P183
- Netzteil
- Be Quiet! Dark Power 430W
- Betriebssystem
- Windows7 Ultimate x64
- Webbrowser
- Opera
- Schau Dir das System auf sysprofile.de an
Naja der GT200 wird sicherlich etwas mehr sein als nen G92 mit 192 Shadern 

NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Darum geht es ja nicht, er wird nur wohl aufgrund der Transistorenzahl nicht mehr als 200 Streamprozessoren haben, wie viele gerne hätten...Naja der GT200 wird sicherlich etwas mehr sein als nen G92 mit 192 Shadern![]()
Je stärker sich der GT200 vom G92 unterscheidet desto unwahrscheinlicher wird auch eine höhere Streamprozessorenzahl.
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Details zu meinem Desktop
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
Ich denke schon das der G200 hauptsächlich eine Aufstockung der Shader bekommt. Ansonsten dürften die Verbesserungen eher marginal sein. Rein Füllraten technisch braucht nVidia nicht aufzustocken, da davon derzeit schon mehr als genug da ist. Kleine Verbesserungen in den Timings, Z-Buffer, vielleicht eine optimierter Chipaufbau und dann nur noch Shader. Und 50% mehr Shader, sind ein Haufen an Mehrleistung. Stimmen dann noch die Takraten..... und hoffen wir mal das sie auf 55nm runter gehen, wie sie es bei den Mobile GPUs ja jetzt machen.... dürfte der Chip recht Leistungsstark werden.
Interessant wäre zu wissen wie der Speicher angebunden sein wird und wie hoch die Speicherbandbreite sein wird, da sich ja bei der jetzigen Generation schon zeigt das nVidia hier abhängiger von der Speicherbandbreite ist als ATI.
Interessant wäre zu wissen wie der Speicher angebunden sein wird und wie hoch die Speicherbandbreite sein wird, da sich ja bei der jetzigen Generation schon zeigt das nVidia hier abhängiger von der Speicherbandbreite ist als ATI.
Makso
Grand Admiral Special
- Mitglied seit
- 15.02.2006
- Beiträge
- 3.393
- Renomée
- 142
- Standort
- Österreich
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, POEM, Docking
- Lieblingsprojekt
- Folding@Home
- Folding@Home-Statistiken
- Mein Laptop
- Desktopsystem
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1400@3,8GHz
- Mainboard
- Asrock B350 Pro4
- Kühlung
- Scythe Mugan 5
- Speicher
- 2x4GB ADATA
- Grafikprozessor
- RX 550
- Display
- BenQ 21,5
- SSD
- Samsung 960Pro
- HDD
- 1TB WD
- Optisches Laufwerk
- LG schwarz
- Soundkarte
- AC 97
- Gehäuse
- NZXT Beta Evo
- Netzteil
- AXP SimplePower 630W
- Betriebssystem
- Win 10
- Webbrowser
- Chrome
wie viele Streamprozessoren haben eigentlich die AMD Graka´s ich meine die 4xxx Serie
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Details zu meinem Desktop
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
wie viele Streamprozessoren haben eigentlich die AMD Graka´s ich meine die 4xxx Serie
Das kann dir derzeit wohl kaum einer sagen. Problem ist auch, das man auch die Streamprozessoren nicht direkt vergleichen kann. ATI gibt ja gerne an das sie derzeit auf den 3850/3870/2900 Karten 320 davon haben. Das stimmt allerdings nur bedingt. Während nVidia derzeit 128 hat, verwendet ATI im eigentlichen Sinne nur 64. Auf 320 kommt man nur, wel jeder der ATI Stremprozessoren quasi 5 Berechnungen gleichzeitig durchführen kann womit man auf die 320 kommt. Allerdings müssen diese 5 Befehle/Berechnungen zusammen hängen damit es genutzt werden kann. Benötigt eine bestimmte Berechnung nur 2 Berechnungen/Befehle, liegen 3 Brach. Bei nVidia berechnet jeder Streamprozessor nur 1 Befehl.
Im Grunde sind die Streamprozessoren schwächer als bei ATI, nur gleicht das nVidia mit extrem hohen Shadertaktraten aus. Bei ATI sind die Shadertaktraten am Chiptakt gebunden. Ich bezweifel das es beim R700 anders aussehen wird. Eine Änderung dieses Aufbaus erfordert eine gänzlich neue Entwicklung des Chips, was sehr lange dauert und unheimlich kostenintensiv ist. Der R700 wird demnach auf dem R600/670 aufbauen und lediglich verbessert und erweitert werden.
Zumindest ist dies meine Meinung.
Makso
Grand Admiral Special
- Mitglied seit
- 15.02.2006
- Beiträge
- 3.393
- Renomée
- 142
- Standort
- Österreich
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, POEM, Docking
- Lieblingsprojekt
- Folding@Home
- Folding@Home-Statistiken
- Mein Laptop
- Desktopsystem
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1400@3,8GHz
- Mainboard
- Asrock B350 Pro4
- Kühlung
- Scythe Mugan 5
- Speicher
- 2x4GB ADATA
- Grafikprozessor
- RX 550
- Display
- BenQ 21,5
- SSD
- Samsung 960Pro
- HDD
- 1TB WD
- Optisches Laufwerk
- LG schwarz
- Soundkarte
- AC 97
- Gehäuse
- NZXT Beta Evo
- Netzteil
- AXP SimplePower 630W
- Betriebssystem
- Win 10
- Webbrowser
- Chrome
Der R700 wird demnach auf dem R600/670 aufbauen und lediglich verbessert und erweitert werden.
Zumindest ist dies meine Meinung.
jetzt verstehe ich auch den unterschied. Aber was ist wenn AMD es denoch geschaft hat den R670 also der neue R700. Wäre dann teoretisch die neue AMD GPu dann um a eckn besser??
Die 3850/3870 sind wie du sagst nur verbesserungen gegenüber der HD 2900 und um a eckn
besser vom Verbrauch und Leistung zumindest, die 3870
Danke für die Information

andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Details zu meinem Desktop
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
1.) Was die Streamprozessoren angeht, so kann man das grob so vergleichen:
AMD hat die halben Prozessoren mit ca. 1/2 des Taktes. Dafür kann ein Streamprozessor ähnlich wie bei SSE 5 gleiche Operationen gleichzeitig berechnen. Dadurch ist die theoretische Leistung etwas höher, Leider bleibt davon in der Realität davon nicht viel übrig, da ein Farbwert eben nur 3 Werte hat (RGB) und vielleicht noch einen Alpha Wert, aber da weiß ich nicht, ob der auch eine Rolle bei der Berechnung spielt.
2.) Also 192 Streamprozessoren würde ich einmal als eine grobe Enttäuschung werten bei 55nm, wenn sich an der Architektur nichts ändert. Die 8800 GTX mit 90nm hatte schon 128 davon und jetzt ist bei gleicher Fläche die 2,5-3 fache Anzahl an Transistoren drin. Man sollte hier also schon knapp 2 Mrd. für das High End Modell erwarten können bzw. mindestens 256 Stream Einheiten mit ein paar Verbesserungen an der Architektur und zusätzlich 512 Bit Speicherinterface. Alles andere ist wieder nur ein Mainstream Modell wie die 8800 GT/GTS.
AMD hat die halben Prozessoren mit ca. 1/2 des Taktes. Dafür kann ein Streamprozessor ähnlich wie bei SSE 5 gleiche Operationen gleichzeitig berechnen. Dadurch ist die theoretische Leistung etwas höher, Leider bleibt davon in der Realität davon nicht viel übrig, da ein Farbwert eben nur 3 Werte hat (RGB) und vielleicht noch einen Alpha Wert, aber da weiß ich nicht, ob der auch eine Rolle bei der Berechnung spielt.
2.) Also 192 Streamprozessoren würde ich einmal als eine grobe Enttäuschung werten bei 55nm, wenn sich an der Architektur nichts ändert. Die 8800 GTX mit 90nm hatte schon 128 davon und jetzt ist bei gleicher Fläche die 2,5-3 fache Anzahl an Transistoren drin. Man sollte hier also schon knapp 2 Mrd. für das High End Modell erwarten können bzw. mindestens 256 Stream Einheiten mit ein paar Verbesserungen an der Architektur und zusätzlich 512 Bit Speicherinterface. Alles andere ist wieder nur ein Mainstream Modell wie die 8800 GT/GTS.
NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Eine GT200 mit 700MHz Takt würde alles aktuelle an Single-Grafikkarten nahezu deklassieren, eine 3870 X2 würde wohl auch noch gut überholt und eine 9800GX2 mindestens erreicht. Von daher sehe ich da jetzt keinen großen Grund zur Enttäuschung.
Gegenüber dem G80 wurde bereits beim G92 PCIe 2.0 und die VP2 integriert was schonmal Transistoren gekostet hat.
Im besten Falle bringt 55nm die Möglichkeit 2,7 mal mehr Transistoren auf der gleichen Fläche zu integrieren, jedoch darf man nicht die steigenden Taktraten, die den Vorteil der reinen Verkleinerung zum Teil aufheben. Der GT200 wird aber definitiv deutlich kleiner als der G80...
Gegenüber dem G80 wurde bereits beim G92 PCIe 2.0 und die VP2 integriert was schonmal Transistoren gekostet hat.
Im besten Falle bringt 55nm die Möglichkeit 2,7 mal mehr Transistoren auf der gleichen Fläche zu integrieren, jedoch darf man nicht die steigenden Taktraten, die den Vorteil der reinen Verkleinerung zum Teil aufheben. Der GT200 wird aber definitiv deutlich kleiner als der G80...
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.617
- Renomée
- 41
Willst du das auch bezahlen?2.) Also 192 Streamprozessoren würde ich einmal als eine grobe Enttäuschung werten bei 55nm, wenn sich an der Architektur nichts ändert. Die 8800 GTX mit 90nm hatte schon 128 davon und jetzt ist bei gleicher Fläche die 2,5-3 fache Anzahl an Transistoren drin. Man sollte hier also schon knapp 2 Mrd. für das High End Modell erwarten können bzw. mindestens 256 Stream Einheiten mit ein paar Verbesserungen an der Architektur und zusätzlich 512 Bit Speicherinterface. Alles andere ist wieder nur ein Mainstream Modell wie die 8800 GT/GTS.
Sag jetzt aber nicht, mehr als 250 Euronen geb ich aber dafür nicht aus.
Guck dir mal die paar Transistoren der Cpu an und wie teuer die werden können, und davon ist noch ein deftiger Anteil nur Cache.
Und jetzt forderst du eine Gpu die Cpu um längen schlägt was Transistoranzahl und Fläche betrifft.
Was würdest du dafür zahlen wollen?
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Details zu meinem Desktop
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
@Makso
Wenn ATI den R700 komplett neu designet hat, und aus den Fehlern beim R600/670 gelernt hat (gibt ja einige) sollte der R700 sehr schnell werden. Aber schneller als nVidia? Zweifelhaft. Im Grunde stehen beide Hersteller immer auf ähnlichem Leistungslevel. Das derzeit nVidia so überragend in der Leistung ist (bei einer einzelnen GPU) liegt wohl eher darann das DX10 eine Umdenkung in der Technologie hervorgerufen hat und nVidia bei ihrem ersten Schritt einfach konservativer vorgegangen ist und damit einfach besser lag.
Während ATi auf reine Shaderleistung gesetzt hat, diese auch noch technisch extrem aufwendig gestalttet hat (durch die 5 Berechnungen pro Shadereinheit), blieb nVidia auf dem Boden, konstruierte einfach Shader Units und erhöhte neben bei noch enorm die Füllraten der Karten. Letzteres hat ATI schlichtweg versäumt. Eine 3870 hat quasi die selbe Pixelfüllrate wie eine X1950XT.
@NOFX
Ich bin nicht der Meinung das eine GT200 mit 700Mhz Chiptakt "deutlich" schneller ist als eine X2 3870/ 9800 GX2. Eigentlich bin ich überzeugt das diese etwa auf dem gleichen Leistungsniveau liegt. 192 Shader sind 50% an Merhleistung gegenüber einer 8800Ultra (grob gesagt). Eine X2 3870/ 9800 GX2 sind ebenfalls ca. 50% schneller als diese wenn man mal gut skalierende Spiele nimmt. Von daher würde ich eher sagen das die GT200, sollte sie denn wirklich nur eine Shaderaufstockung bekommen haben, natürlich mit den damit verbunden Aufstockungen bei den ROPs und TMUs, wird sie die derzeitigen DualGPU Karten ablösen, mehr auch nicht.
Allerdings sollte jeder eingestehen das dies schon eine beachtliche Leistung ist und generell ungefähr der Leistungssteigerung jeder neuen GPU Generation entspricht (die Refresh Karten mal außen vor gelassen)
Wenn ATI den R700 komplett neu designet hat, und aus den Fehlern beim R600/670 gelernt hat (gibt ja einige) sollte der R700 sehr schnell werden. Aber schneller als nVidia? Zweifelhaft. Im Grunde stehen beide Hersteller immer auf ähnlichem Leistungslevel. Das derzeit nVidia so überragend in der Leistung ist (bei einer einzelnen GPU) liegt wohl eher darann das DX10 eine Umdenkung in der Technologie hervorgerufen hat und nVidia bei ihrem ersten Schritt einfach konservativer vorgegangen ist und damit einfach besser lag.
Während ATi auf reine Shaderleistung gesetzt hat, diese auch noch technisch extrem aufwendig gestalttet hat (durch die 5 Berechnungen pro Shadereinheit), blieb nVidia auf dem Boden, konstruierte einfach Shader Units und erhöhte neben bei noch enorm die Füllraten der Karten. Letzteres hat ATI schlichtweg versäumt. Eine 3870 hat quasi die selbe Pixelfüllrate wie eine X1950XT.
@NOFX
Ich bin nicht der Meinung das eine GT200 mit 700Mhz Chiptakt "deutlich" schneller ist als eine X2 3870/ 9800 GX2. Eigentlich bin ich überzeugt das diese etwa auf dem gleichen Leistungsniveau liegt. 192 Shader sind 50% an Merhleistung gegenüber einer 8800Ultra (grob gesagt). Eine X2 3870/ 9800 GX2 sind ebenfalls ca. 50% schneller als diese wenn man mal gut skalierende Spiele nimmt. Von daher würde ich eher sagen das die GT200, sollte sie denn wirklich nur eine Shaderaufstockung bekommen haben, natürlich mit den damit verbunden Aufstockungen bei den ROPs und TMUs, wird sie die derzeitigen DualGPU Karten ablösen, mehr auch nicht.
Allerdings sollte jeder eingestehen das dies schon eine beachtliche Leistung ist und generell ungefähr der Leistungssteigerung jeder neuen GPU Generation entspricht (die Refresh Karten mal außen vor gelassen)
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Man geht bisher von 480 aus (96x 5D). Aber wie schon gesagt wurde, man kann die Streamprozessoren nur bedingt vergleichen. ATI kann zB pro Streamprozessor ein ADD und ein MUL pro Takt ausführen, nVidia ein ADD und zwei MUL. Ein MUL bei nVidia wird in der Praxis allerdings für Sonderfunktionen (sin, cos) benutzt und kann damit nur bedingt zur eigentlichen Rohleistung beitragen. Bei ATI hingegen übernimmt diese Sonderfunktionen ein Streamprozessor eines Shaders (5D). Es ist übrigens falsch, dass bei ATI Streamprozessoren brach liegen, wenn ein entsprechend nicht grosser Vektor auf den jeweiligen Shader losgelassen wird. Die Shader können genauso skalar arbeiten. Wie gut die Auslastung ist, hängt letztendlich vom jeweiligen Szenario und der Optimierung des Treibers ab.wie viele Streamprozessoren haben eigentlich die AMD Graka´s ich meine die 4xxx Serie
Letztendlich muss man sagen, die Shaderleistung pro Takt ist bei ATI deutlich höher. nVidia versucht hohe Taktraten dagegen zu setzen.
NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
@NOFX
Ich bin nicht der Meinung das eine GT200 mit 700Mhz Chiptakt "deutlich" schneller ist als eine X2 3870/ 9800 GX2. Eigentlich bin ich überzeugt das diese etwa auf dem gleichen Leistungsniveau liegt.
Wir sagen doch das gleiche...Eine GT200 mit 700MHz Takt würde alles aktuelle an Single-Grafikkarten nahezu deklassieren, eine 3870 X2 würde wohl auch noch gut überholt und eine 9800GX2 mindestens erreicht.
Nur die X2 bzw. GX2 werden noch Land sehen, das wird beim RV770 aber auch nicht anders sein.
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Details zu meinem Desktop
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
1.) Bis auf die letzte X1800XT haben meine Grafikkarten immer um die 400 Euro gekostet. Nur das letzte Mal ware gerade nichts ordentliches am Markt, da die 8800 GTX noch nicht verfügbar war, sonst hätte ich eh noch ein bisschen gewartet, wenn ich gewusst hätte, wie schnell die ist.
2.) Dass der neue High End Grafikchip von Nvidia deutlich schneller sein wird, als die Mainstream Chips um die 130 Euro, sollte denke ich einmal klar sein, sonst würde da etwas grob nicht stimmen. Bis vor kurzem hat man um den Preis nur eine verkrüppelte 8600 GT oder 2600 XT bekommen. Wenn der neue Chip, der Mitte 2008 kommt (wahrscheinlich wird es eher Herbst) nur ca. 50% schneller ist, wie die Karte, die es Ende 2006 gegeben hat, so ist das bei Grafikchips eher mies. Vor allem, wenn man bedenkt, dass es dann bis mindestens Mitte 2009 dauert, bis was neues kommt. Da ist man ja mit einer 8800GTX, die man zu Weihnachten 2006 gekauft hat ja 3 Jahre lang im Mittelfeld dabei und kann aktuelle Titel auch in 1920x1200 flüssig spielen. Das war noch nie der Fall bisher.
3.) Spiele, die gut mit Dual Karten skalieren? Gibt es die wirklich oder ist das nur ein Mythos? Ich meine hier nicht die Average FPS, sondern wirklich sichtbare FPS und keine 2 fast gleichen Frames hintereinander, wodurch man erst wieder Mikroruckler hat und trotz 40-50 fps nicht flüssig spielen kann. Auch ein neuer Treiber, der die Frames verzögert, dass sich das Problem nicht mehr so leicht nachweisen lässt, wird nicht viel bringen. Ich schätze den Vorteil von 2 Grafikchips (entweder Dual Karte oder SLI/Crossfire) auf ca. 10-20% im Schnitt. Mehr wird es kaum sein.
2.) Dass der neue High End Grafikchip von Nvidia deutlich schneller sein wird, als die Mainstream Chips um die 130 Euro, sollte denke ich einmal klar sein, sonst würde da etwas grob nicht stimmen. Bis vor kurzem hat man um den Preis nur eine verkrüppelte 8600 GT oder 2600 XT bekommen. Wenn der neue Chip, der Mitte 2008 kommt (wahrscheinlich wird es eher Herbst) nur ca. 50% schneller ist, wie die Karte, die es Ende 2006 gegeben hat, so ist das bei Grafikchips eher mies. Vor allem, wenn man bedenkt, dass es dann bis mindestens Mitte 2009 dauert, bis was neues kommt. Da ist man ja mit einer 8800GTX, die man zu Weihnachten 2006 gekauft hat ja 3 Jahre lang im Mittelfeld dabei und kann aktuelle Titel auch in 1920x1200 flüssig spielen. Das war noch nie der Fall bisher.
3.) Spiele, die gut mit Dual Karten skalieren? Gibt es die wirklich oder ist das nur ein Mythos? Ich meine hier nicht die Average FPS, sondern wirklich sichtbare FPS und keine 2 fast gleichen Frames hintereinander, wodurch man erst wieder Mikroruckler hat und trotz 40-50 fps nicht flüssig spielen kann. Auch ein neuer Treiber, der die Frames verzögert, dass sich das Problem nicht mehr so leicht nachweisen lässt, wird nicht viel bringen. Ich schätze den Vorteil von 2 Grafikchips (entweder Dual Karte oder SLI/Crossfire) auf ca. 10-20% im Schnitt. Mehr wird es kaum sein.
NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Der G80 war schon ein sehr großer Schritt, das nach diesem erstmal nicht viel folgen würde, war ja absehbar. Das gleiche war ja auch bei dem NV40 der Fall...
Verzögerung bei den Frames für Dual-Grafikkarten werden wohl nicht nach dem fertigen Rendern eingebaut, sondern vorher. Daher wird dann auch der Bildfluss gleichmäßiger, obwohl es ein paar Prozent Leistung kosten wird. Wenn die Hersteller es im Treiber dem Anwender freistellen, welche Modus er nutzen möchte, also unverzögerte Bildausgabe für hohe Benchmarkwerte oder gleichmäßige für guten Spielfluss, dann ist odch alles in Butter.
Verzögerung bei den Frames für Dual-Grafikkarten werden wohl nicht nach dem fertigen Rendern eingebaut, sondern vorher. Daher wird dann auch der Bildfluss gleichmäßiger, obwohl es ein paar Prozent Leistung kosten wird. Wenn die Hersteller es im Treiber dem Anwender freistellen, welche Modus er nutzen möchte, also unverzögerte Bildausgabe für hohe Benchmarkwerte oder gleichmäßige für guten Spielfluss, dann ist odch alles in Butter.
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Details zu meinem Desktop
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
Ich versteh nicht so wirklich warum man bei CrossFire und SLI nicht auf die Technik vom ehemaligen Hersteller 3Dfx setzt. Das war effizient. Microruckler gab es nicht und die Leistung wurde fast 1:1 umgesetzt. Warum dieser Umstand heutzutage?
andr_gin
Grand Admiral Special
- Mitglied seit
- 12.06.2003
- Beiträge
- 3.052
- Renomée
- 24
- Standort
- St. Pölten (60km westlich von Wien)
- Details zu meinem Desktop
- Prozessor
- Core 2 Quad Q6600 @2,7GHz
- Mainboard
- ASUS P5B Deluxe
- Kühlung
- Zalman CNPS 9700 LED
- Speicher
- 2x1GB DDR2 800
- Grafikprozessor
- Connect3D X1800XT 256MB
- Display
- Hanns.G 27,5"
- HDD
- Samsung 200GB SATA System, 8x Samsung 500GB RAID 50 (RAID5 über den Controller, RAID0 über Windows
- Optisches Laufwerk
- Samsung DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- A+ XClio2
- Netzteil
- Xilence 550Watt
- Betriebssystem
- Vista x64 SP1
- Webbrowser
- Mozilla Firefox 3
1.) Nvidia weiß nicht einmal genau an was es liegt und AMD noch weniger. Die tricksen jetzt irgendwie herum, um das Problem zu vertuschen bzw. nicht mehr so leicht messbar zu machen:
http://www.computerbase.de/news/har...z/die_multi-gpu-mikroruckler_der_stand_dinge/
2.) Damals wurde noch Pixel für Pixel berechnet und das Bild einfach in der Mitte geteilt. das ist heute unmöglich, alleine schon wegen AA. Einmal abgesehen davon ist die reine Füllung des Bildschirms mit Pixeln das geringste Problem und die ganze Leistung geht für diverse Effekte drauf bzw. feinere Texturen, die sich über das ganze Bild erstrecken.
http://www.computerbase.de/news/har...z/die_multi-gpu-mikroruckler_der_stand_dinge/
Doch was sagen ATi und Nvidia zu diesem Problem? Nachdem anfangs größtenteils verwirrte Gesichter zu sehen waren, wenn man die beiden Grafikchipspezialisten auf dieses Phänomen angesprochen hat, haben beide Konkurrenten mittlerweile die Mikroruckler nachstellen und auch analysieren können. Am weitesten scheint dabei Nvidia gekommen zu sein, denn dort stellt man mit einem zukünftigen Treiber eine Lösung in Sicht. Dieser soll einen Scheduler enthalten, der die fertigen Frames im richtigen Zeitabstand an den Monitor ausgeben soll. Genauere Details zur Problemlösung oder ein Erscheinungsdatum des Treibers konnten wir leider nicht in Erfahrung bringen.
2.) Damals wurde noch Pixel für Pixel berechnet und das Bild einfach in der Mitte geteilt. das ist heute unmöglich, alleine schon wegen AA. Einmal abgesehen davon ist die reine Füllung des Bildschirms mit Pixeln das geringste Problem und die ganze Leistung geht für diverse Effekte drauf bzw. feinere Texturen, die sich über das ganze Bild erstrecken.
NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Das Scan Line Interleave von 3DFX hat das Bild zeilenweise geteilt, erste Verionen von NVIDIAs SLI haben das Bild horizontal geteilt (Split Frame Rendering SFR), was aber durch die doppelten Geometrie-Berechnungen relativ ineffektiv (aber für den Spieler sehr angenehm) war. Mittlerweile wird nurnoch AFR (Alternate Frame Rendering) eingesetzt, was eben Probleme mit den unterscheidlcihen Frameabständen mit sich bringt.
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Details zu meinem Desktop
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
....
2.) Dass der neue High End Grafikchip von Nvidia deutlich schneller sein wird, als die Mainstream Chips um die 130 Euro, sollte denke ich einmal klar sein, sonst würde da etwas grob nicht stimmen. Bis vor kurzem hat man um den Preis nur eine verkrüppelte 8600 GT oder 2600 XT bekommen. Wenn der neue Chip, der Mitte 2008 kommt (wahrscheinlich wird es eher Herbst) nur ca. 50% schneller ist, wie die Karte, die es Ende 2006 gegeben hat, so ist das bei Grafikchips eher mies. Vor allem, wenn man bedenkt, dass es dann bis mindestens Mitte 2009 dauert, bis was neues kommt. Da ist man ja mit einer 8800GTX, die man zu Weihnachten 2006 gekauft hat ja 3 Jahre lang im Mittelfeld dabei und kann aktuelle Titel auch in 1920x1200 flüssig spielen. Das war noch nie der Fall bisher.
Aktuelle Spiele in 1920x1200 kannst Du auf einer 8800GTX nur spielen, wenn Du deutliche Abstriche in den Qualitätseinstellungen machst. Versuch mal, Crysis in DX10 very high in HD zu spielen, viel Spaß an der Diashow.....ansonsten aber ist richtig, wer Mitte 2006 eine GTX gekauft hat, hatte sehr lange absolutes high-end. Ich hätte damals aber auch nicht damit gerechnet, dass sie so lange hält, weil man halt so im Hinterkopf hat, nach 1 bis 1,5 Jahren ist spätestens eine ganz neue Generation da. War aber nicht so.....
Ansonsten war der G80 eben ein extremst guter Wurf, der hat absolut alles dermaßen in den Schatten gestellt, dass es allen den Atem verschlagen hat. Ati hat bis zum heutigen Tage keine single-GPU, die daran reicht, shader-Debatte hin oder her! Das kann man nicht bei jeder neuen Generation erwarten. Aus meiner Sicht war es sogar ein recht einmaliges Ereignis, einen derartigen Leistungssprung hat es auch vorher eigentlich nicht gegeben. Wenn die Leistung deutlich über allen bisher erhältlichen Single-GPU-Lösungen liegen wird, und auch die aktuellsten dual-GPU Lösungen noch in Schach halten kann, dann ist das genau das, was man von einer neuen GPU-Generation erwarten kann. Und ich würde tippen, das wird die GT200 leisten können. Warten wir die ersten benches ab.....
NOFX
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.533
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Der G80 kam erst Ende 2006 raus, von daher passen die 1,5 Jahre ja schon fast...
Der G80 war mit der TDP aber auch schon relativ am Ende der Fertigugnsmöglichkeiten und konnte auf GTX- und erst recht Ultra-Niveau imho nur dank großer Stückzahlen an GTS udn Selektion gebracht werden.
Im G92 steckt ja vom Takt her deutlich mehr Potential und auch die TDP ist deutlich niedriger...
Der G80 war mit der TDP aber auch schon relativ am Ende der Fertigugnsmöglichkeiten und konnte auf GTX- und erst recht Ultra-Niveau imho nur dank großer Stückzahlen an GTS udn Selektion gebracht werden.
Im G92 steckt ja vom Takt her deutlich mehr Potential und auch die TDP ist deutlich niedriger...
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 174