App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA - Kepler
- Ersteller Desti
- Erstellt am
GF110 hat 52% mehr Shader & war nur 44% größer als GF104, dabei hat der GF110 Chip über 70% mehr Leistung als GF104 demonstriert, deswegen wirds spannend, bei GK104 > GK110 wird der Flächen Abstand noch größer weil diesmal GK110 90% größer wird, außerdem wird das Speicherinterface nicht wie bei GF104 > GF110 um 50% vergrößert, sondern 100% ( 256 > 512 )Und spannend daran dass ein Chip größer wird, wenn man mehr Shader reinpackt ist...?
G
Gast31082015
Guest
Erstmal muss GK110 funktionieren und verfügbar sein. Wenn NV wie AMD nun zwei Chips herstellt dann haben sie auch doppelten Aufwand. Thermi und Fermi waren ja die kleinen Brüder bei denen auch noch nicht alles gut ging mit der Erziehung. Bei AMD hat man nun Pitcairn und Taihiti und ich sehe für den Spieler Pitcairn als besseren Chip an, denn die paar Hansel (nicht beleidigt fühlen) die DP und GPGPU massiv einsetzen kaufen dann eben Taihiti oder GK110. Für alle anderen reicht Pitcairn(+) oder GK104 mehr als aus.
Wer dann 900$ für eine Karte ausgeben mag kann das gerne tun nur um in 1920*1080 zu spielen
Wer dann 900$ für eine Karte ausgeben mag kann das gerne tun nur um in 1920*1080 zu spielen
Keine Angst haben der wird schon funktonieren, mit GK104 hat man bereits genug 28nm Erfahrung gesammelt.
Außerdem kommen vom GK104 Chip bestimmt noch kleine Ableger wie z.b. GTX670, 660 mit teil/deaktivierten GPU Cluster, Pitcairn bekommt zu 100% einen konkurrenten.
Und über Preise brauchen wir erstmal nicht spekulieren, Nvidia kann diesmal mit GK104 AMD richtig unter druck setzen, schließlich ist der Nvidia Chip 25% kleiner als Tahiti.
Dazu kommen noch die besseren Konditionen (Wafer Preise) zwischen TSMC & Nvidia
Außerdem kommen vom GK104 Chip bestimmt noch kleine Ableger wie z.b. GTX670, 660 mit teil/deaktivierten GPU Cluster, Pitcairn bekommt zu 100% einen konkurrenten.
Und über Preise brauchen wir erstmal nicht spekulieren, Nvidia kann diesmal mit GK104 AMD richtig unter druck setzen, schließlich ist der Nvidia Chip 25% kleiner als Tahiti.
Dazu kommen noch die besseren Konditionen (Wafer Preise) zwischen TSMC & Nvidia
Zuletzt bearbeitet:
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.275
- Renomée
- 1.413
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.3996 / Server 20348.2227
- Webbrowser
- Edge 120.0.2210.121
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Mit so ner Graka sollte man in Bereichen ala 2560 × 1440 oder gar 3840 × 2160 spielen können
In FullHD mit 8x SGSSAA kann selbst so eine Karte immer noch zuwenig Leistung haben, es kommt immer darauf an was für Settings anliegenMit so ner Graka sollte man in Bereichen ala 2560 × 1440 oder gar 3840 × 2160 spielen können
G
Gast30082015
Guest
Mir gefällt die optionale Limitierung der Frames. Gespannt bin ich aber, ob die kleineren "Geschwister" ein ähnliches Bild zeichnen können im Vergleich zu Pitcairn und Cap Verde.
Wenn ja, gibt es mit etwas Glück einen netten kleinen Preisrutsch nach unten.
@Duplex:
Du darfst aber ruhig einen halben Gang zurück schalten. Sooooo geil ist die GTX680 nun auch wieder nicht. Sieht man daran, dass sie Probleme im Bereich Surround-Gaming hat, wenn die 2GB Speicher knapp werden...
Das AMD durch den Schwerpunkt auf Korrektur vom AF wo anders Abstriche machen musste, wird wohl auch eine Erklärung dafür sein, wieso der GK104 in seiner jetzigen Form sich vor Tahiti schieben konnte.
Aber nichts desto trotz: ein schönes Stück Hardware - wie es sich gehört. Warten wir also auf den Rest...
Edit:
Dual-Kepler täte aber gut daran, mit 8 GB (2x 4GB) auf den Markt zu kommen.
Wenn ja, gibt es mit etwas Glück einen netten kleinen Preisrutsch nach unten.
@Duplex:
Du darfst aber ruhig einen halben Gang zurück schalten. Sooooo geil ist die GTX680 nun auch wieder nicht. Sieht man daran, dass sie Probleme im Bereich Surround-Gaming hat, wenn die 2GB Speicher knapp werden...
Das AMD durch den Schwerpunkt auf Korrektur vom AF wo anders Abstriche machen musste, wird wohl auch eine Erklärung dafür sein, wieso der GK104 in seiner jetzigen Form sich vor Tahiti schieben konnte.
Aber nichts desto trotz: ein schönes Stück Hardware - wie es sich gehört. Warten wir also auf den Rest...
Edit:
Dual-Kepler täte aber gut daran, mit 8 GB (2x 4GB) auf den Markt zu kommen.
Zuletzt bearbeitet:
G
Gast31082015
Guest
Richtig, das mit den Settings aber die meisten kaufen ihre Karten immer noch nach diversen Benchmarks und haben die Optionen der Treiber oder Ingamemenüs nie weiter angesehen.
Das die Auflösungen bei solchen Karten auch gerne höher sein darf ist für mich logisch, aber leider nicht in den Köpfen der meisten Nutzer. Wir Forumianer wissen so etwas (teilweise zumindest), aber die meisten eben nicht. Wenn du jemanden nach AA fragst kommen die lustigsten Antworten bei raus.
GK104 erachte auch ich als guten Chip an, aber mangels Einblick in die Verträge von AMD und NV kann ich nicht sagen wer da zu welchem Preis und Konditionen fertigt Der Preis der Fertigung alleine ist eh nicht alles........
Von unter Druck setzen sehe ich aber bisher nicht viel. Für mich sind sie gleichauf mit Vorteil das es bei AMD schon länger die Karten zu kaufen gab wenn man denn wollte. Also wie immer abwarten bis später und Tee trinken oder anderweitig entspannen. Sind letzten Endes nur GPUs.
Das die Auflösungen bei solchen Karten auch gerne höher sein darf ist für mich logisch, aber leider nicht in den Köpfen der meisten Nutzer. Wir Forumianer wissen so etwas (teilweise zumindest), aber die meisten eben nicht. Wenn du jemanden nach AA fragst kommen die lustigsten Antworten bei raus.
GK104 erachte auch ich als guten Chip an, aber mangels Einblick in die Verträge von AMD und NV kann ich nicht sagen wer da zu welchem Preis und Konditionen fertigt Der Preis der Fertigung alleine ist eh nicht alles........
Von unter Druck setzen sehe ich aber bisher nicht viel. Für mich sind sie gleichauf mit Vorteil das es bei AMD schon länger die Karten zu kaufen gab wenn man denn wollte. Also wie immer abwarten bis später und Tee trinken oder anderweitig entspannen. Sind letzten Endes nur GPUs.
Auf dem geposteten Newegg Bild wird der Shadertakt, wenn angegeben, aber als doppelt so hoch bezeichnet. Auf der Zotac Seite ebenso.Wenn 1536 doppelt getaktete Shader je eine MAD-Operation pro Takt starten, würden bei 1 GHz Basistakt 6 TFLOPS erreicht werden. Zur Zeit sieht es nach der Hälfte aus.
GPU Boost ist eine Art Turbo-Modus. Mit anderem Takt laufende Shader aber nicht.
Der Preis geht ja schon mal in die richtige Richtung, wenn's stimmt.
Zuletzt bearbeitet:
Wenn ich das so grob sehe, gebe sich die 7970 und 680 nix...die paar % Mehrleistung kommen eben auch mit leicht erhöhtem Takt, da hat AMD wohl lieber runtergedreht, um früher am Markt sein zu können.
Allerdings schneiden die 7800er im Vergleich zur 7900 Serie IMO deutlich besser ab, also mal schauen was nvidia mit der 660 hinbekommt.
Betracht man das Gesamtpaket, scheint leicht die Nase vorn zu haben...was bei nem halben Jahr späterer Markteinführung auch zu erwarten ist. Ich finde, das ist Gleichstand und somit sehr gut für den Markt, die hohen Preise kommen wohl durch TSMC Knappheit zustande...
Allerdings schneiden die 7800er im Vergleich zur 7900 Serie IMO deutlich besser ab, also mal schauen was nvidia mit der 660 hinbekommt.
Betracht man das Gesamtpaket, scheint leicht die Nase vorn zu haben...was bei nem halben Jahr späterer Markteinführung auch zu erwarten ist. Ich finde, das ist Gleichstand und somit sehr gut für den Markt, die hohen Preise kommen wohl durch TSMC Knappheit zustande...
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
paar neue reviews bei youtube:
http://www.youtube.com/watch?v=YCuejLSnvjU&feature=g-u-u&context=G233c570FUAAAAAAAFAA
http://www.youtube.com/watch?v=IaPYEOUH7LE&feature=g-u-u&context=G2f010d1FUAAAAAAAIAA
http://www.youtube.com/watch?v=Y8RZDPjMttY&feature=g-u-u&context=G21b2912FUAAAAAAACAA
edit:
Anandtech Review
Tomshardware Review
CB Review
pcgh Review
Golem.de Review
Hardwareluxx Review
http://www.youtube.com/watch?v=YCuejLSnvjU&feature=g-u-u&context=G233c570FUAAAAAAAFAA
http://www.youtube.com/watch?v=IaPYEOUH7LE&feature=g-u-u&context=G2f010d1FUAAAAAAAIAA
http://www.youtube.com/watch?v=Y8RZDPjMttY&feature=g-u-u&context=G21b2912FUAAAAAAACAA
edit:
Anandtech Review
Tomshardware Review
CB Review
pcgh Review
Golem.de Review
Hardwareluxx Review
Zuletzt bearbeitet:
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.760
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.335
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Schon sind die ersten Tests da.
http://www.computerbase.de/artikel/...-nvidia-geforce-gtx-680/#abschnitt_einleitung
Um es kurz zu machen....bei standard Spiele Auflösungen ca. 10% schneller als die HD7970, unter Last ca. 15W geringerer Systemverbrauch, deutlich sparsamer bei der Video Wiedergabe und teils unterdisch im GPGPU Bereich.
http://www.computerbase.de/artikel/...-nvidia-geforce-gtx-680/#abschnitt_einleitung
Um es kurz zu machen....bei standard Spiele Auflösungen ca. 10% schneller als die HD7970, unter Last ca. 15W geringerer Systemverbrauch, deutlich sparsamer bei der Video Wiedergabe und teils unterdisch im GPGPU Bereich.
@Duplex
Ich versuchs einfach nochmal für dich, da du offensichtlich gebetsmühlenartig funktionierst (90% größer-> tausendmal besser; 90% größer -> tausendmal besser...):
GK104 = Gamer-Karte, heißt bei GPGPU abgespeckt.
GK110 = Compute-Karte, heißt fett (und das meine ich so) DoublePrecision-Leistung rein und damit wird das Ding einiges an Ballast zulegen, ohne dass das dem Spieler was bringt.
Für Spieler wird eine möglicherweise erscheinende Dual GK104-Karte daher interessanter sein (und dürfte auch problemlos machbar sein). In jedem Falle lässt sich dadurch aber nur wenig von GK104 auf GK110 schließen.
GK110 wird einfach eher die Version sein, die für HPC-Systeme zum Einsatz kommt, während sie für Zocker mit hoher Wahrscheinlichkeit ineffizienter wird.
So nun zum Thema:
GK104 ist mal ne richtig schöne Gamer-Karte! Da hat Nvidia offensichtlich auf alles gehört, was in den letzten Jahren kritisiert/beanstandet wurde.
Ich versuchs einfach nochmal für dich, da du offensichtlich gebetsmühlenartig funktionierst (90% größer-> tausendmal besser; 90% größer -> tausendmal besser...):
GK104 = Gamer-Karte, heißt bei GPGPU abgespeckt.
GK110 = Compute-Karte, heißt fett (und das meine ich so) DoublePrecision-Leistung rein und damit wird das Ding einiges an Ballast zulegen, ohne dass das dem Spieler was bringt.
Für Spieler wird eine möglicherweise erscheinende Dual GK104-Karte daher interessanter sein (und dürfte auch problemlos machbar sein). In jedem Falle lässt sich dadurch aber nur wenig von GK104 auf GK110 schließen.
GK110 wird einfach eher die Version sein, die für HPC-Systeme zum Einsatz kommt, während sie für Zocker mit hoher Wahrscheinlichkeit ineffizienter wird.
So nun zum Thema:
GK104 ist mal ne richtig schöne Gamer-Karte! Da hat Nvidia offensichtlich auf alles gehört, was in den letzten Jahren kritisiert/beanstandet wurde.
imho ist die geforce 680 eine sehr runde karte. angesichts der gewaltigen erwartungshaltung kann amd froh sein, dass sich die performance-unterschiede noch in grenzen halten. der schaden ist also begrenzt. aber von "gleichstand" kann da nach meinem empfinden keine rede sein.
größter vorteil für amd dürfte im moment sein, dass sie schon jetzt in den volumen-starken segmenten interessante produkte wie die 77xx / 78xx-modelle liefern können. das wird bei nvidia noch ein wenig dauern.
interessant finde ich den frame-limiter, nettes feature. laut computerbase-review sind die einsparungen bei der leistungsaufnahme bei einigen spielen ja wirklich enorm.
http://www.computerbase.de/artikel/...fpslimiter__weniger_strom_weniger_lautstaerke
größter vorteil für amd dürfte im moment sein, dass sie schon jetzt in den volumen-starken segmenten interessante produkte wie die 77xx / 78xx-modelle liefern können. das wird bei nvidia noch ein wenig dauern.
interessant finde ich den frame-limiter, nettes feature. laut computerbase-review sind die einsparungen bei der leistungsaufnahme bei einigen spielen ja wirklich enorm.
http://www.computerbase.de/artikel/...fpslimiter__weniger_strom_weniger_lautstaerke
G
Gast30082015
Guest
Warum fehlt da HT4U noch?
Haben die zu objektiv getestetoder sind sie für einmal zu langsam?
Vll. nimmt sich HT4U einfach nur mehr Zeit. War die letzten Male meine ich auch so...
Ansonsten...die Kolumne über zu knappe Testzeiten gelesen?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.335
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ja der Frame Limiter ist interessant aber letztendlich auch nur ein dynamisches vsync und die Einsparung kommt von den 0 Runden in denen die Grafikkarte darauf wartet wieder etwas berechnen zu dürfen.
Den gleichen Effekt konnte ich bei meiner 7970 sehr deutlich mitbekommen nachdem ich bei alten Spielen vsync wegen dem fiepen bei (sehr) hohen Frameraten dazugeschaltet hatte. Teils drehte der Kühler mit der Idle Drehzahl vor sich hin.
Den gleichen Effekt konnte ich bei meiner 7970 sehr deutlich mitbekommen nachdem ich bei alten Spielen vsync wegen dem fiepen bei (sehr) hohen Frameraten dazugeschaltet hatte. Teils drehte der Kühler mit der Idle Drehzahl vor sich hin.
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Der fps-limiter ist ein wirklich interessantes feature. Das macht deutlich, dass eine konstante ausreichend bis hohe Zahl an Bildern pro Sekunde erstrebenswerter ist, als eine Maximalleistung auf Kosten von hohen Schwankungen. Besonders im Bereich der Einsteiger- und Performance-Grafikkarten dürfte der fps-limiter gut ankommen. Mein Tipp ist ja, dass AMD ein vergleichbares Feature innerhalb von 1-2 Generationen einführen wird, möglicherweise schon in die nächsten APUs implementiert. Gekonnt hätten sie es sicherlich seit Cayman, nur auf die Idee sind sie nicht gekommen. Das Pünktchen geht wohl an nVidia.
LehmannSaW
Vice Admiral Special
- Mitglied seit
- 21.09.2007
- Beiträge
- 597
- Renomée
- 36
- Standort
- poloidal cell 5 im 3. grid block
- Mein Laptop
- HP ENVY x360 15 Dark Ash Silver mit Ryzen 5 2500U
- Prozessor
- AMD Ryzen 7 1800X
- Mainboard
- ASRock X370 Taichi
- Kühlung
- NZXT Kraken X61
- Speicher
- 16GB G.Skill Trident Z DDR4-3200 @ 3200Mhz
- Grafikprozessor
- Sapphire Radeon R9 Nano
- Display
- Acer Predator XR341CK 34-Zoll mit FreeSync
- SSD
- 250GB Samsung SSD 960 EVO M.2 + 256GB Samsung SSD 840 Pro SSD + 525GB Crucial MX300
- HDD
- 4TB Seagate Desktop SSHD
- Optisches Laufwerk
- keines
- Soundkarte
- on-Board
- Gehäuse
- NZXT S340 ELITE weiß
- Netzteil
- be quiet Straight Power 10 CM 800W
- Betriebssystem
- Windows 10 Pro 64
- Webbrowser
- Mozilla Firefox / IE
interessant finde ich den frame-limiter, nettes feature. laut computerbase-review sind die einsparungen bei der leistungsaufnahme bei einigen spielen ja wirklich enorm.
Ja, das ist doch schon mal Sehr, Sehr fein !!!
... doch dann hört es aber schon wieder mit den interessanten Features auf.
Der Rest ist wieder nur "höher, schneller, weiter".
Und ab den Bereichen wo es interessant wird, jenseits von 1080p (ich kann es nicht mehr hören) herrscht wirklich fast Gleichstand.
Grüße Ich
Beziehe mich mal auf CB...mein Fazit nicht schlecht, aber gegenüber von AMD ne reine Gamer Kiddy Grafikkarte...ist aber nicht negativ gemeint..es kommt halt auf den Verwendungszweck an.
Lautstärke unter Last ist auch negativ bewertet, idle ist ja bei dem geringen Verbrauch
für Nvidia oder AMD kein Problem. das Referenzdesign ist ja bei kaufbaren AMD Grafikkarten
finde ich selten vertreten, mal sehen wie es bei der Nvida Grafikkarte aussieht.
Beim Verbrauch sollte man auch bedenken das die AMD HD 7970 1GB mehr Ram durchschleppen muss. mfg
Lautstärke unter Last ist auch negativ bewertet, idle ist ja bei dem geringen Verbrauch
für Nvidia oder AMD kein Problem. das Referenzdesign ist ja bei kaufbaren AMD Grafikkarten
finde ich selten vertreten, mal sehen wie es bei der Nvida Grafikkarte aussieht.
Beim Verbrauch sollte man auch bedenken das die AMD HD 7970 1GB mehr Ram durchschleppen muss. mfg
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.335
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Es ist eher das Gegenteil der Fall, da der Limiter bei einer geringeren Rechenleistung seltener zum Einsatz kommt. Die Schwankungen verlagern sich lediglich von der Framerate zur GPU Auslastung und somit zum Stromverbrauch.Der fps-limiter ist ein wirklich interessantes feature. Das macht deutlich, dass eine konstante ausreichend bis hohe Zahl an Bildern pro Sekunde erstrebenswerter ist, als eine Maximalleistung auf Kosten von hohen Schwankungen. Besonders im Bereich der Einsteiger- und Performance-Grafikkarten dürfte der fps-limiter gut ankommen. Mein Tipp ist ja, dass AMD ein vergleichbares Feature innerhalb von 1-2 Generationen einführen wird, möglicherweise schon in die nächsten APUs implementiert. Gekonnt hätten sie es sicherlich seit Cayman, nur auf die Idee sind sie nicht gekommen. Das Pünktchen geht wohl an nVidia.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Das Schöne an der GTX680 für den Kunden ist, dass er quasi von Anfang an schon einen großen Teil der OC-Performance mit Hilfe des dynamischen Taktes erhält. Damit dürfte ein Teil des OC-Potenzials schon ausgenutzt sein. Viel effektiven OC-Spielraum nach oben dürfte da nicht mehr drin sein. Je höher man mit dem Stock-Takt geht, desto mehr dürfte vom dynamischen OC weg fallen.
G
Gast27042015
Guest
Ja, das ist doch schon mal Sehr, Sehr fein !!!
... doch dann hört es aber schon wieder mit den interessanten Features auf.
Der Rest ist wieder nur "höher, schneller, weiter".
Und ab den Bereichen wo es interessant wird, jenseits von 1080p (ich kann es nicht mehr hören) herrscht wirklich fast Gleichstand.
Grüße Ich
Naja man kann es sich doch einfach machen "aus reiner spielersicht"
wer 3 monitore verwendet greift zu 2 7970er
wer 19**-25** auflösungen fährt kriegt mal mehr oder weniger paar frames mehr mit der gtx
ONH
Grand Admiral Special
Ansonsten...die Kolumne über zu knappe Testzeiten gelesen?
Ne, wo denn? D... ja stimmt. der letzte Test der ich gelesen habe war die HD7970 und der war halt Zeitgleich mit dem von CB. Die HD7750 war ja Tage nach dem Test von CB, da von daher warte ich mal was ht4u für Ergebnisse bringt denn der Rest streut schon relativ stark mit ihrem Testresultaten (alleine schon durch die unterschiedlichen Treibereinstellungen mit HQ und denen mit nur Q).
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 403
- Antworten
- 1
- Aufrufe
- 442