App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
nVidia Geforce GTX 1630/1650/1660(S/Ti) und RTX 2060(S)/2070(S)/2080(S/Ti)/Titan RTX: Tests/Meinungen im Netz. Links in Post 1
- Ersteller eratte
- Erstellt am
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.855
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
NVIDIA GeForce GTX 680 To RTX 2080 Ti Graphics/Compute Performance (phoronix)
--- Update ---
Update bei CB:
GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft (Computerbase)
--- Update ---
GeForce RTX 2080 Overclocking Preview with Scanner (HardOCP)
--- Update ---
3DMark: Neue Benchmarks für Raytracing und integrierte GPUs kommen (golem)
--- Update ---
Update bei CB:
GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft (Computerbase)
ComputerBase hat den Artikel zum Wochenende um Informationen zur Asus GeForce RTX 2080 Ti Strix OC sowie zur Gigabyte GeForce RTX 2080 Gaming OC erweitert, die beide mittlerweile in der Redaktion eingetroffen sind. Darüber hinaus wurden Benchmarks auf Basis des TensorFlow-Frameworks, das vielen Deep-Learning-Anwendungen als Backend dient, ergänzt.
Zwischenzeitig durchgeführte Tests haben ferner gezeigt: Die Probleme mit der Lüfterdrehzahl und dem Stromverbrauch der Foundes Edition im Leerlauf behebt der erste offizielle öffentliche Treiber für Nvidia Turing noch nicht.
--- Update ---
GeForce RTX 2080 Overclocking Preview with Scanner (HardOCP)
--- Update ---
3DMark: Neue Benchmarks für Raytracing und integrierte GPUs kommen (golem)
Der noch unbenannte Raytracing-Benchmark testet die von Nvidia beworbene Reflexionstechnik. Interessanterweise kooperiert UL dazu auch mit AMD.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.358
- Renomée
- 1.977
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
mir fehlt einfach der 3dfx-effekt. wo einem die kinnlade runterklappt und man sich denkt ... WILL ICH HABEN ... gibt noch nicht viele spiele ... EGAL, WILL ICH HABEN ...
theoretisch hätte raytracing nach so vielen jahren endlich wieder mal das potential für einen kleinen wow-effekt. praktisch ist das aber derzeit weitestgehend eine nullnummer. und wenn dann die grafikkarten, die das halbwegs wuppen können, dann auch noch so viel kosten wie ein kompletter standard-gaming-pc, dann muss da halt erst die henne das ei legen? oder das ei zurück in die henne? oder das ei brät in der pfanne? egal, es braucht für sowas eine vorleistung. darauf werden die entwickler aber auch nur dann einsteigen, wenn es ausreichend nachfrage gibt. und das ist bei den derzeitigen preisen eher zu bezweifeln.
Das Problem an der Sache ist das es solche Sprünge nicht mehr ohne weiteres geben wird, dafür kann die traditionelle Renderung schon zu gut (ausreichend) immitieren.
Einen ernsthaften Nutzen würde ich eher da sehen wo das Ergebnis der Bilderzeugung nicht realitätsnah genung sein kann, im VR Bereich aber dafür ist der Hunger nach Rechenleistung wieder zu groß. Schraubt man den Raytracing Anteil wegen dem Leistungsbedarf runter ist absehbar dass das Ergebnis darunter leiden und sich dem traditionellen Rendern wieder zu weit annähern dürfte. So oder so ist die Umsetzung alles andere als optimal. Was mich aber bei den bereits gezeigten Demo Videos mit Abstand am meisten störte war die mehr als mangelhafte Sichtweite der Effekte. Bei der Starwars Demo fiel das wegen der fehlenden Tiefe und dem übertriebenen Fokus Punkt nicht so auf aber bei der Metro Demo schob die Hauptfigur den Detail Unterschied einige Meter wie eine Bugwelle vor sich hin, welchen man mal mehr und mal weniger sah. Das ist wiederum etwas was mich extrem stören würde.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Ich will nicht diksutieren, ob das unter 1080p Sinn macht, aber wenn bzw. solange das nicht in 2k geht, ist DLSS ein Feature für 2025. Aktuell haben 1.8% (?) der Steamer eine 1080Ti...Ich glaube, es war bei Toms Hardware, wo stand, dass eine 2080 Ti mit DLSS über 70 Prozent schneller als eine 1080 Ti ist. Das ist mal eben der doppelte Vorsprung als bei herkömmlichen Anti Aliasing. Obendrein kann (kann, nicht muss) DLSS sogar noch bessere Optik bieten als herkömmliches AA.
Und DLSS sieht in dem FinalFantasy Video immer besser aus, nicht aber grundsätzlich in anderen Beispielen ebenfalls besser. Hintergründige Elemente sind damit auch mal feststellbar verblurt.
Sie überlgegen zwar nun (erstmal), ob sie die KI auch für 2k trainieren sollten, aber das Training für 4k würde ich auch noch nicht für abgeschlossen erklären.
"Als herkömliches AA". Ok vielleicht mein Denkfehler, aber imho steht das SS in DLSS für Supersampling und nicht für Antialiasing?
Über RT braucht ihr nicht diskutieren. Das ist DirectXR und Vulcan wohl auch mal dann, also wird das kommen. Das ist wie T&L, damals und heute...
Und RT sollte man nicht nur als Spiegelungen verstehen. Nicht nur. Das erledigt auch die Beleuchtung und DAS ist der eigentlich Gewinn. Später mal
=======================
Oouu... Die haben heise irgendwie geärgert (?)
https://www.heise.de/newsticker/mel...eForce-RTX-2080-Der-grosse-Bluff-4169328.html
Zuletzt bearbeitet:
vinacis_vivids
Vice Admiral Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 848
- Renomée
- 87
arbeiten die neuen karten nicht mit einer besseren kompression?
Irgendwann ist Kompression auch am Ende 8)
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Sehe ich das richtig, daß man bereits mit einer 2080 nichts mit RT anfangen sollte, wenn man nicht weit unter der 1080 liegen möchte?
Hätte natürlich trotzdem was, wenn sie das gleiche nochmal wenigstens in 2k getestet hätten...
Hätte natürlich trotzdem was, wenn sie das gleiche nochmal wenigstens in 2k getestet hätten...
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.855
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Es gibt noch keine Test/Benchmarks mit RT (Windows Oktoberupdate fehlt noch und Spiele mit RT), oben wird den Karten mit 8 GB VRAM der Speicher bei den gewählten Einstellungen ausgegangen sein.
--- Update ---
ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test (HardwareLUXX)
--- Update ---
ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test (HardwareLUXX)
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Lief die BF-RT Demo auf einer Beta von DirectXR oder wie ging das?
RT Benchmarks interessieren insofern nicht. Das 3dmark Teil was kommen soll ist doch uninteressant wie es nur geht. Wichtig sind reale Anwendungen bzw. die Spiele.
RT Benchmarks interessieren insofern nicht. Das 3dmark Teil was kommen soll ist doch uninteressant wie es nur geht. Wichtig sind reale Anwendungen bzw. die Spiele.
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.855
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Die lief vermutlich auf Windows Insider RC5 (Redstone 5) und einem speziellem Treiber.
Spiele mit RT gibt es ja noch nicht. Deswegen hat die c't das ja auch noch als Nebelkerze bezeichnet.
Wichtig sind reale Anwendungen bzw. die Spiele.
Spiele mit RT gibt es ja noch nicht. Deswegen hat die c't das ja auch noch als Nebelkerze bezeichnet.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Womit wir wieder bei #154 und #155 wären... Wenn 2080 ohne RT so schnell ist wie 1080, kann sie unter gleichen Voraussetzungen mit RT eben nicht schneller sein.
Wie gesagt aber 2k wäre bei den (sonstigen) Einstellungen interessanter.
Wie gesagt aber 2k wäre bei den (sonstigen) Einstellungen interessanter.
Darkearth21
Fleet Captain Special
- Mitglied seit
- 30.01.2003
- Beiträge
- 289
- Renomée
- 23
- Standort
- Hannover
- Prozessor
- Ryzen 3800X @ Auto OC + Ryzen 3900X @ Stock
- Mainboard
- Asus Crosshair 6 Hero + MSI Unify X570
- Kühlung
- Alphacool Eisbaer Modded + Wraith Prism
- Speicher
- 2 x 16GB E-Dies @ 3733CL16 + 2 x 16GB E-Dies @3733CL16
- Grafikprozessor
- MSI GTX 1080Ti Gaming X 11G @ 1760 / 5900 MHz @ 0.879v + Radeon RX570 @ Stock
- Display
- BenQ 3203R + BenQ XL2730Z 27" 144Hz
- SSD
- Samsung Evo 840 256GB, Crucial MX200 500GB Crucial MX 500 1TB + Samsung Evo 850 256GB
- HDD
- 1x Extern 1TB WD Green im Hardcase + 1x 2TB Toschiba
- Optisches Laufwerk
- keines mehr
- Gehäuse
- NZXT s340 Elite White + Nokia 3310 Oldschool Tower
- Netzteil
- Corsair RM850X Weiß + bQuiet! DPP 550w
- Betriebssystem
- Win10 64 ProN + Win 64 Pro
- Webbrowser
- Firefox | Nightly
So hab dann nochmal den neusten Treiber geladen und installiert, den FFXV Benchmark laufen lassen mit den Einstellungen die ich normalerweise nutze und nun bin ich überzeugt, dass es nur die 2080Ti werden müsste, wenn ich einen Wechsel plane.
Allerdings nicht für mindestens 1200€ bei gerade mal 35% mehr Leistung. (DLAA und RT außen vorgelassen)
Tobi, wenn deine Karten doch kommen sollten (habe es im 3dcenter verfolgt) dann wäre ein Test deinerseits sehr willkommen.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.855
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Rlchthofen
Cadet
- Mitglied seit
- 13.11.2016
- Beiträge
- 27
- Renomée
- 1
Die 2080 mit 8GB haben Sie zum Ladenhüter degradiert.
Selbst wenn man sagt man kauft 2 davon mit NVLink, durch das weglassen des Addieren des VRAMs auf 16GB, bleiben nur noch 8GB VRAM, was ein mGPU-System mit den Karten eher uninterresant macht.
Der Griff zur aktuell noch gut verfügbaren 1080ti sollte für Spieler jetzt die bessere Wahl sein.NV wäre vllt besser gefahren gleich die 7nm zu bringen.
7nm ist aktuell zu teuer und nicht genügend verfügbar, insbesondere für die Menge an solchen großen DIEs. Der hohe Preis ergibt sich m.E. aus mangelnder Konkurrenz und weil man eben Pascal abverkaufen will ohne groß die Preisschraube drehen zu müssen. Im Grunde kann Nvidia jeden Tag den Distribution Channel analysieren und seine Preise optimieren da es eben keine Konkurrent gibt.
Für Pascal User muss Nvidia zudem kein attraktives Angebot machen, da Nvidia selber ja nicht davon ausgeht dass sich eine Großzahl an Kunden jede Generation genehmigt. Die dürften eher davon ausgehen, dass Maxwell Kunden auf Turing wechseln und weniger die Pascal Kunden. War bei Pascal bzw. Maxwell bzw. Keppler auch schon der Fall.
Ich sehe die Grafikkarten mit RT auch eher im professionellen Bereich, wo bereits Raytracing genutzt wird. Architekturbüros oder bei Autohäusern mit VR-Raum etc.
Im Gamermarkt grad im Multiplayer, wo eh man eher Schatten und Details ausschaltet ,sehe ich keinen Vorteil.
M.E. ein erheblicher Vorteil wäre, wenn man durch die Spiegelungen Gegner die seitlich von einem oder seitlich auf einem Dach oder hinter einem stehen früher sieht, auf Grund einer Spiegelung in einer Pfütze oder so. Wäre ja auch kein Cheating sondern eben realistisch. Die sollten da nen Deal mit ein paar FPS Gamestudios machen. Sowas katapultiert die Verkaufszahlen direkt nach oben.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.358
- Renomée
- 1.977
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Rlchthofen
So ganz aus der Luft gegriffen werden die Preise auch nicht sein denn die Kekse sind beide größer als der Chip der 1080Ti, haben einen neuen Fertigungsprozess und sind erst am Anfang ihrer Produktion, entsprechend schlecht dürfte auch die Ausbeute sein. Das wirkt sich dann natürlich auch auf den Chip Preis aus auf den sich die Produktionskosten des Wafers und anteiligen die Entwicklungskosten aufteilen. Bei letzteren wäre dann auch noch die zu erwartenden Stückzahlen aufgrund des Preises und der zu erwartende Verkaufszeitraum zu berücksichtigen, es sei denn dass man von Anfang an von einem Verlußtgeschäft für ein Prestigeobjekt oder einen Toröffner für eine weitere Festigung der Marktdominanz (mit dem man später die Kosten mit Folgeprodukten wieder rein holt) ausgegangen ist.
Lange Rede, kurzer Sinn. Aufgrund der Faktoren ist es alles andere als unwarscheinlich das bereits die RTX2080 in der Produktion teurer ist als eine eingefahrene GTX1080Ti.
So ganz aus der Luft gegriffen werden die Preise auch nicht sein denn die Kekse sind beide größer als der Chip der 1080Ti, haben einen neuen Fertigungsprozess und sind erst am Anfang ihrer Produktion, entsprechend schlecht dürfte auch die Ausbeute sein. Das wirkt sich dann natürlich auch auf den Chip Preis aus auf den sich die Produktionskosten des Wafers und anteiligen die Entwicklungskosten aufteilen. Bei letzteren wäre dann auch noch die zu erwartenden Stückzahlen aufgrund des Preises und der zu erwartende Verkaufszeitraum zu berücksichtigen, es sei denn dass man von Anfang an von einem Verlußtgeschäft für ein Prestigeobjekt oder einen Toröffner für eine weitere Festigung der Marktdominanz (mit dem man später die Kosten mit Folgeprodukten wieder rein holt) ausgegangen ist.
Lange Rede, kurzer Sinn. Aufgrund der Faktoren ist es alles andere als unwarscheinlich das bereits die RTX2080 in der Produktion teurer ist als eine eingefahrene GTX1080Ti.
wird sich früher oder später z.b. bei den nächsten quartalszahlen zeigen.Lange Rede, kurzer Sinn. Aufgrund der Faktoren ist es alles andere als unwarscheinlich das bereits die RTX2080 in der Produktion teurer ist als eine eingefahrene GTX1080Ti.
ich bin da hin- und hergerissen.
auf der einen seite reden wir hier immer noch über highend-gaming. das war teuer, ist teuer und wird teuer bleiben. ich hab noch nie grafikkarten dieser preisklasse gekauft und werde das auch nie tun, schon gar nicht im aktuellen fall. daher geht diese preisdiskussion vermutlich an 99% der nutzer vorbei. wie das thema preis/leistung in der mittelklasse aussehen wird, muss sich erst noch zeigen.
auf der anderen seite hat das highend-gaming entgegen dem seit jahren schrumpfenden markt diskreter grafikkarten ein ordentliches wachstum hingelegt und nvidia wiederholt rekordzahlen beschert. das lief von quartal zu quartal wie ein uhrwerk.
und wenn man das thema über die jahre verfolgt hat, setzt genau da meine skepsis an. nvidia war in den letzten jahren der absolute börsenstar. und aus meiner laiensicht hat sich nvidia mehr und mehr in dieser rolle gefallen. nvidia hat derzeit keine konkurrenz und glaubt, munter an der preisschraube drehen zu können (mal außen vorgelassen, ob der chip nun in der herstellung teurer ist oder nicht).
und ähnlich wie z.b. bei apple mit seinen neuen iphones sind analysten fast jedes mal in jubelstürmen ausgebrochen, wenn nvidia seine margen hochgeschraubt hat.
keine ahnung, wo nvidia mittel- und langfristig hin will.
aber bei all der negativen berichterstattung der letzten zeit hab ich immer mehr den eindruck, dass nvidia vor allem analysten- und börsenliebling sein will. und sich immer mehr vom klassischen "gamer" entfernt.
und das gipfelt aktuell im turing-launch.
denn ich hab selten in den letzten jahren so einhellige kritik bei einem nvidia-launch gelesen und gesehen. nach den diversen "print"-tests hab ich mir vor kurzem die bekannten youtube-kanäle angeschaut. und dort wird nvidia für seine preispolitik heftig kritisiert, ebenso wie für den raytracing-paperlaunch. und das hat es lange nicht gegeben. ebenso scheint die stimmung in der community zu kippen.
ich glaube nicht, dass nvidia mangels konkurrenz machen kann, was sie wollen. im zweifel werden potentielle kunden eine generation auslassen oder doch mal der konkurrenz eine chance geben. und da nvidia nachwievor extrem vom gaming abhängig ist, können die fabel-wachstumszahlen auch mal gehörig eingedampft werden. das kann evtl. sogar jetzt schon das kommende weihnachtsquartal treffen.
lange rede, kurzer sinn ... imho hat nvidia überdreht. vielleicht merken sie es und steuern dageben. oder aber sie laufen gefahr, dass die angeschlagene stimmung komplett kippt und sie einen nachhaltigen image-schaden davontragen.
Porpita
Redshirt
Da DLAA / DLSS in geringerer Auflösung dargestellt wird, ist der Speicherverbrauch auch etwas geringer als wenn man 4k @ AA nutzt. nicht wirklich viel, aber dennoch vorhanden, dementsprechend könnten die 8GB auch ausreichen, allerdings werden die Texturen ja auch größer und da kann es dann schon zu Problemen führen.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
@cruger
Sicher, daß NV bis jetzt das meiste Geld mit highend-gaming, also 1080/1080Ti, verdient(e)?
Und vielleicht nochmal: Pascal ist stark überproduziert worden. Imho nur deswegen kann Turing noch nicht preiswerter werden. Pascal muß mit entsprechender Marge erstmal noch weg. Bei Nv wie bei den AIBs. Die Lager sind sozusagen voll.
Wenn man den Markt mit den 1080(Ti) fluten würde (Preise), wird das zum noch stärkeren Nachteil für Turing. Es ist eine selbstgemachte Zwickmühle.
Auch Nv leistet sich ab und zu dicke Böcke So hab ich bereits gehört, daß man bisschen mehr Turings ordern konnte bzw. sie bisschen eher bekam, wenn man dazu ebenfalls einige Pascals mitbestellte
Man kann das also schon so sagen, daß der primäre Grund dafür, daß es bei Nv mit Turing momentan so aussieht wie es aussieht, NVs Pascal-Problem ist.
Sicher, daß NV bis jetzt das meiste Geld mit highend-gaming, also 1080/1080Ti, verdient(e)?
Und vielleicht nochmal: Pascal ist stark überproduziert worden. Imho nur deswegen kann Turing noch nicht preiswerter werden. Pascal muß mit entsprechender Marge erstmal noch weg. Bei Nv wie bei den AIBs. Die Lager sind sozusagen voll.
Wenn man den Markt mit den 1080(Ti) fluten würde (Preise), wird das zum noch stärkeren Nachteil für Turing. Es ist eine selbstgemachte Zwickmühle.
Auch Nv leistet sich ab und zu dicke Böcke So hab ich bereits gehört, daß man bisschen mehr Turings ordern konnte bzw. sie bisschen eher bekam, wenn man dazu ebenfalls einige Pascals mitbestellte
Man kann das also schon so sagen, daß der primäre Grund dafür, daß es bei Nv mit Turing momentan so aussieht wie es aussieht, NVs Pascal-Problem ist.
Langfristig wollen sie Architekturen ähnlich dem Turing, an welchen sie drumherum ARM-Cores kleben, Intel plattmachen.keine ahnung, wo nvidia mittel- und langfristig hin will.
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.264
- Renomée
- 1.851
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
So lange AMD kaum Konkurrenz-Modelle liefert für die 1080ti/2080(ti), braucht Nvidia doch nur die Produktion entsprechend anpassen. Kaum noch Ausgaben für die 1080er, aber weiterhin Einnahmen. Da freut sich doch jeder Aktionär!. Was Anderes wäre es, wenn AMD für die 2080er irgendwas Ähnliches entgegenzusetzen hätte.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
@MagicEye04
Jein. Daß man trotzdem nicht machen kann was man will zeigt diesmal die Stimmung recht eindeutig. Ich würde sie nicht gleich als katastrophal bezeichnen, aber für einem Launch einer neuen GPU-Familie von NV ist sie relativ neu
Das gab es in der Form das letzte Mal imho nur beim LeafBlower (NV30) und diesmal geht es nicht darum das schnellstmöglich mit einem NV35 wegzuwischen. Das Problem ist diesmal eben ein ganz anderes.
Jein. Daß man trotzdem nicht machen kann was man will zeigt diesmal die Stimmung recht eindeutig. Ich würde sie nicht gleich als katastrophal bezeichnen, aber für einem Launch einer neuen GPU-Familie von NV ist sie relativ neu
Das gab es in der Form das letzte Mal imho nur beim LeafBlower (NV30) und diesmal geht es nicht darum das schnellstmöglich mit einem NV35 wegzuwischen. Das Problem ist diesmal eben ein ganz anderes.
Zuletzt bearbeitet:
so lange sich die pascal-preise teilweise immer noch über dem niveau vor dem mining-boom bewegen, wird sich der abverkauf auch weiterhin zäh gestalten. darüber dürfte auch der handel nicht sehr erfreut sein. aber immerhin könnte zumindest die 1080 ti noch mal einen kleinen schub im abverkauf erfahren.@cruger
Sicher, daß NV bis jetzt das meiste Geld mit highend-gaming, also 1080/1080Ti, verdient(e)?
Und vielleicht nochmal: Pascal ist stark überproduziert worden. Imho nur deswegen kann Turing noch nicht preiswerter werden. Pascal muß mit entsprechender Marge erstmal noch weg. Bei Nv wie bei den AIBs. Die Lager sind sozusagen voll.
Wenn man den Markt mit den 1080(Ti) fluten würde (Preise), wird das zum noch stärkeren Nachteil für Turing. Es ist eine selbstgemachte Zwickmühle.
Auch Nv leistet sich ab und zu dicke Böcke So hab ich bereits gehört, daß man bisschen mehr Turings ordern konnte bzw. sie bisschen eher bekam, wenn man dazu ebenfalls einige Pascals mitbestellte
Man kann das also schon so sagen, daß der primäre Grund dafür, daß es bei Nv mit Turing momentan so aussieht wie es aussieht, NVs Pascal-Problem ist.
ich würde vielen kommentatoren zustimmen, dass der turing-launch einem "rushed" erscheint. warum eigentlich die eile? damit man turing noch voll ins weihnachtsquartal bekommt? um investoren zufriedenzustellen?
denn solch eine blöße hat nvidia schon lange nicht mehr gezeigt. die performance-zuwächse sind nicht spektakulär, aber in ordnung. es gibt für nvidia ungewöhnliche fehler wie beim leerlauf-verbrauch (huch, müssen wir noch patchen). viele reviewer haben die späte versorgung mit testsamples beklagt. die referenz-karten machen den aib-partnern das leben schwer. und raytracing ist aktuell eine nullnummer.
das alles gab es auch schon viel geschmeidiger. und man fragt sich mangels konkurrenz ... warum?
allein schon der umstand, dass man zum launch keinen vorzeigbaren titel für das killer-feature raytracing präsentieren kann, ist einfach ein kompletter reinfall.
und das thema preis setzt dem ganzen dann noch die krone auf.
da kann man den vielfach anzutreffenden unmut voll und ganz verstehen.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
GeForce ist als Marke längst angekratzt; genauso wie Radeon durch zweifelhafte Entscheidungen beschädigt wurde. Das Duopol hat mit CUDA, Mantle und Konsorten einfach zuviel auf dem Kerbholz. Es wird Zeit, dass ein lachender Dritte die Bühne betritt - hoffentlich wird es nicht Intel sein....dass die angeschlagene stimmung komplett kippt und sie einen nachhaltigen image-schaden davontragen.
Es gibt Bestrebungen (mit ungewissem Ausgang) bei nVidia sich von ARM zu lösen und einen Schwenk zu RISC-V zu vollziehen....an welchen sie drumherum ARM-Cores kleben...
Zuletzt bearbeitet:
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
@cruger
Hmm. Also RT-less find ich die Leistung der GF20 schon ziemlich stark. Andererseits, ist GF10 im Marz 2014 announced worden. Launch war Mai 2016 (?) Ich würd sagen das ist zum Herbst 2018 schon halbwegs ok so.
Es ist ja eine andere Notwendigkeit was zu tun als bei RX580 und Vega64, die in etwa 50 zu 78 zueinander stehen und wo Vega die Frametimes auch noch fast halbiert und wesentlich konstanter hält.
@SPINA
Nachvollziehbar, denn das würde wohl viel Geld einsparen. Ändert aber halt nichts auf dem Weg. Nur die Begleiter stehen noch nicht 100% fest. Ich tippe dann doch eher auf ARM. Mit RISC-V Gerüchten möchte man eher die Lizenzvereinbarungen beeinflussen
Die "angekratzte" GeForce sehe ich aber nicht. Und Radeon heisst ja jetzt eher Vega Intel wird klar kommen. NV will ihnen an die Wäsche also haben sie beschlossen NV direkt an die Wäsche zu gehen. Die werden 2020 nicht mit der Leistung einer 1080 einsteigen. Sie haben auch keine andere Wahl als sich gegen NV zu wehren. Und sich teils mit AMD anzufreunden
Hmm. Also RT-less find ich die Leistung der GF20 schon ziemlich stark. Andererseits, ist GF10 im Marz 2014 announced worden. Launch war Mai 2016 (?) Ich würd sagen das ist zum Herbst 2018 schon halbwegs ok so.
Es ist ja eine andere Notwendigkeit was zu tun als bei RX580 und Vega64, die in etwa 50 zu 78 zueinander stehen und wo Vega die Frametimes auch noch fast halbiert und wesentlich konstanter hält.
@SPINA
Nachvollziehbar, denn das würde wohl viel Geld einsparen. Ändert aber halt nichts auf dem Weg. Nur die Begleiter stehen noch nicht 100% fest. Ich tippe dann doch eher auf ARM. Mit RISC-V Gerüchten möchte man eher die Lizenzvereinbarungen beeinflussen
Die "angekratzte" GeForce sehe ich aber nicht. Und Radeon heisst ja jetzt eher Vega Intel wird klar kommen. NV will ihnen an die Wäsche also haben sie beschlossen NV direkt an die Wäsche zu gehen. Die werden 2020 nicht mit der Leistung einer 1080 einsteigen. Sie haben auch keine andere Wahl als sich gegen NV zu wehren. Und sich teils mit AMD anzufreunden
Zuletzt bearbeitet:
ich finde auch interessant, dass nvidia seine release-strategie anscheinend geändert hat.
wenn ich das richtig sehe, ist nvidia mindestens seit kepler ab der mittelklasse aufwärts immer mit einem pendant der 2080 gestartet und hat die serie dann scheibchenweise nach unten ausgebaut. um dann in einem für amd stets ungünstigen moment mit der ti dann oben nochmal draufzusatteln.
also
dass 2080 und 2080 ti zeitgleich starten, weicht also vom bisherigen schema ab. weil sie keine konkurrenz haben, wo sie evtl nachlegen müssten? oder weil sie vielleicht fürs nächste jahr doch noch irgendwas oberhalb der 2080 ti in der hinterhand haben (für dann noch absurdere preise)?
wenn ich das richtig sehe, ist nvidia mindestens seit kepler ab der mittelklasse aufwärts immer mit einem pendant der 2080 gestartet und hat die serie dann scheibchenweise nach unten ausgebaut. um dann in einem für amd stets ungünstigen moment mit der ti dann oben nochmal draufzusatteln.
also
- 680 / 780 / 980 / 1080
- 670 / 770 / 770 / 1070
- 660 / 760 / 760 / 1060
- ... / 780ti / 980ti / 1080ti
dass 2080 und 2080 ti zeitgleich starten, weicht also vom bisherigen schema ab. weil sie keine konkurrenz haben, wo sie evtl nachlegen müssten? oder weil sie vielleicht fürs nächste jahr doch noch irgendwas oberhalb der 2080 ti in der hinterhand haben (für dann noch absurdere preise)?
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
WOW. Was ist denn plötzlich mit dem Wallossek passiert? Erstmal auf die Amis für ihren reinen Verkaufsartikel eindreschen und dann wegen +4.2fps in UHD gegenüber der TitanV, schreiben "dass diese Karte es fast immer schafft, eine Titan V zu überflügeln und damit komplett obsolet zu machen"...
Man muß ja fürs Daheim nicht wirklich jetzt noch eine TitanV bezahlen, angesichts der 2080Ti, aber anscheinend mindestens "überflügeln" scheint nun ein sehr dehnbares Begriff geworden zu sein.
Und "obsolet" wird eine TitanV damit eigentlich nicht, wenn man denn schon eine hat. Es wird nur schwieriger so nun loszuwerden.
Ich hab das zwar mit dem Tenor wo es sich rumgetrieben wird, als wenn es sich um new-honesty handeln würde, zwar eh wie immer leicht skeptisch beäugelt, aber das jetzt ist auch abseits irgendwelcher Affinitäten (die ich sowieso nicht habe) schon recht weit weg von Genau, Objektiv, Kritsich, Typisch Deutsch.
Man muß ja fürs Daheim nicht wirklich jetzt noch eine TitanV bezahlen, angesichts der 2080Ti, aber anscheinend mindestens "überflügeln" scheint nun ein sehr dehnbares Begriff geworden zu sein.
Und "obsolet" wird eine TitanV damit eigentlich nicht, wenn man denn schon eine hat. Es wird nur schwieriger so nun loszuwerden.
Ich hab das zwar mit dem Tenor wo es sich rumgetrieben wird, als wenn es sich um new-honesty handeln würde, zwar eh wie immer leicht skeptisch beäugelt, aber das jetzt ist auch abseits irgendwelcher Affinitäten (die ich sowieso nicht habe) schon recht weit weg von Genau, Objektiv, Kritsich, Typisch Deutsch.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.358
- Renomée
- 1.977
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@cruger
Nvidia ist sich einfach nur selbst treu geblieben und macht da weiter womit sie seit dem Aufkauf von 3Dfx oder spätestens beim Aufkauf von Ageia anfingen.
Blockade von für die Konkurrenz interessanten/relevanten Technologien, Zementierung von Haus "Standards" als Alleinstellungsmerkmale, sich damit der direkten Konkurrenz entziehen und fleissig am Ausbau der Monopol Stellung zu arbeiten. Dabei ist recht deutlich erkennbar wie sehr sie seit dem Debakel um die Preislage der GTX 260/280 krampfhaft an der Verbreitung ihrer Haus Standards und die Ausgrenzung der Konkurrenz arbeiten.
Mal ehrlich, der einzige Punkt worum sich die aktuelle Diskussion dreht ist doch letztendlich nur die Preislage der vorgestellten Karten der für einige offenbar ach so überraschend aber letztendlich von Anfang an absehbar war. Man hat es im Jahre lang aufgebauten Quasi Monopol ganz einfach mit der Namensgebung und dem verlangten Preis übertrieben und damit die Grundlage für die aktuelle Diskussion gelegt. Denn seien wir mal ehrlich, hätte man z.B. die RTX2080 - GTX1085 RT und die 2080Ti - Titan RT genannt dann hätten wir die Aktuelle Diskussion nicht.
Nvidia ist sich einfach nur selbst treu geblieben und macht da weiter womit sie seit dem Aufkauf von 3Dfx oder spätestens beim Aufkauf von Ageia anfingen.
Blockade von für die Konkurrenz interessanten/relevanten Technologien, Zementierung von Haus "Standards" als Alleinstellungsmerkmale, sich damit der direkten Konkurrenz entziehen und fleissig am Ausbau der Monopol Stellung zu arbeiten. Dabei ist recht deutlich erkennbar wie sehr sie seit dem Debakel um die Preislage der GTX 260/280 krampfhaft an der Verbreitung ihrer Haus Standards und die Ausgrenzung der Konkurrenz arbeiten.
Mal ehrlich, der einzige Punkt worum sich die aktuelle Diskussion dreht ist doch letztendlich nur die Preislage der vorgestellten Karten der für einige offenbar ach so überraschend aber letztendlich von Anfang an absehbar war. Man hat es im Jahre lang aufgebauten Quasi Monopol ganz einfach mit der Namensgebung und dem verlangten Preis übertrieben und damit die Grundlage für die aktuelle Diskussion gelegt. Denn seien wir mal ehrlich, hätte man z.B. die RTX2080 - GTX1085 RT und die 2080Ti - Titan RT genannt dann hätten wir die Aktuelle Diskussion nicht.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.855
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 46K
- Antworten
- 1K
- Aufrufe
- 70K
- Antworten
- 0
- Aufrufe
- 433
- Antworten
- 226
- Aufrufe
- 24K
- Antworten
- 0
- Aufrufe
- 231