App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Zurück zu Nvidia - Endlich wieder zuhause!
- Ersteller TobiWahnKenobi
- Erstellt am
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Sehe ich wie gesagt nicht so. Der Ryzen1 geht trotz ohne Frage superber Contern von Intel wie warme Semmeln. Hier müßen sonst einfach die Boards stimmen.
Und bei Grakas ist das genauso. Die Miner interessieren sich auch nicht für Teslas und überhaupt für garkein Werbeblah und kaufen/kauften AMD die Lager leer. Relativ wie absolut.
Das ist mir bisschen zu einfach, die aktuelle Situation der Radeons in der Gamerszene, nur der geheimdienstähnlicher Arbeit der grünen PR-Ganoven anzulasten.
Womit ich nun feststelle, daß dies aber auch kein Grund ist Tobi seinen Verlorener Sohn kehrt zurück Thread deswegen zu hijacken. Hoffen, daß die V nicht abkokelt und sonst fette Leistungsberichte abwarten Ist ja nicht so, daß es gleich völlig uninteressantes Stück Hardware ist.
Solange ich nicht >3400€ dafür latzen muß ist ja alles ok
Wie macht sich das Ding so bei ComputeMark 2.1? (im Fenster + Preset auf Complex + 1024x600)
Und bei Grakas ist das genauso. Die Miner interessieren sich auch nicht für Teslas und überhaupt für garkein Werbeblah und kaufen/kauften AMD die Lager leer. Relativ wie absolut.
Das ist mir bisschen zu einfach, die aktuelle Situation der Radeons in der Gamerszene, nur der geheimdienstähnlicher Arbeit der grünen PR-Ganoven anzulasten.
Womit ich nun feststelle, daß dies aber auch kein Grund ist Tobi seinen Verlorener Sohn kehrt zurück Thread deswegen zu hijacken. Hoffen, daß die V nicht abkokelt und sonst fette Leistungsberichte abwarten Ist ja nicht so, daß es gleich völlig uninteressantes Stück Hardware ist.
Solange ich nicht >3400€ dafür latzen muß ist ja alles ok
Wie macht sich das Ding so bei ComputeMark 2.1? (im Fenster + Preset auf Complex + 1024x600)
Zuletzt bearbeitet:
Alyva
Vice Admiral Special
- Mitglied seit
- 12.01.2008
- Beiträge
- 712
- Renomée
- 6
- Prozessor
- AMD Athlon 64 3500+ Newcastle
- Mainboard
- K8N SLI Platinum
- Kühlung
- Boxed Variante
- Speicher
- MDT 2* 1 GB PC400 CL2
- Grafikprozessor
- Geforce 6800 GT Ultra
- Display
- 17" AOC 1280*1024
- HDD
- WD 360 GD / ST3200822A
- Optisches Laufwerk
- Toshiba DVD-Rom SD-M1912
- Soundkarte
- Soundblaster Audigy
- Netzteil
- 380 Watt
- Betriebssystem
- Windows XP
- Webbrowser
- Maxthon
Es ist ziemlich offensichtlich warum Nvidia Volta nicht als Mainstream Gaming bringt. Sie würde sich shaderbereinigt mit Vega messen und sich hinter Maxwell einreihen. Gegenüber Vega wäre da aber noch der Taktvorteil. Genauso wie Vega bringt sie ihre Performance auch erst in neuen APIs auf die Straße. Ich schätze mal Nvidia dürfte hier nicht nur auf den besseren Verkleinerungsprozess sondern auch auf eine breitere Durchsetzung neuer APIs auf dem Markt warten um Volta in den Massenmarkt zu entlassen.
Bezüglich Superstition als Benchmark, so kommt mir die lineare Berechnung von 4K zu 8K nicht ganz koscher vor. Das wäre dann der erste Benchmark der lineare FPS vorweisen würde. Außerdem im vergleich zu den veröffentlichten Gamingbenches der Volta trifft das Ergebnis selbiger nur in neuen APIs zur TI zu. Das Programm gibt also nicht den tatsächlichen IST-Zustand zur TI wieder. Der Abstand beträgt ja nur 10%, was die geposteten Punkte doch fragwürdig erscheinen lässt.
Bezüglich Superstition als Benchmark, so kommt mir die lineare Berechnung von 4K zu 8K nicht ganz koscher vor. Das wäre dann der erste Benchmark der lineare FPS vorweisen würde. Außerdem im vergleich zu den veröffentlichten Gamingbenches der Volta trifft das Ergebnis selbiger nur in neuen APIs zur TI zu. Das Programm gibt also nicht den tatsächlichen IST-Zustand zur TI wieder. Der Abstand beträgt ja nur 10%, was die geposteten Punkte doch fragwürdig erscheinen lässt.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Und als nicht mainstream gaming? Geizhals listet keine mehr auf...Es ist ziemlich offensichtlich warum Nvidia Volta nicht als Mainstream Gaming bringt.
Alyva
Vice Admiral Special
- Mitglied seit
- 12.01.2008
- Beiträge
- 712
- Renomée
- 6
- Prozessor
- AMD Athlon 64 3500+ Newcastle
- Mainboard
- K8N SLI Platinum
- Kühlung
- Boxed Variante
- Speicher
- MDT 2* 1 GB PC400 CL2
- Grafikprozessor
- Geforce 6800 GT Ultra
- Display
- 17" AOC 1280*1024
- HDD
- WD 360 GD / ST3200822A
- Optisches Laufwerk
- Toshiba DVD-Rom SD-M1912
- Soundkarte
- Soundblaster Audigy
- Netzteil
- 380 Watt
- Betriebssystem
- Windows XP
- Webbrowser
- Maxthon
Man kann sagen komplett als Gaming nicht. Die Chips sind dafür einfach zu teuer. Dass es aktuell keine mehr zu geben scheint, könnte an dem gefundenen Berechnungsfehler der Karte liegen: http://www.pcgameshardware.de/Titan...er-in-wissenschaftlichen-Anwendungen-1252886/
Es wurden ja mit Absicht seitens Nvidia keine Gamingtreiber angekündigt. Einen großartigen unterschied zu dem vorhandenen Treiber macht das aber nicht.
Es wurden ja mit Absicht seitens Nvidia keine Gamingtreiber angekündigt. Einen großartigen unterschied zu dem vorhandenen Treiber macht das aber nicht.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Das ist ja mal traumhaft gelaufen Für die Gamer war es eh nie gedacht und bei den anderen rechnet sie falsch.
https://derstandard.at/200007667425...sstaerker-Grafikchip-der-Welt-verrechnet-sich
Ob das der Grund ist warum Tobi sich die 2 Wochen lang anschaut, statt sie zu nutzen?
https://derstandard.at/200007667425...sstaerker-Grafikchip-der-Welt-verrechnet-sich
Ob das der Grund ist warum Tobi sich die 2 Wochen lang anschaut, statt sie zu nutzen?
Zuletzt bearbeitet:
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.014
- Renomée
- 153
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
ja, ich musste vier rechner mit vier titan V testen, um bei meiner enzym/protein simulation (1.000 tests pro PC in 14 tagen) zu sehen, dass eine der vier voltas in 10% der tests (1000/10) rundungsfehler an der 10^36igsten nachkommastelle erzeugt. nächstes mal kaufe ich für enzymsimulationen eine karte die ECC beherrscht.
zurück in die wirklichkeit bitte.
die karte musste hier alles geben und da ich nur nachts am pc spielen kann, weil ich tagsüber den arsch für geld bewegen muss, dauerte das halt etwas.. es dauert sogar noch immer.. neben dem UHD TFT betreibe ich noch immer stereoskopie, beamer und VR.
eine karte für den gegenwert eines gebrauchtwagens möchte der informatiker in mir natürlich hinreichend testen. hätte ja auch sein können, dass ich dem titan x (pascal) SLI nachweine..
kein stück
(..)
mfg
tobi
zurück in die wirklichkeit bitte.
die karte musste hier alles geben und da ich nur nachts am pc spielen kann, weil ich tagsüber den arsch für geld bewegen muss, dauerte das halt etwas.. es dauert sogar noch immer.. neben dem UHD TFT betreibe ich noch immer stereoskopie, beamer und VR.
eine karte für den gegenwert eines gebrauchtwagens möchte der informatiker in mir natürlich hinreichend testen. hätte ja auch sein können, dass ich dem titan x (pascal) SLI nachweine..
kein stück
(..)
mfg
tobi
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Wow. Da hat wohl wer ganze Arbeit geleistet, wenn sowas nicht erst nach 4 Jahren mal zufällig auffällt, sondern schon während der Validierung für Amber
Nur was steht da nochmal? Daß sich Amber in 10% der Tests um xy verrechnet oder daß es sich in den Fällen UM 10% verrechnet? Ich hab das wohl auch falsch bei Register gelesen.
Was ist denn aber die "Wirklichkeit" einer 3400€ Graka für nicht-gamer/ohne gamer driver? (sollte die nicht überall den Gegenwert von "2999$" haben?).
Nun. Wenn ich eine Titan V hab, die ja 9x so schnell rechnet als eine Titan X, also mind. (overhead) 4.5x so schnell ist als Titan X im SLI, und dabei die Hälfte an Energie verbraucht als so ein Titan X Verbund, da muß ich nicht erst ausloten, ob ich dem letztgenannten nachweinen könnte. Es sei denn ich mach öfters Rechenfehler die >10% sind
Lass bollern. Mach mal ComputeMark 2.1 oder GPUPI 2.2 (ohne Cuda) oder sowas bitte 8) Mit den Texten kann ich ehrlich gesagt nicht mehr anfangen als ein echter Gamer mit einem 3DMark Bench...
Nur was steht da nochmal? Daß sich Amber in 10% der Tests um xy verrechnet oder daß es sich in den Fällen UM 10% verrechnet? Ich hab das wohl auch falsch bei Register gelesen.
Was ist denn aber die "Wirklichkeit" einer 3400€ Graka für nicht-gamer/ohne gamer driver? (sollte die nicht überall den Gegenwert von "2999$" haben?).
Nun. Wenn ich eine Titan V hab, die ja 9x so schnell rechnet als eine Titan X, also mind. (overhead) 4.5x so schnell ist als Titan X im SLI, und dabei die Hälfte an Energie verbraucht als so ein Titan X Verbund, da muß ich nicht erst ausloten, ob ich dem letztgenannten nachweinen könnte. Es sei denn ich mach öfters Rechenfehler die >10% sind
Lass bollern. Mach mal ComputeMark 2.1 oder GPUPI 2.2 (ohne Cuda) oder sowas bitte 8) Mit den Texten kann ich ehrlich gesagt nicht mehr anfangen als ein echter Gamer mit einem 3DMark Bench...
Zuletzt bearbeitet:
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.270
- Renomée
- 1.853
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Genau, hä, was bitte?Was ist denn da in all den Jahren passiert??
Ich habs 1x nicht verstanden, als ich über den ersten Beitrag flog, weil ich den Catalyst quasi nie gesehen habe. Ich klimperte bei Erstinstallationen 1-2 Tage drin rum und dann flog das CCC-Getöse auch gleich wieder aus dem Autostart.
Jetzt, jetzt schaute ich heute auf Luxx in den Threads mit den ganzen News und Kommentare zu Crimsons und Andrenalins, und da tauchen rrecht frisch (!) plötzlich grüne Typen auf und schreiben, sie beneiden die Roten wenigstens für den Trieber (?!?), weil deren geht mittlerweile garnicht. Womit wohl die GUIs gemeint sind.
Hää, was bitte??
Als ich letztens den AMD-Treiber unter Windows installiert habe, dachte ich mir nur, was ist das für eine kontrastlose, GUI? Übersichtlich halte ich es auch nicht, aber das kann auch am "Neu"-Effekt gelegen haben, der letzte Treiber war gut 5 Jahre im Einsatz.
Die Nvidia-Treiber für Windows kenn ich nicht, aber die für Linux sind einfach mal flächendeckend vorhanden, die GUI ist auch sachlich/nützlich - ich kann mich nicht beschweren.
Für den Ryzen warte ich nach wie vor auf einen AMDGPUpro-Treiber, der sich einfach nur installieren lässt.
Nach der Monopoly-Geschichte von Nvidia ist nun aber auch bei mir das Fass übergelaufen. Treiber und schnelles CUDA hin oder her - so eine massive Marktbeinflussung ala Intel geht einfach nicht. Da halte ich dann eben die alten CPUs so lange am Leben, bis AMD Treiber für neue GPUs bringt.
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.014
- Renomée
- 153
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
Womit ich nun feststelle, daß dies aber auch kein Grund ist Tobi seinen Verlorener Sohn kehrt zurück Thread deswegen zu hijacken. Hoffen, daß die V nicht abkokelt und sonst fette Leistungsberichte abwarten Ist ja nicht so, daß es gleich völlig uninteressantes Stück Hardware ist.
Solange ich nicht >3400€ dafür latzen muß ist ja alles ok
Wie macht sich das Ding so bei ComputeMark 2.1? (im Fenster + Preset auf Complex + 1024x600)
anyway.. wer mitspielen will -> ich zocke jetzt ne runde battlefront 2 und gehe dann in die heia.
(..)
mfg
tobi
Zuletzt bearbeitet:
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
skelletor
Grand Admiral Special
- Mitglied seit
- 14.06.2002
- Beiträge
- 5.316
- Renomée
- 289
- Standort
- Dresden
- Aktuelle Projekte
- Simap, Spinhenge, Poem, QMC, RNA World
- Lieblingsprojekt
- einheimische Projekte
- Meine Systeme
- AMD Ryzen 7 5800X3D + AMD Radeon RX 6900XT
- BOINC-Statistiken
- Mein Laptop
- Acer Aspire E3 112, Lenovo ThinkPad L570
- Prozessor
- Ryzen 7 5800X3D
- Mainboard
- MSI X570-A Pro
- Kühlung
- beQuiet DarkRock TF
- Speicher
- 2x 16GB GSkill 1800MHz CL14 @ 1T
- Grafikprozessor
- AMD Radeon 6900XT
- Display
- Samsung C27HG70 @2560*1440 144Hz; EIZO S2411W @1920x1200 60Hz; 52 Zoll Sony KDL-52HX905 @1920*1080
- SSD
- 1TB WD Black SN850 M2 NVME, 512 GB Samsung 850 Pro
- HDD
- 1x 4TB WesternDigital Red
- Optisches Laufwerk
- Pioneer BluRay Brenner
- Soundkarte
- Realtek HD Audio OnBoard (ALC 1220)
- Gehäuse
- noname
- Netzteil
- Seasonic X650 (80+ Gold)
- Tastatur
- Logitech G815 Tactile (brown)
- Maus
- Swiftpoint Z
- Betriebssystem
- Windows 10 Home 64bit
- Webbrowser
- Firefox
Endergebnis knapp 2,9 mal so viele Punkte, wie eine 580RX.
Einzelergebnismultiplikatoren: 3,35; 3,02; 2,15; 2,49; 3,59
Gruß,
skell.
Einzelergebnismultiplikatoren: 3,35; 3,02; 2,15; 2,49; 3,59
Gruß,
skell.
Darkearth21
Fleet Captain Special
- Mitglied seit
- 30.01.2003
- Beiträge
- 289
- Renomée
- 23
- Standort
- Hannover
- Prozessor
- Ryzen 3800X @ Auto OC + Ryzen 3900X @ Stock
- Mainboard
- Asus Crosshair 6 Hero + MSI Unify X570
- Kühlung
- Alphacool Eisbaer Modded + Wraith Prism
- Speicher
- 2 x 16GB E-Dies @ 3733CL16 + 2 x 16GB E-Dies @3733CL16
- Grafikprozessor
- MSI GTX 1080Ti Gaming X 11G @ 1760 / 5900 MHz @ 0.879v + Radeon RX570 @ Stock
- Display
- BenQ 3203R + BenQ XL2730Z 27" 144Hz
- SSD
- Samsung Evo 840 256GB, Crucial MX200 500GB Crucial MX 500 1TB + Samsung Evo 850 256GB
- HDD
- 1x Extern 1TB WD Green im Hardcase + 1x 2TB Toschiba
- Optisches Laufwerk
- keines mehr
- Gehäuse
- NZXT s340 Elite White + Nokia 3310 Oldschool Tower
- Netzteil
- Corsair RM850X Weiß + bQuiet! DPP 550w
- Betriebssystem
- Win10 64 ProN + Win 64 Pro
- Webbrowser
- Firefox | Nightly
Naja Apfel und Birne verglichen und so.
Die 3400€ (selbst wenn es "nur" 3000 sein sollten) der V sind auf die Leistung bezogen einfach etwas überteuert.
Klar hat man die nächsten 4 Jahre etwas davon (und auch ausreichend Geschwindigkeit) aber da bleib ich lieber unter den tausend Euronen und behalte die 1080ti welche 13k irgendwas Punkte in dem komischen dx11 compute bench bei mir macht.
Aber wer und wie das Geld in sein Hobby investiert bleibt ja jedem selbst überlassen.
Ich warte eigentlich immer noch auf ein passendes Gegenstück von AMD auf die Ti dann kann ich mein freesync Monitor auch mal wieder nutzen, nur derzeit gibt es da (und die Vega ist MIR zu langsam) leider nichts.
Die 3400€ (selbst wenn es "nur" 3000 sein sollten) der V sind auf die Leistung bezogen einfach etwas überteuert.
Klar hat man die nächsten 4 Jahre etwas davon (und auch ausreichend Geschwindigkeit) aber da bleib ich lieber unter den tausend Euronen und behalte die 1080ti welche 13k irgendwas Punkte in dem komischen dx11 compute bench bei mir macht.
Aber wer und wie das Geld in sein Hobby investiert bleibt ja jedem selbst überlassen.
Ich warte eigentlich immer noch auf ein passendes Gegenstück von AMD auf die Ti dann kann ich mein freesync Monitor auch mal wieder nutzen, nur derzeit gibt es da (und die Vega ist MIR zu langsam) leider nichts.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Egal welche Messlatte man sich aktuell preislich setzt, die PReise für Grakas sind aktuell ein Witz.
Nein da wird diesjahr nichts mehr kommen. die Watt/FPS kriegen sie auf keinen Fall hin 2018. Fertigstellung des Zen+ hatte Priorität. Die Leute sind jetzt erst teils auf die Radeonteams verteilt worden. Das wird also erst 2019 was.
Beim Zen2 muß man jetzt nicht schneller reinhauen als Intel es macht. Bei den GPUs schon. Daher geht das erst jetzt los da. Die 1070/1080(Ti) sind weg.
Nein da wird diesjahr nichts mehr kommen. die Watt/FPS kriegen sie auf keinen Fall hin 2018. Fertigstellung des Zen+ hatte Priorität. Die Leute sind jetzt erst teils auf die Radeonteams verteilt worden. Das wird also erst 2019 was.
Beim Zen2 muß man jetzt nicht schneller reinhauen als Intel es macht. Bei den GPUs schon. Daher geht das erst jetzt los da. Die 1070/1080(Ti) sind weg.
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.014
- Renomée
- 153
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
ich wühle nochmal farcry5 raus, weil das noch ganz gut mit SLi läuft, auch wenn es ein neuer titel ist. andere spiele sind da leider nicht sooooo gut in der skalierung.. manche stagnieren sogar auf dem niveau einer einzelkarte (battlefront2 etwa)..
2x Titan X (Pascal) @ ~2GHz
1x Titan V (Volta) @ ~2GHz
blick auf die minframes des SLi -> AFR mit 2x 40fps = 80fps @600W leistungsaufnahme.
blick auf die minframes voltas -> sGPU mit 1x 76fps = 76fps @300W leistungsaufnahme.
also wenn das keine hausnummer ist weiss ich auch nicht.
(..)
mfg
tobi
2x Titan X (Pascal) @ ~2GHz
1x Titan V (Volta) @ ~2GHz
blick auf die minframes des SLi -> AFR mit 2x 40fps = 80fps @600W leistungsaufnahme.
blick auf die minframes voltas -> sGPU mit 1x 76fps = 76fps @300W leistungsaufnahme.
also wenn das keine hausnummer ist weiss ich auch nicht.
(..)
mfg
tobi
Zuletzt bearbeitet:
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Was ist daran so Toll?!
Ist die normale Entwicklung bei GPUs egal ob Nvidia oder AMD.
Dann hast die Titan V sogar noch schlechter gemacht in den FPS durch den gleichen Takt......und die X schlechter beim Stromverbrauch.
Default ist entscheident ob die V doppelt so schnell ist oder nicht in den avg FPS und wie schaut es dann mit dem Verbrauch aus.
Ist die normale Entwicklung bei GPUs egal ob Nvidia oder AMD.
Dann hast die Titan V sogar noch schlechter gemacht in den FPS durch den gleichen Takt......und die X schlechter beim Stromverbrauch.
Default ist entscheident ob die V doppelt so schnell ist oder nicht in den avg FPS und wie schaut es dann mit dem Verbrauch aus.
skelletor
Grand Admiral Special
- Mitglied seit
- 14.06.2002
- Beiträge
- 5.316
- Renomée
- 289
- Standort
- Dresden
- Aktuelle Projekte
- Simap, Spinhenge, Poem, QMC, RNA World
- Lieblingsprojekt
- einheimische Projekte
- Meine Systeme
- AMD Ryzen 7 5800X3D + AMD Radeon RX 6900XT
- BOINC-Statistiken
- Mein Laptop
- Acer Aspire E3 112, Lenovo ThinkPad L570
- Prozessor
- Ryzen 7 5800X3D
- Mainboard
- MSI X570-A Pro
- Kühlung
- beQuiet DarkRock TF
- Speicher
- 2x 16GB GSkill 1800MHz CL14 @ 1T
- Grafikprozessor
- AMD Radeon 6900XT
- Display
- Samsung C27HG70 @2560*1440 144Hz; EIZO S2411W @1920x1200 60Hz; 52 Zoll Sony KDL-52HX905 @1920*1080
- SSD
- 1TB WD Black SN850 M2 NVME, 512 GB Samsung 850 Pro
- HDD
- 1x 4TB WesternDigital Red
- Optisches Laufwerk
- Pioneer BluRay Brenner
- Soundkarte
- Realtek HD Audio OnBoard (ALC 1220)
- Gehäuse
- noname
- Netzteil
- Seasonic X650 (80+ Gold)
- Tastatur
- Logitech G815 Tactile (brown)
- Maus
- Swiftpoint Z
- Betriebssystem
- Windows 10 Home 64bit
- Webbrowser
- Firefox
Die Karten laufen da ja nicht kontinuierlich in der maximalen Leistungsaufnahme. Das gilt fuer SLi wie auch für die V.
Durchschnitt 92 vs. 82 fps - SLI also in diesem Fall etwas mehr als 12% schneller.
Die Reale Leistungsaufnahme des Systems an der Steckdose wäre entgegenzuhalten. Trotzdem eine Karte, die wohl erstmals als Single Lösung für halbwegs angemessenen 4k Einsatz geeignet wäre.
Durchschnitt 92 vs. 82 fps - SLI also in diesem Fall etwas mehr als 12% schneller.
Die Reale Leistungsaufnahme des Systems an der Steckdose wäre entgegenzuhalten. Trotzdem eine Karte, die wohl erstmals als Single Lösung für halbwegs angemessenen 4k Einsatz geeignet wäre.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Ok, also ist beim Zen+ gegenüber Bulldozer auch nichts "toll"? Oder ist das keine normale Entwicklung?Was ist daran so Toll?!
Ist die normale Entwicklung bei GPUs egal ob Nvidia oder AMD.
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.014
- Renomée
- 153
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
das sli ist nur solange "schneller" wie man sich die reinen zahlen anschaut. dass 2x 40fps im sli nicht mit 1x 80fps aus einer einzelkarte gleichzusetzen sind, habe ich in den letzten 20 jahren bestimmt schon 100x erklärt. AFR ist eine krankheit - eine krücke - ein zustand, den man manchmal nicht umschiffen kann. so etwa "vor" titan V, denn da gab es nichts, das im grunde global UHD-games abspult und dabei mit den frames immer über dem refresh bleibt.
was die messungen angeht, so habe ich noch immer (wie auch schon xmal weiter vorn im thread erwähnt) ein leistungsmessgerät vor der PSU und dessen anzeige deckt sich so gut wie immer mit den auslesemechanismen meines corsair-NTs. das lässt die leistungsaufnahme im OS am eingang - verlust und am ausgang loggen.
mit zwei hochgetakten TXP liegt der verbrauch sehr oft weit über 600W; wo ein sys mit einzelkarte (250W @100% PT respektive 300W @120% PT) nichtmal auf 500W kommt.
(..)
mfg
tobi
was die messungen angeht, so habe ich noch immer (wie auch schon xmal weiter vorn im thread erwähnt) ein leistungsmessgerät vor der PSU und dessen anzeige deckt sich so gut wie immer mit den auslesemechanismen meines corsair-NTs. das lässt die leistungsaufnahme im OS am eingang - verlust und am ausgang loggen.
mit zwei hochgetakten TXP liegt der verbrauch sehr oft weit über 600W; wo ein sys mit einzelkarte (250W @100% PT respektive 300W @120% PT) nichtmal auf 500W kommt.
(..)
mfg
tobi
skelletor
Grand Admiral Special
- Mitglied seit
- 14.06.2002
- Beiträge
- 5.316
- Renomée
- 289
- Standort
- Dresden
- Aktuelle Projekte
- Simap, Spinhenge, Poem, QMC, RNA World
- Lieblingsprojekt
- einheimische Projekte
- Meine Systeme
- AMD Ryzen 7 5800X3D + AMD Radeon RX 6900XT
- BOINC-Statistiken
- Mein Laptop
- Acer Aspire E3 112, Lenovo ThinkPad L570
- Prozessor
- Ryzen 7 5800X3D
- Mainboard
- MSI X570-A Pro
- Kühlung
- beQuiet DarkRock TF
- Speicher
- 2x 16GB GSkill 1800MHz CL14 @ 1T
- Grafikprozessor
- AMD Radeon 6900XT
- Display
- Samsung C27HG70 @2560*1440 144Hz; EIZO S2411W @1920x1200 60Hz; 52 Zoll Sony KDL-52HX905 @1920*1080
- SSD
- 1TB WD Black SN850 M2 NVME, 512 GB Samsung 850 Pro
- HDD
- 1x 4TB WesternDigital Red
- Optisches Laufwerk
- Pioneer BluRay Brenner
- Soundkarte
- Realtek HD Audio OnBoard (ALC 1220)
- Gehäuse
- noname
- Netzteil
- Seasonic X650 (80+ Gold)
- Tastatur
- Logitech G815 Tactile (brown)
- Maus
- Swiftpoint Z
- Betriebssystem
- Windows 10 Home 64bit
- Webbrowser
- Firefox
Ja, nichtmal nur Microruckler / ungleichmäßige Frametimes - auch die spielspezifisch nötige Treiberanpassung / Profilunterstützung sind eine Krücke. Die theoretisch so schöne Skalierung ist in der Realität leider nicht so das gelbe vom Ei. Insofern ist eine Einzelkarte immer vorzuziehen.
Witcher 3 lässt sich z.b. auch schon mit einer Fury in 4k spielbar betreiben. Aber wenn man alles ausmaximieren will, wird man derzeit mit keiner Karte richtig glücklich. (Ausgenommen unseres Kandidaten hier, der aber leider nicht für den Spielemarkt vorgesehen ist.)
Eine Verdopplung der Leistungsfähigkeit (oder sagen wir 1,5fachung) ist aber im Grafiksegment tatsächlich durchaus im Rahmen des Üblichen. Das konnten wir in den letzten Generationen ja beobachten.
Gruß,
skell.
Witcher 3 lässt sich z.b. auch schon mit einer Fury in 4k spielbar betreiben. Aber wenn man alles ausmaximieren will, wird man derzeit mit keiner Karte richtig glücklich. (Ausgenommen unseres Kandidaten hier, der aber leider nicht für den Spielemarkt vorgesehen ist.)
Eine Verdopplung der Leistungsfähigkeit (oder sagen wir 1,5fachung) ist aber im Grafiksegment tatsächlich durchaus im Rahmen des Üblichen. Das konnten wir in den letzten Generationen ja beobachten.
Gruß,
skell.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Ah nö? Ich dachte SLI lief bestens (?)
Wer wollte denn aber je AFR haben? Hätte NV uns mit ihren Zwangspartnern nicht mit ihren DX-Hacks künstlich so lange bei DX11 aufgehalten, hätten wir längst flächendeckend brauchbare SFR Treiber, wie auch Engines. Für DX12 und für Vulcan.
Wenn man MultiGPU machen will, geht das sinnvoll eh nur so wie AMD das nächstes Jahr vorhat. Dann kann Tobi mal wieder heimkehren
wenn du schon bock auf "dinge erforschen" hast, baller dir einen 313er treiber drauf und spiele mit dem neuen vsync-sli-afr-lagfree-feature.. oder wie nvidia es im CP nennt -> vsync(flüssig) | vertical sync smooth AFR behavior flag im NVI, tearcontrol muss dafür auf standard.
hab mir das gestern in skyrim angeschaut und auch wenn es die averageframes etwas drückt, war das spielgefühl echt "smoooooth". ich habs mit 1440p/60 und FHD/120, 110 und 100Hz getestet.
Wer wollte denn aber je AFR haben? Hätte NV uns mit ihren Zwangspartnern nicht mit ihren DX-Hacks künstlich so lange bei DX11 aufgehalten, hätten wir längst flächendeckend brauchbare SFR Treiber, wie auch Engines. Für DX12 und für Vulcan.
Wenn man MultiGPU machen will, geht das sinnvoll eh nur so wie AMD das nächstes Jahr vorhat. Dann kann Tobi mal wieder heimkehren
Alyva
Vice Admiral Special
- Mitglied seit
- 12.01.2008
- Beiträge
- 712
- Renomée
- 6
- Prozessor
- AMD Athlon 64 3500+ Newcastle
- Mainboard
- K8N SLI Platinum
- Kühlung
- Boxed Variante
- Speicher
- MDT 2* 1 GB PC400 CL2
- Grafikprozessor
- Geforce 6800 GT Ultra
- Display
- 17" AOC 1280*1024
- HDD
- WD 360 GD / ST3200822A
- Optisches Laufwerk
- Toshiba DVD-Rom SD-M1912
- Soundkarte
- Soundblaster Audigy
- Netzteil
- 380 Watt
- Betriebssystem
- Windows XP
- Webbrowser
- Maxthon
Zu Multi-GPU sollte eigentlich alles gesagt sein. Es war in dieser Form eine über Jahre nett anzuschauende Techdemo. Wenn man sich den Frameverkauf aus Tobis Post anschaut, so sieht man dass das SLI eine weichere Kurve aufweist und somit eigentlich besser wäre. Auf der anderen Seite ist das wohl auch der Beweis, dass die V laut Testberichten bei Spielen im Frameverlauf etwas inkosistent ist. Ich bin zwar auch eher ein Fan von stabileren Frametimes und gemittelten FPS anstelle von High-FPS, aber ich bin mir sicher, dass dieser Fall von den altbekannten Helden diverser Foren hier auch nicht bemerkt werden würde wenn sie vor solchen Systemen sitzen.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Jaa... Das kommt nochmal Und dann so wie es das schonmal gab. Und das schon damals der einzig sinnvolle Weg für MultiGPU war. Heute hat man aber T&L usw. auf dem RadarZu Multi-GPU sollte eigentlich alles gesagt sein.
Lasst uns einfach mal überraschen.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
das sli ist nur solange "schneller" wie man sich die reinen zahlen anschaut. dass 2x 40fps im sli nicht mit 1x 80fps aus einer einzelkarte gleichzusetzen sind, habe ich in den letzten 20 jahren bestimmt schon 100x erklärt. AFR ist eine krankheit - eine krücke - ein zustand, den man manchmal nicht umschiffen kann. so etwa "vor" titan V, denn da gab es nichts, das im grunde global UHD-games abspult und dabei mit den frames immer über dem refresh bleibt.
was die messungen angeht, so habe ich noch immer (wie auch schon xmal weiter vorn im thread erwähnt) ein leistungsmessgerät vor der PSU und dessen anzeige deckt sich so gut wie immer mit den auslesemechanismen meines corsair-NTs. das lässt die leistungsaufnahme im OS am eingang - verlust und am ausgang loggen.
mit zwei hochgetakten TXP liegt der verbrauch sehr oft weit über 600W; wo ein sys mit einzelkarte (250W @100% PT respektive 300W @120% PT) nichtmal auf 500W kommt.
(..)
mfg
tobi
Das machen in Deinem Fall avg. rund 75% wenn man Karte mit Karte vergleicht.
75% sehen natürlich schon besser aus , ABER Alte Generation Crossfire/sli vs Neues Topmodell schaute doch schon immer so aus.
--- Update ---
Ok, also ist beim Zen+ gegenüber Bulldozer auch nichts "toll"? Oder ist das keine normale Entwicklung?
Bulli passt da über haupt nicht als Vergleich,weil die Testprogramme Müll waren,die MEISTEN Tester auch nix konnten bzw nicht wollten......."durften".......
Bulli wurd Deutlich schlechter gemacht als er war,dann wurd er kaum richtig Unterstützt,oft wurd er mit Müll HW betrieben........
Dann ist es noch ein wenig schwieriger "Module" mit Kernen + CMT/SMT zu Vergleichen.....
Wenn du nen Bulli x6 mit nem PhenomII x6 verglichen hast im Richtigen Test,dann ging beim PhenomII x6 nix mehr und der Bulli lief so was von flüssig und schnell weiter.
Wenn du NUR nach Nackten Zahlen gehst im Nicht Unterstützten AMD CineBench,dann schaut es z.b. so aus und das ist.........bei 1GHz Weniger gegenüber dem Bulli hmmmmmm.Was da viel mehr beeindruckt ist der Verbrauch.
Auf die Core und Threads achten.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Seltsamerweise bracht man für Zen keine "Unterstützung". Wenn ich x86 machen, darf ich nicht erwarten, daß Leute plötzlich anfangen 2fach für "meine" x86 und "die andere" x86 zu entwickeln. Das war, ist und wird wohl jedem glasklar sein oder?
versucht mal bitte beim thema zu bleiben. wenn ihr über bulldozer diskutieren wollt ...
https://www.planet3dnow.de/vbulletin/threads/317639-Bulldozer-AMD-Fam-15h-allgemeiner-Infothread
https://www.planet3dnow.de/vbulletin/threads/317639-Bulldozer-AMD-Fam-15h-allgemeiner-Infothread
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 46K
- Antworten
- 2K
- Aufrufe
- 112K
- Antworten
- 680
- Aufrufe
- 88K
- Antworten
- 505
- Aufrufe
- 57K