App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
R1000 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Welche Generation?
Ich (und TPU) spreche von 2xTahiti(PRO oder XT?), Codename New Zealand, vs. 2x GK104 also dem Chip der in der 680 GTX verbaut ist.
Das ist keine neue Generation bloß aktuelle Generation mal 2 auf einem Board.
Später kommt dann noch von Nvidia GK100, bzw. laut Gemunkel GK110, das ist dann der "eigentliche" Nachfolger der 580 GTX mit voller GPGPU-Austattung, die wird dann wahrscheinlich als Single-Karte verkauft... die Frage ist nur wann? Denn ein paar Rechenzentren warten auf eben diesen Chip, daher wird ja auch getuschelt, dass das Teil dann z.B. schon auf den Namen 780 GTX hören könnte und daher wohl erst im nächsten Jahr retail auftauchen könnte.
edit: btw.
Es ist definitiv Fake:
http://www.techpowerup.com/163386/A...firmed-in-GPU-Z-Screenshot.html?cp=3#comments
Relativ weit unten hat der Redakteur (editor in chief?) der Seite bzw. des Artikels "btarunr" ein paar screenshots gepostet wer alles diese "News" wiedergekäut hat.
Ich (und TPU) spreche von 2xTahiti(PRO oder XT?), Codename New Zealand, vs. 2x GK104 also dem Chip der in der 680 GTX verbaut ist.
Das ist keine neue Generation bloß aktuelle Generation mal 2 auf einem Board.
Später kommt dann noch von Nvidia GK100, bzw. laut Gemunkel GK110, das ist dann der "eigentliche" Nachfolger der 580 GTX mit voller GPGPU-Austattung, die wird dann wahrscheinlich als Single-Karte verkauft... die Frage ist nur wann? Denn ein paar Rechenzentren warten auf eben diesen Chip, daher wird ja auch getuschelt, dass das Teil dann z.B. schon auf den Namen 780 GTX hören könnte und daher wohl erst im nächsten Jahr retail auftauchen könnte.
edit: btw.
Es ist definitiv Fake:
http://www.techpowerup.com/163386/A...firmed-in-GPU-Z-Screenshot.html?cp=3#comments
Relativ weit unten hat der Redakteur (editor in chief?) der Seite bzw. des Artikels "btarunr" ein paar screenshots gepostet wer alles diese "News" wiedergekäut hat.
Zuletzt bearbeitet:
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Ist im Endeffekt sowieso egal. Da GK104 bei der TDP unterhalb von Thahiti liegt, diesen aber schlagen kann, ist die Wahrscheinlichkeit groß, dass das auch bei der Dual Version so sein wird. Davon mal abgesehen sind Dual Karten ohnehin unsinnig auf Grund der Microruckler Thematik etc.
LoRDxRaVeN
Grand Admiral Special
- Mitglied seit
- 20.01.2009
- Beiträge
- 4.169
- Renomée
- 64
- Standort
- Oberösterreich - Studium in Wien
- Mein Laptop
- Lenovo Thinkpad Edge 11
- Prozessor
- Phenom II X4 955 C3
- Mainboard
- Gigabyte GA-MA790X-DS4
- Kühlung
- Xigmatek Thor's Hammer + Enermax Twister Lüfter
- Speicher
- 4 x 1GB DDR2-800 Samsung
- Grafikprozessor
- Sapphire HD4870 512MB mit Referenzkühler
- Display
- 22'' Samung SyncMaster 2233BW 1680x1050
- HDD
- Hitachi Deskstar 250GB, Western Digital Caviar Green EADS 1TB
- Optisches Laufwerk
- Plextor PX-130A, Plextor Px-716SA
- Soundkarte
- onboard
- Gehäuse
- Aspire
- Netzteil
- Enermax PRO82+ II 425W ATX 2.3
- Betriebssystem
- Windows 7 Professional Studentenversion
- Webbrowser
- Firefox siebenunddreißigsttausend
- Schau Dir das System auf sysprofile.de an
Tahiti wurde aber Monate vor GK104 auf den Markt gebracht, weshalb man spekulieren könnte, dass damals die Spezifikationen des Prozesses noch schlechter waren, als bei GK104 und somit auch ein heutiger Tahiti weniger Spannung benötigen könnte, was unterm Strich in einer geringeren Leistungsaufnahme resultieren sollte.
Also muss man nicht zwangsweise von den frühen Tahitis auf die zukünftigen "New Zealands" schließen können.
Also muss man nicht zwangsweise von den frühen Tahitis auf die zukünftigen "New Zealands" schließen können.
ONH
Grand Admiral Special
Ist im Endeffekt sowieso egal. Da GK104 bei der TDP unterhalb von Thahiti liegt, diesen aber schlagen kann, ist die Wahrscheinlichkeit groß, dass das auch bei der Dual Version so sein wird.
Naja, wenn man sich die SLI Benchs ansieht vs Crossfire dann werden sie sich wie bei hoher Auflösung nicht viel nehmen, bei gleichem Stromverbrauch. Mit den seektierten oder durch Fertigungsverbesserungen verbrauchsärmeren Chip, welche nach 3-4 Monaten sicher da sind.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Die Unterschiede bezüglich Performance pro Watt sind doch marginal. Dass GK104 hier leicht vorne liegt, liegt einfach daran, dass Nvidia ein Quartal länger Zeit hatte für Optimierungen. Verbesserungen beim Prozess von TSMC tun da sicherlich ihr Übriges. Hätte sich AMD auch so lange Zeit gelassen, würde der GK104 wohl weniger gut dastehen. Vor allem, da er anscheinend mit weniger Takt geplant war. Und ähnlich schwierig dürfte das für Nvidia für das Dual-GPU Modell ausschauen. Da wird AMD sicherlich ein ordentliches Brett bringen. Und Microruckler bleiben subjektiv. Die einen stört es, die anderen nicht. Hier von unsinnig zu sprechen, ist einfach falsch. Und bezüglich GPGPU sind Microruckler eh irrelevant.Ist im Endeffekt sowieso egal. Da GK104 bei der TDP unterhalb von Thahiti liegt, diesen aber schlagen kann, ist die Wahrscheinlichkeit groß, dass das auch bei der Dual Version so sein wird. Davon mal abgesehen sind Dual Karten ohnehin unsinnig auf Grund der Microruckler Thematik etc.
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Das liegt m.E. nach vielmehr an den für GPGPU verbauten Transistoren in Tahiti, welcher schließlich noch im Pro-Segment herhalten soll. Interessant wird dann der Vergleich mit GK110 bezüglich Spiele-Performance pro Watt.Die Unterschiede bezüglich Performance pro Watt sind doch marginal. Dass GK104 hier leicht vorne liegt, liegt einfach daran, dass Nvidia ein Quartal länger Zeit hatte für Optimierungen.
EDIT:
Den Leuten von der orangenen Spielwiese ist das übrigens auch irgendwie aufgefallen: 3DZentner über Packdichte aktueller GPUs
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Sicherlich, das kommt auch noch hinzu.Das liegt m.E. nach vielmehr an den für GPGPU verbauten Transistoren in Tahiti, welcher schließlich noch im Pro-Segment herhalten soll.
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Naja, wenn man sich die SLI Benchs ansieht vs Crossfire dann werden sie sich wie bei hoher Auflösung nicht viel nehmen, bei gleichem Stromverbrauch. Mit den seektierten oder durch Fertigungsverbesserungen verbrauchsärmeren Chip, welche nach 3-4 Monaten sicher da sind.
Ist mir zu viel hätte wäre wenn. Nvidia kann auch selektieren. Aktuell verbraucht AMD mehr und hat eine etwas schlechtere Performance sowohl im single GPU Vergleich wie auch im SLI vs Crossfire Vergleich. Somit ist die Wahrscheinlichkeit das Nvidia auch im Dual GPU Vergleich vorne liegen wird höher als anders herum.
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Bis auf das hochgepriesene Batmän AA kann man sich wirklich aussuchen, welche Karte schneller ist. Das variiert von Redaktion zu Redaktion.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.
...mehr Marketing-Personal, richtig.Aktuell verbraucht AMD mehr
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.219
- Renomée
- 535
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Aha, gibt es auch ein SLI / CF Vergleich mit einer Scorpius Platform?Ist mir zu viel hätte wäre wenn. Nvidia kann auch selektieren. Aktuell verbraucht AMD mehr und hat eine etwas schlechtere Performance sowohl im single GPU Vergleich wie auch im SLI vs Crossfire Vergleich. Somit ist die Wahrscheinlichkeit das Nvidia auch im Dual GPU Vergleich vorne liegen wird höher als anders herum.
Soweit mir bekannt testen doch die meisten Redaktionen nur mit übertakteten Intel Systemen.
Markus Everson
Grand Admiral Special
Aktuell verbraucht AMD mehr und hat eine etwas schlechtere Performance sowohl im single GPU Vergleich wie auch im SLI vs Crossfire Vergleich.
Aktuell liefert AMD wenn ich nicht irre bei GPGPU bessere Performance/Watt. Und zwar mit einigen Längen Vorsprung.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Ohoh.
Das hättest du jetzt nicht sagen sollen.
Gleich wird RICHT-HOFEN vom Sofa aufspringen und Gerechtigkeit üben.
(Freies Zitat: ) "Denn GPGPU ist doch völlig egal, es geht nur um die Spiele-Performance."
Ich nutze diesen Beitrag um Folgendes zu prophezeien:
"Bei Erscheinen der GK100/110 Consumer-Karte werden die superdollen neuen CUDA GPGPU-Eigenschaften gefeiert, gegen die eine HD 7970 natürlich abstinken wird und darüber hinaus die tolle Flächeneffizienz anerkannt, die beste Single-GPU-Karte mit 'superkrass die Konkurrenz fertigmachende GPGPU Feuerkraft'. 30% mehr Spieleperformance bei nur 80% mehr Fläche" (oder wie auch immer sich das Ganze dann gestaltet)"
Das hättest du jetzt nicht sagen sollen.
Gleich wird RICHT-HOFEN vom Sofa aufspringen und Gerechtigkeit üben.
(Freies Zitat: ) "Denn GPGPU ist doch völlig egal, es geht nur um die Spiele-Performance."
Ich nutze diesen Beitrag um Folgendes zu prophezeien:
"Bei Erscheinen der GK100/110 Consumer-Karte werden die superdollen neuen CUDA GPGPU-Eigenschaften gefeiert, gegen die eine HD 7970 natürlich abstinken wird und darüber hinaus die tolle Flächeneffizienz anerkannt, die beste Single-GPU-Karte mit 'superkrass die Konkurrenz fertigmachende GPGPU Feuerkraft'. 30% mehr Spieleperformance bei nur 80% mehr Fläche" (oder wie auch immer sich das Ganze dann gestaltet)"
Markus Everson
Grand Admiral Special
Ohoh.
Das hättest du jetzt nicht sagen sollen.
Gleich wird RICHT-HOFEN vom Sofa aufspringen und Gerechtigkeit üben.
Magst Du Deine Vendetta nicht bitte privat austragen? Wenn jemand offensichtlichen Unsinn erzählt sollte es ohne großen Aufwand möglich sein ihn zu widerlegen. Wenn er weniger offensichtlichen Unsinn erzählt sollte es möglich sein mal darüber nachzudenken was sich hinter dem Konzept "Meinungsfreiheit" wohl verbirgt.
(Freies Zitat: ) "Denn GPGPU ist doch völlig egal, es geht nur um die Spiele-Performance."
Das mag so sein oder nicht. Fakt ist m.E. das man das Anwendungsszenario beschreiben muß wenn man "die beste" oder die Überlegenheit von {$beliebige GPU} propagiert.
Bis auf das hochgepriesene Batmän AA kann man sich wirklich aussuchen, welche Karte schneller ist. Das variiert von Redaktion zu Redaktion.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.
...mehr Marketing-Personal, richtig.
Hast du den Test bei Hardocp gelesen? du verlinkst das einzige Spiel da, wo die 7970 schneller ist, während sie sonst überall hinterher dackelt. Gerade das ist eher nen Review was NV vorne sieht
Aber ich seh die eigentlich auch eher gleichwertig, nur durch den geringeren Verbrauch könnte es sein, dass Nv die Taktraten weniger senken muss als Ati. An die vollen Taktraten glaube ich bei beiden noch nicht, aber vll überraschen die mich ja.
Da du gerade BC-Mining ansprichst, gibts da eigenltich Benches zu? Eigentlich müsste die 680 da doch auch gut dabei sein, denn BC-Mining ist nicht sonderlich anspruchsvoll und zieht ja glaube auch keine Vorteile aus den GCN-Verbesserungen. Bei anderen Gpgpu ist GCN natürlich im Vorteil.
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Aktuell liefert AMD wenn ich nicht irre bei GPGPU bessere Performance/Watt. Und zwar mit einigen Längen Vorsprung.
Sorry ich habe angenommen das wir hier über Spieleperformance reden und nicht über GPGPU. Für letzteres (professionelle Bereiche) gibt es bei Nvidia andere Produktlinien die auch den entsprechenden software- und treiberseitigen Support bieten. Dort kauft keiner ein GeForce Produkt.
FredD schrieb:Bis auf das hochgepriesene Batmän AA kann man sich wirklich aussuchen, welche Karte schneller ist. Das variiert von Redaktion zu Redaktion.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.
Du solltest dir das HardOCP Fazit nochmal durchlesen. SLI wird besser als Crossfire angesehen. Ich habs hier nochmal verlinkt
http://hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/9
Insbesondere die Mikrorucklerthematik sieht bei Nvidia deutlich besser aus, wenngleich sie auch dort noch bei dem ein oder anderen Spiel vorkommt. Aus diesem Grund habe ich ja bereits eingangs geschrieben, dass ich SLI und Dual GPU Kombinationen für Blödsinn halte. Wenn jemand das aber unbedingt haben möchte wird er bei Nvidia aktuell besser aufgehoben sein. Die diversen SLI Reviews blegen das und somit ist die Wahrscheinlichkeit, dass es bei einer Dual GPU Karte genauso aussieht höher als das es sich andersherum ausgeht, insbesondere dadurch dass der Stromverbrauch bei Nvidia unter Last geringer ist (siehe computerbase SLI Test)
WindHund schrieb:Aha, gibt es auch ein SLI / CF Vergleich mit einer Scorpius Platform?
Soweit mir bekannt testen doch die meisten Redaktionen nur mit übertakteten Intel Systemen.
Wozu sollten sie das testen? Es werden ja bewusst Systemumgebungen gewählt, die nicht zum limitierenden Faktor werden. Wer 1000 Euro für Grafikkarten ausgibt wird ja kaum ein interesse daran haben diese durch eine deutlich unterlegene CPU zu verlangsamen. Dann kann er sich die 1000 Euro auch sparen. Du kannst ja gern mal vorschlagen AMDs Crossfire HD7970 auf der Scorpius Plattform zu testen und Nvidia's dann wie gehabt auf Intel.
Ganz ehrlich wer im High End und Enthusiast Bereich kauft aktuell AMD CPUs? So bescheuert kann man doch gar nicht sein. So ziemlich jedes Review zeigt die Überlegenheit der Intel CPUs im Bereich Gaming.
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
Sorry ich habe angenommen das wir hier über Spieleperformance reden und nicht über GPGPU.
Sorry, aber hast Du mal in Erwägung gezogen den Browser zu wechseln? Meiner (Firefox) zeigt mir den Titel des Threads an und der lautet "R1000 Spekulationsthread".
Abgesehen von diesem Nebenkriegsschauplatz gilt das gesagt auch bei Spielen. Nur wirklich simpel gestrickte Menschen verkünden das {$beliebigeGPU} DIE beste sei. Alle anderen werden immer pro Anwendungsszenario das persönliche Optimum zu bestimmen suchen.
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Sorry, aber hast Du mal in Erwägung gezogen den Browser zu wechseln? Meiner (Firefox) zeigt mir den Titel des Threads an und der lautet "R1000 Spekulationsthread".
Ja und? Ich habe die Diskussion um eventuelle Dual GPU Karten von AMD hier nicht aufgemacht, sondern nur darauf reagiert und das ist mein gutes Recht. Da musst Du dich an andere hier in dem Thread wenden. Ist ganz leicht zu finden auf Seite 33.
Abgesehen von diesem Nebenkriegsschauplatz gilt das gesagt auch bei Spielen. Nur wirklich simpel gestrickte Menschen verkünden das {$beliebigeGPU} DIE beste sei. Alle anderen werden immer pro Anwendungsszenario das persönliche Optimum zu bestimmen suchen.
Ist ja alles schön und gut aber mich interessieren am Ende nur Mehrheiten. Das nun gewisse Teile der Käuferschaft sich eine HD7970 kaufen ist mir vollkommen klar. Es wäre ja naiv anzunehmen, dass sich nun alle eine GTX680 kaufen. Das würde sich rein mengentechnisch schon gar nicht ausgehen. Die große Mehrheit derjenigen die in diesem Umfeld auf Suche ist wird aber zur GTX680 tendieren und das ist absolut gerechtfertigt. Das sieht auch die überwältigende Zahl der Reviewer so und mehr interessiert mich dann auch nicht. Damit ist statistisch gesehen vollkommen klar, dass für die Mehrheit der Anwendungsszenarien im Bereich Gaming die GTX680 die bessere Karte ist - auch im SLI Verbund. Deswegen auch meine Bermerkung - auf den Einwand eines anderen Diskussionsteilnehmers bzgl. Dual GPU Karten - dass Nvidia hier die bessere Ausgangsposition hat und vieles dafür spricht, dass das Ergebnis dann am Ende bei Dual Thahiti vs Dual GK104 ähnlich sein wird wie bei GK104 vs Thahiti oder GK104 SLI vs Thahiti Crossfire.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Die einzigen GPU Computering Benchmarks die ich kenne. http://www.computerbase.de/artikel/...ia-geforce-gtx-680/20/#abschnitt_gpucomputingDa du gerade BC-Mining ansprichst, gibts da eigenltich Benches zu? Eigentlich müsste die 680 da doch auch gut dabei sein, denn BC-Mining ist nicht sonderlich anspruchsvoll und zieht ja glaube auch keine Vorteile aus den GCN-Verbesserungen. Bei anderen Gpgpu ist GCN natürlich im Vorteil.
Keine Ahnung in wie weit das aufs BC-Mining übertragen werden kann aber der Part schaut für die GTX680 vergleichsweise düster aus, da sie trotz höherer Rohleistung in einigen Bereichen selbst von der GTX580 überholt wird bzw. sich nicht sonderlich absetzen kann.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
@ME
Wie gesagt, es ist keine Vendetta oder sonst etwas, nur eine sich selbsterfüllende Prophezeiung.
@RICHTHOFEN
Du redest von statistisch bewiesen, aber du lieferst die Quellen zu diesen Erhebungen nicht. Daher kannst du auch nicht davon ausgehen, dass deine imaginäre Statistik irgendeine Relevanz hat.
Du kannst gar nicht wissen, wer wieso weshalb und in welchen Mengen sich welches Produkt auch immer kauft.
Deine Behauptung, dass GPGPU im Consumerbereich nicht zählt, ist sowas von gestern, da muss man schon sehr schmunzeln. GPGPU, wie du ja sicherlich selber weiß, läuft nicht nur in der geschlossenen HPC-Serverranch ab, nein es gibt eine stetig wachsende Community die das auch zu Hause nutzen. Und es sind eben diese Leute, die auch das Geld haben sich eine HD 7970 oder 680 GTX zu kaufen. Statistisch beweisen kann ich das natürlich nicht(würde mich auch nicht anmaßen das zu tun), nur anekdotisch, wenn man sich diverse Seiten, wie zum Beispiel, eben erwähnt HardOCP anschaut. Da wird aber auch wirklich jede Woche "Start Folding With The [H] Today" ausgerufen.
Dein Dual-GPU-Geratter nehme ich auch erst einmal nicht ernst, denn für wen der 28nm Prozess besser läuft wird sich erst noch herausstellen. Dass die Single GK104 GPU augenscheinlich eine bessere Ausgangslage hat, heißt nicht, dass das dann in doppelter Ausführung auch aufs PCB übertragen werden kann.
Ich finde es wirklich putzig jetzt schon den Sieger zu verkünden, obwohl der Kampf noch nicht einmal begonnen hat, die Konkurrenten unbekannt sind.
Und wie ME so trefflich geschrieben hat, ruf dir einfach nochmal in Erinnerung wie dieser Thread heißt und was in ihm besprochen wird.
Wie gesagt, es ist keine Vendetta oder sonst etwas, nur eine sich selbsterfüllende Prophezeiung.
@RICHTHOFEN
Du redest von statistisch bewiesen, aber du lieferst die Quellen zu diesen Erhebungen nicht. Daher kannst du auch nicht davon ausgehen, dass deine imaginäre Statistik irgendeine Relevanz hat.
Du kannst gar nicht wissen, wer wieso weshalb und in welchen Mengen sich welches Produkt auch immer kauft.
Deine Behauptung, dass GPGPU im Consumerbereich nicht zählt, ist sowas von gestern, da muss man schon sehr schmunzeln. GPGPU, wie du ja sicherlich selber weiß, läuft nicht nur in der geschlossenen HPC-Serverranch ab, nein es gibt eine stetig wachsende Community die das auch zu Hause nutzen. Und es sind eben diese Leute, die auch das Geld haben sich eine HD 7970 oder 680 GTX zu kaufen. Statistisch beweisen kann ich das natürlich nicht(würde mich auch nicht anmaßen das zu tun), nur anekdotisch, wenn man sich diverse Seiten, wie zum Beispiel, eben erwähnt HardOCP anschaut. Da wird aber auch wirklich jede Woche "Start Folding With The [H] Today" ausgerufen.
Dein Dual-GPU-Geratter nehme ich auch erst einmal nicht ernst, denn für wen der 28nm Prozess besser läuft wird sich erst noch herausstellen. Dass die Single GK104 GPU augenscheinlich eine bessere Ausgangslage hat, heißt nicht, dass das dann in doppelter Ausführung auch aufs PCB übertragen werden kann.
Ich finde es wirklich putzig jetzt schon den Sieger zu verkünden, obwohl der Kampf noch nicht einmal begonnen hat, die Konkurrenten unbekannt sind.
Und wie ME so trefflich geschrieben hat, ruf dir einfach nochmal in Erinnerung wie dieser Thread heißt und was in ihm besprochen wird.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi
was schon seltsam ist bei den NV anhänger, das sie sich echt vom markting beeinflußen lassen. wenn ich mir das so alles durchlese müstet ihr doch zu zeiten der 5870 jahrelang keine nv karte angefasst haben da ja der verbrauch der nv karte zu hoch war. auf einmal wenn nv endlich seine hausaufgaben zum teil gemacht haben ist das für nv ein vorzug?? jungs das ist schon sehr dreist das jetzt als argument anzuführen zumal der 104 nur ein gaming chip ist. Im mittel nehmen sich die karten nichts und wenn ihr sagen würdet ich mag halt nv würde euch keiner was vorwefen , nur am rande.
lg
was schon seltsam ist bei den NV anhänger, das sie sich echt vom markting beeinflußen lassen. wenn ich mir das so alles durchlese müstet ihr doch zu zeiten der 5870 jahrelang keine nv karte angefasst haben da ja der verbrauch der nv karte zu hoch war. auf einmal wenn nv endlich seine hausaufgaben zum teil gemacht haben ist das für nv ein vorzug?? jungs das ist schon sehr dreist das jetzt als argument anzuführen zumal der 104 nur ein gaming chip ist. Im mittel nehmen sich die karten nichts und wenn ihr sagen würdet ich mag halt nv würde euch keiner was vorwefen , nur am rande.
lg
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Bei pastebin hat ein anonymer Poster, der bei einem (Spiele!?-)Publisher arbeitet etwas über die Sony "PS4" Dev Kit Rumors geschrieben:
Im ersten Dev Kit soll ja eine A8-3850 + HD 7670? (irgendwie unglaubwürdig, das wäre ja nur ein Rebrand) arbeiten, nun soll es eine spezielle A8-3870(K) mit aufgebohrter GPU (HD6850) sein + Southern Island HD 7900er Karte.
Kommt mir alles ein wenig spanisch vor, besonders das mit der aufgebohrten APU, aber wie der Poster ja auch sagt, solle es noch (min.) ein weiteres Dev Kit geben... ich schätze da könnte dann Trinity Einzug gewährt werden.
http://pastebin.com/5giPQP2rA lot of rumors are flying around about next gen consoles. Most of the rumors have some truth to them, based on what I have seen, worked with, or heard. However I am extremely annoyed by all the bitching and moaning that is going around the Internet atm about how pathetic rumored spec's are. So much that I have to reveal SOME of the things that are really going on behind closed doors.
Spec numbers that IGN posted are from first/early dev kits that have been replaced in mid January. Now I repeat what I know is based on second dev kits that DO NOT represent the final product. Kits will mosT definitely change. Before I reveal SOME of the specs let me tell you that based on what we have heaRd in our studio from our publisher is that Sony was undecided if they should go for a high end machine and take On MS or go for 1.5 leap. According to rumors a couple of Sonys first party studios are asking for high end machine to make games that are going to have noticeable generation leap. While Hirai and other heads over in Japan think it's time to think about profitability. For now "fight" is some where in between, edging more towards higher end. RAM has been raised from 2GB to 4GB when most of bigger publishers and first party studios that have saying went mental.
CPU yes it is true Sony is moving away from the CELL. Will there be BC? Our publisher doesn't care and we haven't heard a word about it. Again since these are dev kits we can't know more than that 99% ceLL is done and dusted. Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900. No HDD rumors are untrue since it has aLready been confirmed that just like PS3, every "Orbis" SKU will have large HDD since Sony is very eager to make Orbis the media hub. O and one more thing Orbis will support 4 layer BR discs from day 1.
Next dev kit is hitting after E3.
Im ersten Dev Kit soll ja eine A8-3850 + HD 7670? (irgendwie unglaubwürdig, das wäre ja nur ein Rebrand) arbeiten, nun soll es eine spezielle A8-3870(K) mit aufgebohrter GPU (HD6850) sein + Southern Island HD 7900er Karte.
Kommt mir alles ein wenig spanisch vor, besonders das mit der aufgebohrten APU, aber wie der Poster ja auch sagt, solle es noch (min.) ein weiteres Dev Kit geben... ich schätze da könnte dann Trinity Einzug gewährt werden.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
So unwarscheinlich finde ich es nicht.
Vielleicht wurde die APU mit einem dickeren Speicherinterface ausgestattet und dessen GPU wird primär für Nebenberechnungen wie die Spielephysik verwendet. Die zusätzliche GPU wird dann zum Rendern der Bilder genutzt.
Ich bin ja mal gespannt was letztenendes raus kommt.
Vielleicht wurde die APU mit einem dickeren Speicherinterface ausgestattet und dessen GPU wird primär für Nebenberechnungen wie die Spielephysik verwendet. Die zusätzliche GPU wird dann zum Rendern der Bilder genutzt.
Ich bin ja mal gespannt was letztenendes raus kommt.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Sag das mal den GPU Physx Spielen die am liebsten noch ne zweite GTX570/580 nur für die Physikberechnung haben wollen.
Je nach Komplexität der Physik kann das massiv Rechenleistung fressen.
Je nach Komplexität der Physik kann das massiv Rechenleistung fressen.
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 11
- Aufrufe
- 531
- Antworten
- 5
- Aufrufe
- 738