R1000 Spekulationsthread

Welche Generation?


Ich (und TPU) spreche von 2xTahiti(PRO oder XT?), Codename New Zealand, vs. 2x GK104 also dem Chip der in der 680 GTX verbaut ist.

Das ist keine neue Generation bloß aktuelle Generation mal 2 auf einem Board.


Später kommt dann noch von Nvidia GK100, bzw. laut Gemunkel GK110, das ist dann der "eigentliche" Nachfolger der 580 GTX mit voller GPGPU-Austattung, die wird dann wahrscheinlich als Single-Karte verkauft... die Frage ist nur wann? Denn ein paar Rechenzentren warten auf eben diesen Chip, daher wird ja auch getuschelt, dass das Teil dann z.B. schon auf den Namen 780 GTX hören könnte und daher wohl erst im nächsten Jahr retail auftauchen könnte.


edit: btw.

Es ist definitiv Fake:

http://www.techpowerup.com/163386/A...firmed-in-GPU-Z-Screenshot.html?cp=3#comments

Relativ weit unten hat der Redakteur (editor in chief?) der Seite bzw. des Artikels "btarunr" ein paar screenshots gepostet wer alles diese "News" wiedergekäut hat.
 
Zuletzt bearbeitet:
Ist im Endeffekt sowieso egal. Da GK104 bei der TDP unterhalb von Thahiti liegt, diesen aber schlagen kann, ist die Wahrscheinlichkeit groß, dass das auch bei der Dual Version so sein wird. Davon mal abgesehen sind Dual Karten ohnehin unsinnig auf Grund der Microruckler Thematik etc.
 
Tahiti wurde aber Monate vor GK104 auf den Markt gebracht, weshalb man spekulieren könnte, dass damals die Spezifikationen des Prozesses noch schlechter waren, als bei GK104 und somit auch ein heutiger Tahiti weniger Spannung benötigen könnte, was unterm Strich in einer geringeren Leistungsaufnahme resultieren sollte.
Also muss man nicht zwangsweise von den frühen Tahitis auf die zukünftigen "New Zealands" schließen können.
 
Ist im Endeffekt sowieso egal. Da GK104 bei der TDP unterhalb von Thahiti liegt, diesen aber schlagen kann, ist die Wahrscheinlichkeit groß, dass das auch bei der Dual Version so sein wird.

Naja, wenn man sich die SLI Benchs ansieht vs Crossfire dann werden sie sich wie bei hoher Auflösung nicht viel nehmen, bei gleichem Stromverbrauch. Mit den seektierten oder durch Fertigungsverbesserungen verbrauchsärmeren Chip, welche nach 3-4 Monaten sicher da sind.
 
Ist im Endeffekt sowieso egal. Da GK104 bei der TDP unterhalb von Thahiti liegt, diesen aber schlagen kann, ist die Wahrscheinlichkeit groß, dass das auch bei der Dual Version so sein wird. Davon mal abgesehen sind Dual Karten ohnehin unsinnig auf Grund der Microruckler Thematik etc.
Die Unterschiede bezüglich Performance pro Watt sind doch marginal. Dass GK104 hier leicht vorne liegt, liegt einfach daran, dass Nvidia ein Quartal länger Zeit hatte für Optimierungen. Verbesserungen beim Prozess von TSMC tun da sicherlich ihr Übriges. Hätte sich AMD auch so lange Zeit gelassen, würde der GK104 wohl weniger gut dastehen. Vor allem, da er anscheinend mit weniger Takt geplant war. Und ähnlich schwierig dürfte das für Nvidia für das Dual-GPU Modell ausschauen. Da wird AMD sicherlich ein ordentliches Brett bringen. Und Microruckler bleiben subjektiv. Die einen stört es, die anderen nicht. Hier von unsinnig zu sprechen, ist einfach falsch. Und bezüglich GPGPU sind Microruckler eh irrelevant.
 
Die Unterschiede bezüglich Performance pro Watt sind doch marginal. Dass GK104 hier leicht vorne liegt, liegt einfach daran, dass Nvidia ein Quartal länger Zeit hatte für Optimierungen.
Das liegt m.E. nach vielmehr an den für GPGPU verbauten Transistoren in Tahiti, welcher schließlich noch im Pro-Segment herhalten soll. Interessant wird dann der Vergleich mit GK110 bezüglich Spiele-Performance pro Watt.

EDIT:
Den Leuten von der orangenen Spielwiese ist das übrigens auch irgendwie aufgefallen: 3DZentner über Packdichte aktueller GPUs
 
Zuletzt bearbeitet:
Das liegt m.E. nach vielmehr an den für GPGPU verbauten Transistoren in Tahiti, welcher schließlich noch im Pro-Segment herhalten soll.
Sicherlich, das kommt auch noch hinzu.
 
Naja, wenn man sich die SLI Benchs ansieht vs Crossfire dann werden sie sich wie bei hoher Auflösung nicht viel nehmen, bei gleichem Stromverbrauch. Mit den seektierten oder durch Fertigungsverbesserungen verbrauchsärmeren Chip, welche nach 3-4 Monaten sicher da sind.

Ist mir zu viel hätte wäre wenn. Nvidia kann auch selektieren. Aktuell verbraucht AMD mehr und hat eine etwas schlechtere Performance sowohl im single GPU Vergleich wie auch im SLI vs Crossfire Vergleich. Somit ist die Wahrscheinlichkeit das Nvidia auch im Dual GPU Vergleich vorne liegen wird höher als anders herum.
 
Bis auf das hochgepriesene Batmän AA kann man sich wirklich aussuchen, welche Karte schneller ist. Das variiert von Redaktion zu Redaktion.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.
Aktuell verbraucht AMD mehr
...mehr Marketing-Personal, richtig.
 
Ist mir zu viel hätte wäre wenn. Nvidia kann auch selektieren. Aktuell verbraucht AMD mehr und hat eine etwas schlechtere Performance sowohl im single GPU Vergleich wie auch im SLI vs Crossfire Vergleich. Somit ist die Wahrscheinlichkeit das Nvidia auch im Dual GPU Vergleich vorne liegen wird höher als anders herum.
Aha, gibt es auch ein SLI / CF Vergleich mit einer Scorpius Platform?
Soweit mir bekannt testen doch die meisten Redaktionen nur mit übertakteten Intel Systemen. *suspect*
 
Ohoh.


Das hättest du jetzt nicht sagen sollen.

Gleich wird RICHT-HOFEN vom Sofa aufspringen und Gerechtigkeit üben.


(Freies Zitat: ) "Denn GPGPU ist doch völlig egal, es geht nur um die Spiele-Performance."


Ich nutze diesen Beitrag um Folgendes zu prophezeien:

"Bei Erscheinen der GK100/110 Consumer-Karte werden die superdollen neuen CUDA GPGPU-Eigenschaften gefeiert, gegen die eine HD 7970 natürlich abstinken wird und darüber hinaus die tolle Flächeneffizienz anerkannt, die beste Single-GPU-Karte mit 'superkrass die Konkurrenz fertigmachende GPGPU Feuerkraft'. 30% mehr Spieleperformance bei nur 80% mehr Fläche" (oder wie auch immer sich das Ganze dann gestaltet)"
 
Ohoh.

Das hättest du jetzt nicht sagen sollen.

Gleich wird RICHT-HOFEN vom Sofa aufspringen und Gerechtigkeit üben.

Magst Du Deine Vendetta nicht bitte privat austragen? Wenn jemand offensichtlichen Unsinn erzählt sollte es ohne großen Aufwand möglich sein ihn zu widerlegen. Wenn er weniger offensichtlichen Unsinn erzählt sollte es möglich sein mal darüber nachzudenken was sich hinter dem Konzept "Meinungsfreiheit" wohl verbirgt.

(Freies Zitat: ) "Denn GPGPU ist doch völlig egal, es geht nur um die Spiele-Performance."

Das mag so sein oder nicht. Fakt ist m.E. das man das Anwendungsszenario beschreiben muß wenn man "die beste" oder die Überlegenheit von {$beliebige GPU} propagiert.
 
Ist doch schön das man die Wahl hat ein Produkt mit mehr GPGPU-Leistung oder Spieleleistung zu kaufen, fast so toll wie Meinungsfreiheit ;-)
 
Bis auf das hochgepriesene Batmän AA kann man sich wirklich aussuchen, welche Karte schneller ist. Das variiert von Redaktion zu Redaktion.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.

...mehr Marketing-Personal, richtig.

Hast du den Test bei Hardocp gelesen? du verlinkst das einzige Spiel da, wo die 7970 schneller ist, während sie sonst überall hinterher dackelt. Gerade das ist eher nen Review was NV vorne sieht;)
Aber ich seh die eigentlich auch eher gleichwertig, nur durch den geringeren Verbrauch könnte es sein, dass Nv die Taktraten weniger senken muss als Ati. An die vollen Taktraten glaube ich bei beiden noch nicht, aber vll überraschen die mich ja.

Da du gerade BC-Mining ansprichst, gibts da eigenltich Benches zu? Eigentlich müsste die 680 da doch auch gut dabei sein, denn BC-Mining ist nicht sonderlich anspruchsvoll und zieht ja glaube auch keine Vorteile aus den GCN-Verbesserungen. Bei anderen Gpgpu ist GCN natürlich im Vorteil.
 
Aktuell liefert AMD wenn ich nicht irre bei GPGPU bessere Performance/Watt. Und zwar mit einigen Längen Vorsprung.

Sorry ich habe angenommen das wir hier über Spieleperformance reden und nicht über GPGPU. Für letzteres (professionelle Bereiche) gibt es bei Nvidia andere Produktlinien die auch den entsprechenden software- und treiberseitigen Support bieten. Dort kauft keiner ein GeForce Produkt.

FredD schrieb:
Bis auf das hochgepriesene Batmän AA kann man sich wirklich aussuchen, welche Karte schneller ist. Das variiert von Redaktion zu Redaktion.
Bei hardocp z.B. dackelt die GTX 680 im SLI stets ein wenig hinterher.
Daneben wird eine HD7990 eben auch für BC mining und ähnliche GPGPU Späße interessant. Also der Einsatzbereich, in dem dann irgendwann GK110 antreten wird.

Du solltest dir das HardOCP Fazit nochmal durchlesen. SLI wird besser als Crossfire angesehen. Ich habs hier nochmal verlinkt
http://hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review/9

Insbesondere die Mikrorucklerthematik sieht bei Nvidia deutlich besser aus, wenngleich sie auch dort noch bei dem ein oder anderen Spiel vorkommt. Aus diesem Grund habe ich ja bereits eingangs geschrieben, dass ich SLI und Dual GPU Kombinationen für Blödsinn halte. Wenn jemand das aber unbedingt haben möchte wird er bei Nvidia aktuell besser aufgehoben sein. Die diversen SLI Reviews blegen das und somit ist die Wahrscheinlichkeit, dass es bei einer Dual GPU Karte genauso aussieht höher als das es sich andersherum ausgeht, insbesondere dadurch dass der Stromverbrauch bei Nvidia unter Last geringer ist (siehe computerbase SLI Test)

WindHund schrieb:
Aha, gibt es auch ein SLI / CF Vergleich mit einer Scorpius Platform?
Soweit mir bekannt testen doch die meisten Redaktionen nur mit übertakteten Intel Systemen.

Wozu sollten sie das testen? Es werden ja bewusst Systemumgebungen gewählt, die nicht zum limitierenden Faktor werden. Wer 1000 Euro für Grafikkarten ausgibt wird ja kaum ein interesse daran haben diese durch eine deutlich unterlegene CPU zu verlangsamen. Dann kann er sich die 1000 Euro auch sparen. Du kannst ja gern mal vorschlagen AMDs Crossfire HD7970 auf der Scorpius Plattform zu testen und Nvidia's dann wie gehabt auf Intel.

Ganz ehrlich wer im High End und Enthusiast Bereich kauft aktuell AMD CPUs? So bescheuert kann man doch gar nicht sein. So ziemlich jedes Review zeigt die Überlegenheit der Intel CPUs im Bereich Gaming.
 
Zuletzt bearbeitet:
Sorry ich habe angenommen das wir hier über Spieleperformance reden und nicht über GPGPU.

Sorry, aber hast Du mal in Erwägung gezogen den Browser zu wechseln? Meiner (Firefox) zeigt mir den Titel des Threads an und der lautet "R1000 Spekulationsthread".

Abgesehen von diesem Nebenkriegsschauplatz gilt das gesagt auch bei Spielen. Nur wirklich simpel gestrickte Menschen verkünden das {$beliebigeGPU} DIE beste sei. Alle anderen werden immer pro Anwendungsszenario das persönliche Optimum zu bestimmen suchen.
 
Sorry, aber hast Du mal in Erwägung gezogen den Browser zu wechseln? Meiner (Firefox) zeigt mir den Titel des Threads an und der lautet "R1000 Spekulationsthread".

Ja und? Ich habe die Diskussion um eventuelle Dual GPU Karten von AMD hier nicht aufgemacht, sondern nur darauf reagiert und das ist mein gutes Recht. Da musst Du dich an andere hier in dem Thread wenden. Ist ganz leicht zu finden auf Seite 33.

Abgesehen von diesem Nebenkriegsschauplatz gilt das gesagt auch bei Spielen. Nur wirklich simpel gestrickte Menschen verkünden das {$beliebigeGPU} DIE beste sei. Alle anderen werden immer pro Anwendungsszenario das persönliche Optimum zu bestimmen suchen.

Ist ja alles schön und gut aber mich interessieren am Ende nur Mehrheiten. Das nun gewisse Teile der Käuferschaft sich eine HD7970 kaufen ist mir vollkommen klar. Es wäre ja naiv anzunehmen, dass sich nun alle eine GTX680 kaufen. Das würde sich rein mengentechnisch schon gar nicht ausgehen. Die große Mehrheit derjenigen die in diesem Umfeld auf Suche ist wird aber zur GTX680 tendieren und das ist absolut gerechtfertigt. Das sieht auch die überwältigende Zahl der Reviewer so und mehr interessiert mich dann auch nicht. Damit ist statistisch gesehen vollkommen klar, dass für die Mehrheit der Anwendungsszenarien im Bereich Gaming die GTX680 die bessere Karte ist - auch im SLI Verbund. Deswegen auch meine Bermerkung - auf den Einwand eines anderen Diskussionsteilnehmers bzgl. Dual GPU Karten - dass Nvidia hier die bessere Ausgangsposition hat und vieles dafür spricht, dass das Ergebnis dann am Ende bei Dual Thahiti vs Dual GK104 ähnlich sein wird wie bei GK104 vs Thahiti oder GK104 SLI vs Thahiti Crossfire.
 
Zuletzt bearbeitet:
Da du gerade BC-Mining ansprichst, gibts da eigenltich Benches zu? Eigentlich müsste die 680 da doch auch gut dabei sein, denn BC-Mining ist nicht sonderlich anspruchsvoll und zieht ja glaube auch keine Vorteile aus den GCN-Verbesserungen. Bei anderen Gpgpu ist GCN natürlich im Vorteil.
Die einzigen GPU Computering Benchmarks die ich kenne. http://www.computerbase.de/artikel/...ia-geforce-gtx-680/20/#abschnitt_gpucomputing
Keine Ahnung in wie weit das aufs BC-Mining übertragen werden kann aber der Part schaut für die GTX680 vergleichsweise düster aus, da sie trotz höherer Rohleistung in einigen Bereichen selbst von der GTX580 überholt wird bzw. sich nicht sonderlich absetzen kann. *noahnung*
 
@ME

Wie gesagt, es ist keine Vendetta oder sonst etwas, nur eine sich selbsterfüllende Prophezeiung.

@RICHTHOFEN

Du redest von statistisch bewiesen, aber du lieferst die Quellen zu diesen Erhebungen nicht. Daher kannst du auch nicht davon ausgehen, dass deine imaginäre Statistik irgendeine Relevanz hat.

Du kannst gar nicht wissen, wer wieso weshalb und in welchen Mengen sich welches Produkt auch immer kauft.

Deine Behauptung, dass GPGPU im Consumerbereich nicht zählt, ist sowas von gestern, da muss man schon sehr schmunzeln. GPGPU, wie du ja sicherlich selber weiß, läuft nicht nur in der geschlossenen HPC-Serverranch ab, nein es gibt eine stetig wachsende Community die das auch zu Hause nutzen. Und es sind eben diese Leute, die auch das Geld haben sich eine HD 7970 oder 680 GTX zu kaufen. Statistisch beweisen kann ich das natürlich nicht(würde mich auch nicht anmaßen das zu tun), nur anekdotisch, wenn man sich diverse Seiten, wie zum Beispiel, eben erwähnt HardOCP anschaut. Da wird aber auch wirklich jede Woche "Start Folding With The [H] Today" ausgerufen.

Dein Dual-GPU-Geratter nehme ich auch erst einmal nicht ernst, denn für wen der 28nm Prozess besser läuft wird sich erst noch herausstellen. Dass die Single GK104 GPU augenscheinlich eine bessere Ausgangslage hat, heißt nicht, dass das dann in doppelter Ausführung auch aufs PCB übertragen werden kann.

Ich finde es wirklich putzig jetzt schon den Sieger zu verkünden, obwohl der Kampf noch nicht einmal begonnen hat, die Konkurrenten unbekannt sind.


Und wie ME so trefflich geschrieben hat, ruf dir einfach nochmal in Erinnerung wie dieser Thread heißt und was in ihm besprochen wird.
 
Hi

was schon seltsam ist bei den NV anhänger, das sie sich echt vom markting beeinflußen lassen. wenn ich mir das so alles durchlese müstet ihr doch zu zeiten der 5870 jahrelang keine nv karte angefasst haben da ja der verbrauch der nv karte zu hoch war. auf einmal wenn nv endlich seine hausaufgaben zum teil gemacht haben ist das für nv ein vorzug?? jungs das ist schon sehr dreist das jetzt als argument anzuführen zumal der 104 nur ein gaming chip ist. Im mittel nehmen sich die karten nichts und wenn ihr sagen würdet ich mag halt nv würde euch keiner was vorwefen , nur am rande.

lg
 
Bei pastebin hat ein anonymer Poster, der bei einem (Spiele!?-)Publisher arbeitet etwas über die Sony "PS4" Dev Kit Rumors geschrieben:

A lot of rumors are flying around about next gen consoles. Most of the rumors have some truth to them, based on what I have seen, worked with, or heard. However I am extremely annoyed by all the bitching and moaning that is going around the Internet atm about how pathetic rumored spec's are. So much that I have to reveal SOME of the things that are really going on behind closed doors.
Spec numbers that IGN posted are from first/early dev kits that have been replaced in mid January. Now I repeat what I know is based on second dev kits that DO NOT represent the final product. Kits will mosT definitely change. Before I reveal SOME of the specs let me tell you that based on what we have heaRd in our studio from our publisher is that Sony was undecided if they should go for a high end machine and take On MS or go for 1.5 leap. According to rumors a couple of Sonys first party studios are asking for high end machine to make games that are going to have noticeable generation leap. While Hirai and other heads over in Japan think it's time to think about profitability. For now "fight" is some where in between, edging more towards higher end. RAM has been raised from 2GB to 4GB when most of bigger publishers and first party studios that have saying went mental.
CPU yes it is true Sony is moving away from the CELL. Will there be BC? Our publisher doesn't care and we haven't heard a word about it. Again since these are dev kits we can't know more than that 99% ceLL is done and dusted. Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900. No HDD rumors are untrue since it has aLready been confirmed that just like PS3, every "Orbis" SKU will have large HDD since Sony is very eager to make Orbis the media hub. O and one more thing Orbis will support 4 layer BR discs from day 1.
Next dev kit is hitting after E3.
http://pastebin.com/5giPQP2r

Im ersten Dev Kit soll ja eine A8-3850 + HD 7670? (irgendwie unglaubwürdig, das wäre ja nur ein Rebrand) arbeiten, nun soll es eine spezielle A8-3870(K) mit aufgebohrter GPU (HD6850) sein + Southern Island HD 7900er Karte.

Kommt mir alles ein wenig spanisch vor, besonders das mit der aufgebohrten APU, aber wie der Poster ja auch sagt, solle es noch (min.) ein weiteres Dev Kit geben... ich schätze da könnte dann Trinity Einzug gewährt werden.
 
So unwarscheinlich finde ich es nicht.
Vielleicht wurde die APU mit einem dickeren Speicherinterface ausgestattet und dessen GPU wird primär für Nebenberechnungen wie die Spielephysik verwendet. Die zusätzliche GPU wird dann zum Rendern der Bilder genutzt.

Ich bin ja mal gespannt was letztenendes raus kommt.
 
Eine 6850 dürfte dafür aber etwas überdimensioniert sein ;)
Da würden die 480Shader von Llano mMn noch dicke reichen.
 
Sag das mal den GPU Physx Spielen die am liebsten noch ne zweite GTX570/580 nur für die Physikberechnung haben wollen. ;)
Je nach Komplexität der Physik kann das massiv Rechenleistung fressen.
 
Zurück
Oben Unten