R1000 Spekulationsthread

Kommt mir alles ein wenig spanisch vor, besonders das mit der aufgebohrten APU, aber wie der Poster ja auch sagt, solle es noch (min.) ein weiteres Dev Kit geben... ich schätze da könnte dann Trinity Einzug gewährt werden.
Wieso spanisch? Er scheribt doch deutlich: "DO NOT represent the final product".

Das sind Entwicklerkisten, die so nah wie möglich am geplanten Endprodukt sind. Im 3DC hat man gemutmaßt, dass eventuell die GPU_Leistung von ~800 Shadern simulieren will (APU+ die kleine GPU addiert). Wahrscheinlich haben sie jetzt gemerkt, dass der Crossfirebetrieb sch...lecht ist, und dafür jetzt ne 6850 eingepflanzt und die GPU der APU wohl abgeschalten. Wie auch immer - mit 28nm könnte man da schon ~800 Shader on-die fertig bringen.
 
Dass die bisher in manchen News genannten Daten maximal für ein frühes Dev-Kit zutreffen können, ist und war die einzige Möglichkeit die Daten überhaupt einigermaßen ernst zu nehmen. Dass diese Spezifikationen mancherorts quasi schon zur finalen Spezifikation der Konsole hochstilisiert wurden - lächerlich.

Aber auch die neuen Spez halte ich persönlich für unwahrscheinlich... Eine mit HD 6850 aufgebohrte APU? Mit genau welchem Zweck? Prinzipiell sollte der CPU-Teil der APU unter Nutzung aller Kerne genug Power haben für alle anstehenden Aufgaben (inkl. Physik), bzw. würde da zusätzlich auch der bisherige GPU-Part reichen.
Zumal das verbrauchstechnisch auch nicht besonders intelligent ist (siehe typischer Verbrauch der 6850) wenn noch eine dedizierte GPU hinzu kommt. Zumal dann noch die Kombination mit einer HD79xx... dann ist das Dev-Kit weder Fisch noch Fleisch.
Man kann so weder auf VLIW noch auf die Unified-Shader optimieren, bzw. muss sich mit den Unterschieden herumschlagen. Auch das kann ich mir beim besten Willen nicht vorstellen, zumal Trinity so kurz vor der Tür steht.

Egal ob es am Ende nur eine einzelne GPU wird (die der APU, dafür ordentlich aufgebohrt Richtung HD 78xx, halte ich für am wahrscheinlichsten) oder doch zwei (APU+dediziert) - es wird mit Sicherheit GCN-only sein.

@Opteron: Ich versteh das so, dass die GPU der APU zur HD6850 aufgebohrt sein soll in dem Dev-Kit plus eine HD 7900 - finde ich etwas viel.
 
Vielleicht dient die APU nur als Ersatz für die Cell Architektur.
Billiger in der Produktion, unproblematischer bei der Programmierung (für Spielehersteller) und zudem noch leistungsfähiger.
Man nimmt also keine Spezialhardware bei der sich eine Optimierung bestenfalls bei Exklusivtiteln lohnt sondern leistungsfähige Massenware.

Wie gesagt...vorstellen kann ich es mir, zumal lt. Gerüchteküche alle 3 Konsolenhersteller ähnliche GPU Architekturen nutzen werden.
 
@Opteron


Nein, er schreibt, es ist eine A8-3870K mit 6850

Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900.

Und genau das macht mich stutzig. Einfach mal so ne "6850" implantieren... is nich. Eine HD 6850 hat eine Die Fläche von 255mm²(!?) ein paar Redundanzen abgeschmirgelt und auf 32nm geshrinkt kommt man, schätze ich, trotzdem nicht auf unter 200mm². Man kann also nicht einfach mal so die GPU switchen. Dazu wird das dann mit einer GCN gepaart... Crossfire halte ich in dieser Konstellation als eine Schnapsidee.


@sompe... ich bin mir relativ sicher, dass Nintendo (laut Gerüchten) keine GCN-Architektur verwenden wird.
 
Ich kenne die aktuelle Form der Gerüchte zwar nicht aber bisher hieß es das alle 3 Konsolenhersteller eine ATI GPU Architekturen nutzen dann blieben noch die VLIW 4 und 5 Architektur als mögliche Kandidaten. Die aufgebohrte Variante der VLIW 5 Architektur steckt in der HD6850. Der Barts Chip hat eine Größe von 255mm², der Chip auf der HD6850 ist allerdings eine Teildeaktivierte Variante davon. Beim Shrink auf 32 oder gar 28nm kann man diese gleich wegrationalisieren und der Chip würde noch deutlicher schrumpfen.
Die VLIW Architektur hat letztendlich einen grundlegenen Vorteil. Man bekommt viel Rechenleistung auf einen sehr engen Raum.
 
Ja nun ist aber VLIW5 noch weiter entfernt von GCN als VLIW4 es eigentlich schon ist, daher bleibt eben meine Skepsis, dass CF ohne weiteres möglich wäre.

Bei der Xbox soll es eigentlich GCN werden, bei der PS4 geht man auch davon aus... die Wii U soll aber nur eine R700 bekommen, konkret wird von einer HD 4870, also RV770XT, gesprochen.

Daher ist es fraglich, was mit diesem Dev Kit bezweckt werden soll, denn das Crossfire wäre schon sehr "asymmetrisch".
 
@Opteron: Ich versteh das so, dass die GPU der APU zur HD6850 aufgebohrt sein soll in dem Dev-Kit plus eine HD 7900 - finde ich etwas viel.
Siehe auch:
@Opteron


Nein, er schreibt, es ist eine A8-3870K mit 6850
Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900.
So ich fette auch mal:
Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board.

Und sags noch deutlich: "On board" ist nicht das gleiche wie "On die".

"On board" meint einfach, dass ne 6850er auf der Platine steckt. Nicht mehr, nicht weniger. Alles andere wäre hanebüchener Unsinn. Klar, für ein paar 100 Dev Kisten, mal schnell ne komplett neue Maske basteln und die produzieren lassen ... :w_vogel:

Bei dem "paired" ist halt die Frage was er sagen will. Rein vom Sinn her, wirds eben ein Kaveri-Derivat, und das hat im GPU-Teil bereits die neuen SI/GNC-Shader. MMn will er das auch sagen. Ne 7900 extra ... neeeee, glaub ich nicht. Wahrscheinlich ist das Zitat schon etwas älter, und die 7900er waren damals die einzige GNC-Karten auf dem Markt, oder er hat den 7800-Start halt nicht mitbekommen.

Beim interpretieren von Gerüchten muss man auch immer den eigenen Verstand einschalten, v.a. wenn jeder nur schlechtes Englisch spricht und schreibt ;-)
 
"on board" heißt aber meist auch einfach nur... "on board".

Will heißen, er meint damit nicht unbedingt das Board bzw. pcb sondern es ist "an Board".

Hier gibt es durchaus Interpretationsspielraum.


edit:

Wikipedia sieht es auch so:

In computing, the term on board often refers to controllers or other devices that are integrated onto a motherboard, used in the metaphoric sense, as well as referring to them being physically on the circuit board
http://en.wikipedia.org/wiki/On_board

Ich gehe aber vom "methaphorically speaking" aus, denn er spricht von der APU die gepaired wird mit einer HD 6850 HD 7900er. Ich fände es sehr umständlich eine APU raufzuzimmern, die GPU abzuschalten, dann eine HD 6850 ranzupflanschen und dazu noch eine HD 7900.
 
Zuletzt bearbeitet:
@deadohiosky
Wie ich oben schon schrieb geht es mir auch nicht um Crossfire, also die GPUs zusammen die Bilder rendern zu lassen, sondern um eine Coexistenz bei der die APU keine Bilder bastelt sondern nur zu rechnen da ist.
 
Hier gibt es durchaus Interpretationsspielraum.
Ne gibts nicht, da ein extra-Die nur für ein paar Dev-Kits absolut 0,0 Sinn machen würden. Das Aufwand/Nutzenverhältnis geht da durch die Decke. Sowas wär wirklich Blödsinn hoch 3.

Du sagt doch selbst, dass Dus unwahrscheinlich fändest, also wo ist das Problem? *noahnung*

Die "metaphorische" Erklärung ist schlicht und ergreifend nicht die richtige.
 
Ich weiß nich, ich weiß nich.

Das geht ganz schön ins Geld und Sony hatte ja schon vor einer Weile durchblicken lassen, wie auch in dem Post beschrieben, diese Subventionierungsgeschichte deutlich einzudämmen. Ich denke fast, dass Sony vllt. doch noch ausgelotet wird ob man bei VLIW5 bleibt oder auf GCN umsteigt und die Entwickler/Publisher mitentscheiden lassen will, womit sie besser zurechtkommen.

Und was soll die on-board;) -GPU dann berechnen? Physik? Da gibt es doch eigentlich nichts, außer PhysX. Der Rest wird ja immer noch auf der CPU berechnet.

Der Einwand "APU als Cell-Ersatz" erschließt sich mir nicht so ganz. Meinst du Emulation. Meinst du als DRM?
 
Ich gehe aber vom "methaphorically speaking" aus, denn er spricht von der APU die gepaired wird mit einer HD 6850 HD 7900er. Ich fände es sehr umständlich eine APU raufzuzimmern, die GPU abzuschalten, dann eine HD 6850 ranzupflanschen und dazu noch eine HD 7900.
Wenn es nur ein Testsystem ist....warum nicht?
Man nehme ein paar Standardkomponenten, simuliere damit die spätere Hardware und kombiniere beim letztendlichen Chip die CPU Kerne des Llanos mit den Recheneinheiten einer 6850.
Wo wäre das Problem im Verkaufsprodukt einen Verschmelzung beider Prozessoren Chips zu verbauen? *noahnung*
.
EDIT :
.

Und was soll die on-board;) -GPU dann berechnen? Physik? Da gibt es doch eigentlich nichts, außer PhysX. Der Rest wird ja immer noch auf der CPU berechnet.

Der Einwand "APU als Cell-Ersatz" erschließt sich mir nicht so ganz. Meinst du Emulation. Meinst du als DRM?
Ich meinte keine Emulation sondern einen Prozessor der mindestens so leistungsfähig ist (lt. Wiki ist der Cell der PS3 beim Videotranscodieren mit einer GTX285 vergleichbar) aber in der Anschaffung billiger und unproblematischer bei der Programmierung ist. Es würde die Programmierung für die Spielehersteller deutlich erleichtern und es würde im allgemeinen mehr Leistung aus der Hardware gequetscht werden.
Soweit ich weiss gibt es mit Bullet auch eine GPU beschleunigte Physikengine. Es ist für PhysX also kein Alleinstellungsmerkmal mehr.
 
Ich denke die haben zuerst ein Dev Kit mit APU + 6850 gemacht und nun das ganze aufgewertet auf den neusten Stand. Also GCN Paarung. Eine Mischung aus aus verschiedenen Techniken kommt warscheinlich nicht in Frage, da die Optimierungen dadurch wieder schwierige werden.

Aber am warscheinlichsten wird die Konsole nur aus einer APU bestehen.
Weil:
- Konsolen sollen billig sein.
- Klein und leise sein. Wer will schon einen Midi Tower im Wohnzimmer. Also muss die Kühlung einfach sein und dadurch ist das Power Buget schon arg begrenzt.
 
@sompe

Das war 2009( bitte nächtes Mal Quelle angeben, musst es erst heraussuchen, http://www.heise.de/newsticker/meldung/PS3-beschleunigt-Kodierung-von-H-264-Videos-219875.html). Heute haben wir 2012.

Jetzt gibt es UVD3 und (hoffentlich bald mal) VCE, Nvidia hat ihre eigenen "Beschleuniger" PureVideo und NVEnc. CUDA bzw. Badaboom etc. ist deutlich ausgereifter. Darüber hinaus, wurde das Ganze ja (logischerweise) unter Linux getestet, fraglich inwieweit das mit den anderen Ergebnissen vergleichbar ist.
 
An der Stelle habe ich auch immer lie Laufzeit der derzeitigen Konsolen im Hinterkopf, denn vermutlich werden die neuen Konsolen ebendso lange herhalten müssen.
Im laufe der Jahre kommt dann noch der eine oder andere Shrink hinzu, die Produktion wird billiger und die Konsolen sparsamer.
.
EDIT :
.

@deadohiosky
Schrieb ich doch...laut Wiki und bei Bedarf findet man den PS3 Artikel bei Wikipedia mehr als leicht aber bitte: http://de.wikipedia.org/wiki/PlayStation_3
Gleich bei den technischen Spezifikationen.

Daran wird sich nichts geändert haben denn der Sinn einer Konsole ist über Jahre hinweg eine konstante Leistung und Hardwareumgebung zu haben. Mehr Leistung bekommt man erst bei der nächsten Konsolengeneration.
 
Ja, welche Wiki?

en.?
de.?
fr.?

Darüber hinaus muss man das Ganze ja auch erst einmal im entsprechenden Paragrafen finden.

Und Wiki ist generell keine gute Plattform für technische Details. Entweder sind Angaben falsch oder stark vereinfacht.

btw., Angaben zu Cell's theoretischer Leistungsfähigkeit stehen leider auch in Diskrepanz zur Praxis, besonders wenn man bedenkt, dass von den ursprünglich 9(1+8) "Kernen" nur 7(1+6) effektiv genutzt werden können, da einer grundsätzlich deaktiviert ist (um den Yield zu erhöhen) und einer fürs XMB(OS) bzw. Sicherheit genutzt wird.
 
@deadohiosky
Dir ist schon aufgefallen das hier deutsch geschrieben wird und theoretische Leistungsangaben generell sinnlos sind wenn die Software sie nicht ausreizen kann?
So gehsehen hat der Cell die gleichen Probleme wie die Shader der GPU. Der Unterschied ist das die GPU Architekturen im Spiele Umfeld wohl deutlich weiter verbreitet sind.
Es ist auch vollkommen egal wieviele Kerne der Cell ursprünglich hatte und warum die restlichen deaktiviert sind, solange sich die Leistungsangabe auf den kastrierten Chip bezieht.
.
EDIT :
.

Ich klinke mich mal wieder aus dem sinnlosen Diskussionspart aus. *g*
 
Aber ich seh die eigentlich auch eher gleichwertig, nur durch den geringeren Verbrauch könnte es sein, dass Nv die Taktraten weniger senken muss als Ati. An die vollen Taktraten glaube ich bei beiden noch nicht, aber vll überraschen die mich ja.
Das wären dann wieder 5-10% Performance-Vorteil bei Spielen für den NV SLI-Verbund, und das Kasperltheater geht von vorne los.
Da du gerade BC-Mining ansprichst, gibts da eigenltich Benches zu? Eigentlich müsste die 680 da doch auch gut dabei sein, denn BC-Mining ist nicht sonderlich anspruchsvoll und zieht ja glaube auch keine Vorteile aus den GCN-Verbesserungen. Bei anderen Gpgpu ist GCN natürlich im Vorteil.
Das Tool selbst ist der "bench". Eine HD 7970 liegt je nach Tool und Optimierung zwischen ~260 MHash/s (unoptimiert) und 685 MHash/s (optimiert)
Eine GTX 680 liegt aktuell bei etwa 110 MHash/s. "Aktuell" sollte man betonen, da dieser Wert allem Vernehmen nach mit einigen Problemen behaftet ist (unoptimiert, Programmabstürze inbegriffen).

Quellen u.a.:
https://bitcointalk.org/index.php?topic=73681
https://en.bitcoin.it/wiki/Mining_hardware_comparison
 
Wir alle wissen, dass bei AFR fps nicht die ganze Geschichte erzählen. So gesehen wäre es zumindest mir persönlich egal ob jetzt der eine 10% vor dem anderen liegt.
 
Lieber geringere Skalierung und weniger µRuckler so wie es NV derzeit praktiziert - wenngleich dies natürlich MGPU an sich etwas ad absurdum führt.
 
"Breaking News: AMD HD 7970 Price Drop Incoming..."

von hier

Sehe ich mir die gute Verfügbarkeit der HD7970 an, könnte da was dran sein. Die Verfügbarkeit von GF104 scheint da nicht mit halten zu können, zumindest erhalte ich dieses Gefühl, wenn ich mir geizhals.at ansehe.
 
Naja ich war heute noch in der Stadt und in den 3 PC Läden an denen ich vorbeigekommen bin gab es jeweils beide Karten ohne Probleme von verschiedenen Herstellern. Also so schlimm kann das mit der Verfügbarkeit bei beiden Karten aktuell nicht sein.
 
Ist doch einfach. Das Dev-Kit läuft mit einer 6850, weil das in etwa der Leistung einer Kaveri-APU entspricht. Als CPU ist es halt ein x86er. Es spielt ja erstmal keine Rolle, ob Befehlssätze voll ausgereizt werden. Man kann aber schonmal Ergebnisse präsentieren, das Teil testen und die Entwicklungsumgebung fertigstellen. Es könnte sicherlich noch ein drittes Dev-Kit mit Trinity und einer gedrosselten 7750er oder so geben, was dann Kaveri schon recht nahe kommt. Ich glaube Kaveri als PS4-Hardware kann man als halbwegs sicher ansehen. Wenn die kommt, werden sicher keine Trinitys mehr produziert und 28nm Bulk kommt Sony sicher entgegen.
 
Zuletzt bearbeitet:
Zurück
Oben Unten