App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
R1000 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
Opteron
Redaktion
☆☆☆☆☆☆
Wieso spanisch? Er scheribt doch deutlich: "DO NOT represent the final product".Kommt mir alles ein wenig spanisch vor, besonders das mit der aufgebohrten APU, aber wie der Poster ja auch sagt, solle es noch (min.) ein weiteres Dev Kit geben... ich schätze da könnte dann Trinity Einzug gewährt werden.
Das sind Entwicklerkisten, die so nah wie möglich am geplanten Endprodukt sind. Im 3DC hat man gemutmaßt, dass eventuell die GPU_Leistung von ~800 Shadern simulieren will (APU+ die kleine GPU addiert). Wahrscheinlich haben sie jetzt gemerkt, dass der Crossfirebetrieb sch...lecht ist, und dafür jetzt ne 6850 eingepflanzt und die GPU der APU wohl abgeschalten. Wie auch immer - mit 28nm könnte man da schon ~800 Shader on-die fertig bringen.
Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Dass die bisher in manchen News genannten Daten maximal für ein frühes Dev-Kit zutreffen können, ist und war die einzige Möglichkeit die Daten überhaupt einigermaßen ernst zu nehmen. Dass diese Spezifikationen mancherorts quasi schon zur finalen Spezifikation der Konsole hochstilisiert wurden - lächerlich.
Aber auch die neuen Spez halte ich persönlich für unwahrscheinlich... Eine mit HD 6850 aufgebohrte APU? Mit genau welchem Zweck? Prinzipiell sollte der CPU-Teil der APU unter Nutzung aller Kerne genug Power haben für alle anstehenden Aufgaben (inkl. Physik), bzw. würde da zusätzlich auch der bisherige GPU-Part reichen.
Zumal das verbrauchstechnisch auch nicht besonders intelligent ist (siehe typischer Verbrauch der 6850) wenn noch eine dedizierte GPU hinzu kommt. Zumal dann noch die Kombination mit einer HD79xx... dann ist das Dev-Kit weder Fisch noch Fleisch.
Man kann so weder auf VLIW noch auf die Unified-Shader optimieren, bzw. muss sich mit den Unterschieden herumschlagen. Auch das kann ich mir beim besten Willen nicht vorstellen, zumal Trinity so kurz vor der Tür steht.
Egal ob es am Ende nur eine einzelne GPU wird (die der APU, dafür ordentlich aufgebohrt Richtung HD 78xx, halte ich für am wahrscheinlichsten) oder doch zwei (APU+dediziert) - es wird mit Sicherheit GCN-only sein.
@Opteron: Ich versteh das so, dass die GPU der APU zur HD6850 aufgebohrt sein soll in dem Dev-Kit plus eine HD 7900 - finde ich etwas viel.
Aber auch die neuen Spez halte ich persönlich für unwahrscheinlich... Eine mit HD 6850 aufgebohrte APU? Mit genau welchem Zweck? Prinzipiell sollte der CPU-Teil der APU unter Nutzung aller Kerne genug Power haben für alle anstehenden Aufgaben (inkl. Physik), bzw. würde da zusätzlich auch der bisherige GPU-Part reichen.
Zumal das verbrauchstechnisch auch nicht besonders intelligent ist (siehe typischer Verbrauch der 6850) wenn noch eine dedizierte GPU hinzu kommt. Zumal dann noch die Kombination mit einer HD79xx... dann ist das Dev-Kit weder Fisch noch Fleisch.
Man kann so weder auf VLIW noch auf die Unified-Shader optimieren, bzw. muss sich mit den Unterschieden herumschlagen. Auch das kann ich mir beim besten Willen nicht vorstellen, zumal Trinity so kurz vor der Tür steht.
Egal ob es am Ende nur eine einzelne GPU wird (die der APU, dafür ordentlich aufgebohrt Richtung HD 78xx, halte ich für am wahrscheinlichsten) oder doch zwei (APU+dediziert) - es wird mit Sicherheit GCN-only sein.
@Opteron: Ich versteh das so, dass die GPU der APU zur HD6850 aufgebohrt sein soll in dem Dev-Kit plus eine HD 7900 - finde ich etwas viel.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Vielleicht dient die APU nur als Ersatz für die Cell Architektur.
Billiger in der Produktion, unproblematischer bei der Programmierung (für Spielehersteller) und zudem noch leistungsfähiger.
Man nimmt also keine Spezialhardware bei der sich eine Optimierung bestenfalls bei Exklusivtiteln lohnt sondern leistungsfähige Massenware.
Wie gesagt...vorstellen kann ich es mir, zumal lt. Gerüchteküche alle 3 Konsolenhersteller ähnliche GPU Architekturen nutzen werden.
Billiger in der Produktion, unproblematischer bei der Programmierung (für Spielehersteller) und zudem noch leistungsfähiger.
Man nimmt also keine Spezialhardware bei der sich eine Optimierung bestenfalls bei Exklusivtiteln lohnt sondern leistungsfähige Massenware.
Wie gesagt...vorstellen kann ich es mir, zumal lt. Gerüchteküche alle 3 Konsolenhersteller ähnliche GPU Architekturen nutzen werden.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
@Opteron
Nein, er schreibt, es ist eine A8-3870K mit 6850
Und genau das macht mich stutzig. Einfach mal so ne "6850" implantieren... is nich. Eine HD 6850 hat eine Die Fläche von 255mm²(!?) ein paar Redundanzen abgeschmirgelt und auf 32nm geshrinkt kommt man, schätze ich, trotzdem nicht auf unter 200mm². Man kann also nicht einfach mal so die GPU switchen. Dazu wird das dann mit einer GCN gepaart... Crossfire halte ich in dieser Konstellation als eine Schnapsidee.
@sompe... ich bin mir relativ sicher, dass Nintendo (laut Gerüchten) keine GCN-Architektur verwenden wird.
Nein, er schreibt, es ist eine A8-3870K mit 6850
Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900.
Und genau das macht mich stutzig. Einfach mal so ne "6850" implantieren... is nich. Eine HD 6850 hat eine Die Fläche von 255mm²(!?) ein paar Redundanzen abgeschmirgelt und auf 32nm geshrinkt kommt man, schätze ich, trotzdem nicht auf unter 200mm². Man kann also nicht einfach mal so die GPU switchen. Dazu wird das dann mit einer GCN gepaart... Crossfire halte ich in dieser Konstellation als eine Schnapsidee.
@sompe... ich bin mir relativ sicher, dass Nintendo (laut Gerüchten) keine GCN-Architektur verwenden wird.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich kenne die aktuelle Form der Gerüchte zwar nicht aber bisher hieß es das alle 3 Konsolenhersteller eine ATI GPU Architekturen nutzen dann blieben noch die VLIW 4 und 5 Architektur als mögliche Kandidaten. Die aufgebohrte Variante der VLIW 5 Architektur steckt in der HD6850. Der Barts Chip hat eine Größe von 255mm², der Chip auf der HD6850 ist allerdings eine Teildeaktivierte Variante davon. Beim Shrink auf 32 oder gar 28nm kann man diese gleich wegrationalisieren und der Chip würde noch deutlicher schrumpfen.
Die VLIW Architektur hat letztendlich einen grundlegenen Vorteil. Man bekommt viel Rechenleistung auf einen sehr engen Raum.
Die VLIW Architektur hat letztendlich einen grundlegenen Vorteil. Man bekommt viel Rechenleistung auf einen sehr engen Raum.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Ja nun ist aber VLIW5 noch weiter entfernt von GCN als VLIW4 es eigentlich schon ist, daher bleibt eben meine Skepsis, dass CF ohne weiteres möglich wäre.
Bei der Xbox soll es eigentlich GCN werden, bei der PS4 geht man auch davon aus... die Wii U soll aber nur eine R700 bekommen, konkret wird von einer HD 4870, also RV770XT, gesprochen.
Daher ist es fraglich, was mit diesem Dev Kit bezweckt werden soll, denn das Crossfire wäre schon sehr "asymmetrisch".
Bei der Xbox soll es eigentlich GCN werden, bei der PS4 geht man auch davon aus... die Wii U soll aber nur eine R700 bekommen, konkret wird von einer HD 4870, also RV770XT, gesprochen.
Daher ist es fraglich, was mit diesem Dev Kit bezweckt werden soll, denn das Crossfire wäre schon sehr "asymmetrisch".
Opteron
Redaktion
☆☆☆☆☆☆
Siehe auch:@Opteron: Ich versteh das so, dass die GPU der APU zur HD6850 aufgebohrt sein soll in dem Dev-Kit plus eine HD 7900 - finde ich etwas viel.
So ich fette auch mal:@Opteron
Nein, er schreibt, es ist eine A8-3870K mit 6850
Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board. And yes SI rumors are true. APU is paired with the HD Radeon HD 7900.
Second dev kit uses APU design AMD A8-3870k redesigned to have HD 6850 on board.
Und sags noch deutlich: "On board" ist nicht das gleiche wie "On die".
"On board" meint einfach, dass ne 6850er auf der Platine steckt. Nicht mehr, nicht weniger. Alles andere wäre hanebüchener Unsinn. Klar, für ein paar 100 Dev Kisten, mal schnell ne komplett neue Maske basteln und die produzieren lassen ...
Bei dem "paired" ist halt die Frage was er sagen will. Rein vom Sinn her, wirds eben ein Kaveri-Derivat, und das hat im GPU-Teil bereits die neuen SI/GNC-Shader. MMn will er das auch sagen. Ne 7900 extra ... neeeee, glaub ich nicht. Wahrscheinlich ist das Zitat schon etwas älter, und die 7900er waren damals die einzige GNC-Karten auf dem Markt, oder er hat den 7800-Start halt nicht mitbekommen.
Beim interpretieren von Gerüchten muss man auch immer den eigenen Verstand einschalten, v.a. wenn jeder nur schlechtes Englisch spricht und schreibt
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
"on board" heißt aber meist auch einfach nur... "on board".
Will heißen, er meint damit nicht unbedingt das Board bzw. pcb sondern es ist "an Board".
Hier gibt es durchaus Interpretationsspielraum.
edit:
Wikipedia sieht es auch so:
Ich gehe aber vom "methaphorically speaking" aus, denn er spricht von der APU die gepaired wird mit einerHD 6850 HD 7900er. Ich fände es sehr umständlich eine APU raufzuzimmern, die GPU abzuschalten, dann eine HD 6850 ranzupflanschen und dazu noch eine HD 7900.
Will heißen, er meint damit nicht unbedingt das Board bzw. pcb sondern es ist "an Board".
Hier gibt es durchaus Interpretationsspielraum.
edit:
Wikipedia sieht es auch so:
http://en.wikipedia.org/wiki/On_boardIn computing, the term on board often refers to controllers or other devices that are integrated onto a motherboard, used in the metaphoric sense, as well as referring to them being physically on the circuit board
Ich gehe aber vom "methaphorically speaking" aus, denn er spricht von der APU die gepaired wird mit einer
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@deadohiosky
Wie ich oben schon schrieb geht es mir auch nicht um Crossfire, also die GPUs zusammen die Bilder rendern zu lassen, sondern um eine Coexistenz bei der die APU keine Bilder bastelt sondern nur zu rechnen da ist.
Wie ich oben schon schrieb geht es mir auch nicht um Crossfire, also die GPUs zusammen die Bilder rendern zu lassen, sondern um eine Coexistenz bei der die APU keine Bilder bastelt sondern nur zu rechnen da ist.
Opteron
Redaktion
☆☆☆☆☆☆
Ne gibts nicht, da ein extra-Die nur für ein paar Dev-Kits absolut 0,0 Sinn machen würden. Das Aufwand/Nutzenverhältnis geht da durch die Decke. Sowas wär wirklich Blödsinn hoch 3.Hier gibt es durchaus Interpretationsspielraum.
Du sagt doch selbst, dass Dus unwahrscheinlich fändest, also wo ist das Problem?
Die "metaphorische" Erklärung ist schlicht und ergreifend nicht die richtige.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Ich weiß nich, ich weiß nich.
Das geht ganz schön ins Geld und Sony hatte ja schon vor einer Weile durchblicken lassen, wie auch in dem Post beschrieben, diese Subventionierungsgeschichte deutlich einzudämmen. Ich denke fast, dass Sony vllt. doch noch ausgelotet wird ob man bei VLIW5 bleibt oder auf GCN umsteigt und die Entwickler/Publisher mitentscheiden lassen will, womit sie besser zurechtkommen.
Und was soll die on-board -GPU dann berechnen? Physik? Da gibt es doch eigentlich nichts, außer PhysX. Der Rest wird ja immer noch auf der CPU berechnet.
Der Einwand "APU als Cell-Ersatz" erschließt sich mir nicht so ganz. Meinst du Emulation. Meinst du als DRM?
Das geht ganz schön ins Geld und Sony hatte ja schon vor einer Weile durchblicken lassen, wie auch in dem Post beschrieben, diese Subventionierungsgeschichte deutlich einzudämmen. Ich denke fast, dass Sony vllt. doch noch ausgelotet wird ob man bei VLIW5 bleibt oder auf GCN umsteigt und die Entwickler/Publisher mitentscheiden lassen will, womit sie besser zurechtkommen.
Und was soll die on-board -GPU dann berechnen? Physik? Da gibt es doch eigentlich nichts, außer PhysX. Der Rest wird ja immer noch auf der CPU berechnet.
Der Einwand "APU als Cell-Ersatz" erschließt sich mir nicht so ganz. Meinst du Emulation. Meinst du als DRM?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wenn es nur ein Testsystem ist....warum nicht?Ich gehe aber vom "methaphorically speaking" aus, denn er spricht von der APU die gepaired wird mit einerHD 6850HD 7900er. Ich fände es sehr umständlich eine APU raufzuzimmern, die GPU abzuschalten, dann eine HD 6850 ranzupflanschen und dazu noch eine HD 7900.
Man nehme ein paar Standardkomponenten, simuliere damit die spätere Hardware und kombiniere beim letztendlichen Chip die CPU Kerne des Llanos mit den Recheneinheiten einer 6850.
Wo wäre das Problem im Verkaufsprodukt einen Verschmelzung beider Prozessoren Chips zu verbauen?
.
EDIT :
.
Ich meinte keine Emulation sondern einen Prozessor der mindestens so leistungsfähig ist (lt. Wiki ist der Cell der PS3 beim Videotranscodieren mit einer GTX285 vergleichbar) aber in der Anschaffung billiger und unproblematischer bei der Programmierung ist. Es würde die Programmierung für die Spielehersteller deutlich erleichtern und es würde im allgemeinen mehr Leistung aus der Hardware gequetscht werden.Und was soll die on-board -GPU dann berechnen? Physik? Da gibt es doch eigentlich nichts, außer PhysX. Der Rest wird ja immer noch auf der CPU berechnet.
Der Einwand "APU als Cell-Ersatz" erschließt sich mir nicht so ganz. Meinst du Emulation. Meinst du als DRM?
Soweit ich weiss gibt es mit Bullet auch eine GPU beschleunigte Physikengine. Es ist für PhysX also kein Alleinstellungsmerkmal mehr.
Ich denke die haben zuerst ein Dev Kit mit APU + 6850 gemacht und nun das ganze aufgewertet auf den neusten Stand. Also GCN Paarung. Eine Mischung aus aus verschiedenen Techniken kommt warscheinlich nicht in Frage, da die Optimierungen dadurch wieder schwierige werden.
Aber am warscheinlichsten wird die Konsole nur aus einer APU bestehen.
Weil:
- Konsolen sollen billig sein.
- Klein und leise sein. Wer will schon einen Midi Tower im Wohnzimmer. Also muss die Kühlung einfach sein und dadurch ist das Power Buget schon arg begrenzt.
Aber am warscheinlichsten wird die Konsole nur aus einer APU bestehen.
Weil:
- Konsolen sollen billig sein.
- Klein und leise sein. Wer will schon einen Midi Tower im Wohnzimmer. Also muss die Kühlung einfach sein und dadurch ist das Power Buget schon arg begrenzt.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
@sompe
Das war 2009( bitte nächtes Mal Quelle angeben, musst es erst heraussuchen, http://www.heise.de/newsticker/meldung/PS3-beschleunigt-Kodierung-von-H-264-Videos-219875.html). Heute haben wir 2012.
Jetzt gibt es UVD3 und (hoffentlich bald mal) VCE, Nvidia hat ihre eigenen "Beschleuniger" PureVideo und NVEnc. CUDA bzw. Badaboom etc. ist deutlich ausgereifter. Darüber hinaus, wurde das Ganze ja (logischerweise) unter Linux getestet, fraglich inwieweit das mit den anderen Ergebnissen vergleichbar ist.
Das war 2009( bitte nächtes Mal Quelle angeben, musst es erst heraussuchen, http://www.heise.de/newsticker/meldung/PS3-beschleunigt-Kodierung-von-H-264-Videos-219875.html). Heute haben wir 2012.
Jetzt gibt es UVD3 und (hoffentlich bald mal) VCE, Nvidia hat ihre eigenen "Beschleuniger" PureVideo und NVEnc. CUDA bzw. Badaboom etc. ist deutlich ausgereifter. Darüber hinaus, wurde das Ganze ja (logischerweise) unter Linux getestet, fraglich inwieweit das mit den anderen Ergebnissen vergleichbar ist.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
An der Stelle habe ich auch immer lie Laufzeit der derzeitigen Konsolen im Hinterkopf, denn vermutlich werden die neuen Konsolen ebendso lange herhalten müssen.
Im laufe der Jahre kommt dann noch der eine oder andere Shrink hinzu, die Produktion wird billiger und die Konsolen sparsamer.
.
EDIT :
.
@deadohiosky
Schrieb ich doch...laut Wiki und bei Bedarf findet man den PS3 Artikel bei Wikipedia mehr als leicht aber bitte: http://de.wikipedia.org/wiki/PlayStation_3
Gleich bei den technischen Spezifikationen.
Daran wird sich nichts geändert haben denn der Sinn einer Konsole ist über Jahre hinweg eine konstante Leistung und Hardwareumgebung zu haben. Mehr Leistung bekommt man erst bei der nächsten Konsolengeneration.
Im laufe der Jahre kommt dann noch der eine oder andere Shrink hinzu, die Produktion wird billiger und die Konsolen sparsamer.
.
EDIT :
.
@deadohiosky
Schrieb ich doch...laut Wiki und bei Bedarf findet man den PS3 Artikel bei Wikipedia mehr als leicht aber bitte: http://de.wikipedia.org/wiki/PlayStation_3
Gleich bei den technischen Spezifikationen.
Daran wird sich nichts geändert haben denn der Sinn einer Konsole ist über Jahre hinweg eine konstante Leistung und Hardwareumgebung zu haben. Mehr Leistung bekommt man erst bei der nächsten Konsolengeneration.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Ja, welche Wiki?
en.?
de.?
fr.?
Darüber hinaus muss man das Ganze ja auch erst einmal im entsprechenden Paragrafen finden.
Und Wiki ist generell keine gute Plattform für technische Details. Entweder sind Angaben falsch oder stark vereinfacht.
btw., Angaben zu Cell's theoretischer Leistungsfähigkeit stehen leider auch in Diskrepanz zur Praxis, besonders wenn man bedenkt, dass von den ursprünglich 9(1+8) "Kernen" nur 7(1+6) effektiv genutzt werden können, da einer grundsätzlich deaktiviert ist (um den Yield zu erhöhen) und einer fürs XMB(OS) bzw. Sicherheit genutzt wird.
en.?
de.?
fr.?
Darüber hinaus muss man das Ganze ja auch erst einmal im entsprechenden Paragrafen finden.
Und Wiki ist generell keine gute Plattform für technische Details. Entweder sind Angaben falsch oder stark vereinfacht.
btw., Angaben zu Cell's theoretischer Leistungsfähigkeit stehen leider auch in Diskrepanz zur Praxis, besonders wenn man bedenkt, dass von den ursprünglich 9(1+8) "Kernen" nur 7(1+6) effektiv genutzt werden können, da einer grundsätzlich deaktiviert ist (um den Yield zu erhöhen) und einer fürs XMB(OS) bzw. Sicherheit genutzt wird.
Markus Everson
Grand Admiral Special
Daher ist es fraglich, was mit diesem Dev Kit bezweckt werden soll, denn das Crossfire wäre schon sehr "asymmetrisch".
Kann man sich fragen. Muß man aber nicht. Schon gar nicht in einem Thread der nicht PS-DevKits sondern AMD GPUn zum Thema hat.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.393
- Renomée
- 1.985
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@deadohiosky
Dir ist schon aufgefallen das hier deutsch geschrieben wird und theoretische Leistungsangaben generell sinnlos sind wenn die Software sie nicht ausreizen kann?
So gehsehen hat der Cell die gleichen Probleme wie die Shader der GPU. Der Unterschied ist das die GPU Architekturen im Spiele Umfeld wohl deutlich weiter verbreitet sind.
Es ist auch vollkommen egal wieviele Kerne der Cell ursprünglich hatte und warum die restlichen deaktiviert sind, solange sich die Leistungsangabe auf den kastrierten Chip bezieht.
.
EDIT :
.
Ich klinke mich mal wieder aus dem sinnlosen Diskussionspart aus. *g*
Dir ist schon aufgefallen das hier deutsch geschrieben wird und theoretische Leistungsangaben generell sinnlos sind wenn die Software sie nicht ausreizen kann?
So gehsehen hat der Cell die gleichen Probleme wie die Shader der GPU. Der Unterschied ist das die GPU Architekturen im Spiele Umfeld wohl deutlich weiter verbreitet sind.
Es ist auch vollkommen egal wieviele Kerne der Cell ursprünglich hatte und warum die restlichen deaktiviert sind, solange sich die Leistungsangabe auf den kastrierten Chip bezieht.
.
EDIT :
.
Ich klinke mich mal wieder aus dem sinnlosen Diskussionspart aus. *g*
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Das wären dann wieder 5-10% Performance-Vorteil bei Spielen für den NV SLI-Verbund, und das Kasperltheater geht von vorne los.Aber ich seh die eigentlich auch eher gleichwertig, nur durch den geringeren Verbrauch könnte es sein, dass Nv die Taktraten weniger senken muss als Ati. An die vollen Taktraten glaube ich bei beiden noch nicht, aber vll überraschen die mich ja.
Das Tool selbst ist der "bench". Eine HD 7970 liegt je nach Tool und Optimierung zwischen ~260 MHash/s (unoptimiert) und 685 MHash/s (optimiert)Da du gerade BC-Mining ansprichst, gibts da eigenltich Benches zu? Eigentlich müsste die 680 da doch auch gut dabei sein, denn BC-Mining ist nicht sonderlich anspruchsvoll und zieht ja glaube auch keine Vorteile aus den GCN-Verbesserungen. Bei anderen Gpgpu ist GCN natürlich im Vorteil.
Eine GTX 680 liegt aktuell bei etwa 110 MHash/s. "Aktuell" sollte man betonen, da dieser Wert allem Vernehmen nach mit einigen Problemen behaftet ist (unoptimiert, Programmabstürze inbegriffen).
Quellen u.a.:
https://bitcointalk.org/index.php?topic=73681
https://en.bitcoin.it/wiki/Mining_hardware_comparison
Markus Everson
Grand Admiral Special
Das wären dann wieder 5-10% Performance-Vorteil bei Spielen für den NV SLI-Verbund, und das Kasperltheater geht von vorne los.
Du gehst davon aus das die GPUs von AMD und NV bei Zusammenschaltung genau gleich gut skalieren?
boxleitnerb
Vice Admiral Special
- Mitglied seit
- 27.01.2008
- Beiträge
- 517
- Renomée
- 5
Wir alle wissen, dass bei AFR fps nicht die ganze Geschichte erzählen. So gesehen wäre es zumindest mir persönlich egal ob jetzt der eine 10% vor dem anderen liegt.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Naja ich war heute noch in der Stadt und in den 3 PC Läden an denen ich vorbeigekommen bin gab es jeweils beide Karten ohne Probleme von verschiedenen Herstellern. Also so schlimm kann das mit der Verfügbarkeit bei beiden Karten aktuell nicht sein.
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Ist doch einfach. Das Dev-Kit läuft mit einer 6850, weil das in etwa der Leistung einer Kaveri-APU entspricht. Als CPU ist es halt ein x86er. Es spielt ja erstmal keine Rolle, ob Befehlssätze voll ausgereizt werden. Man kann aber schonmal Ergebnisse präsentieren, das Teil testen und die Entwicklungsumgebung fertigstellen. Es könnte sicherlich noch ein drittes Dev-Kit mit Trinity und einer gedrosselten 7750er oder so geben, was dann Kaveri schon recht nahe kommt. Ich glaube Kaveri als PS4-Hardware kann man als halbwegs sicher ansehen. Wenn die kommt, werden sicher keine Trinitys mehr produziert und 28nm Bulk kommt Sony sicher entgegen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 2K
- Antworten
- 11
- Aufrufe
- 563
- Antworten
- 13
- Aufrufe
- 902