App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
R900 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
...irgendwann muss ja der Anfang gemacht werden
Also gut, die einzige Spekulatius die ich zu bieten hätte, wäre der Fertigungsprozess in 32nm...da ich langsam davon ausgehe, dass AMD sowohl bei den CPUs als auch GPUs unter vorgehaltener Hand auch ein "TickTock"-Prinzip fahren wollen (welches ich immer noch am besten finde).
Und da ja so "Mini-Gerüchte" eines 32nm-Refreshs des R800 zu Mitte 2010 gehandelt werden, liegt es wohl nahe, dass der R900 auch im 32nm-Gewand daherkommt...28nm kann ich mir hingegen nicht vorstellen.
Und hatte jemand mal nicht behauptet gehabt, dass der R900 auch eine reine Neuentwicklung sein sollte, wie der K11 quasi im Bereich der CPUs?
Also gut, die einzige Spekulatius die ich zu bieten hätte, wäre der Fertigungsprozess in 32nm...da ich langsam davon ausgehe, dass AMD sowohl bei den CPUs als auch GPUs unter vorgehaltener Hand auch ein "TickTock"-Prinzip fahren wollen (welches ich immer noch am besten finde).
Und da ja so "Mini-Gerüchte" eines 32nm-Refreshs des R800 zu Mitte 2010 gehandelt werden, liegt es wohl nahe, dass der R900 auch im 32nm-Gewand daherkommt...28nm kann ich mir hingegen nicht vorstellen.
Und hatte jemand mal nicht behauptet gehabt, dass der R900 auch eine reine Neuentwicklung sein sollte, wie der K11 quasi im Bereich der CPUs?
Ich glaube nicht, dass wir 32nm sehen werden. Ich glaube das wird wieder übersprungen und man kommt mit 28nm. Das dürfte bei GF nicht viel später kommen und bei Bulk legt man da bei GF glaube mehr Wert drauf. Mitte nächsten Jahres dürfte auch eher der Produktionsstart sein, ich erwarte die eher zu ner ähnlichen Zeit wie dieses Jahr.
Ne neue Architektur glaube ich auch eher. Die R600 Architektur wird einfach langsam zu ineffizient, wie man meiner Meinung nach bei rv870 sieht. Immer nur dranflanschen geht einfach nicht. RV770 war so ein gutes Design, weil mans geschafft hat alle Bottlenecks vom R600/670 auf kleiner Fläche zu beseitigen. Das war bei Rv870 nicht mehr der Fall. Der Performancezuwachs bei gleicher Taktrate ist doch recht mau für die Verdopplung von allem.
Außerdem würde ich diesmal von ausgehen, dass r900 nen größeres SI bekommt. Irgendwas zwischen 512Bit und 256Bit sollte ne gesunde Speicherbandbreite erzeugen, vll 320 Bit oder so.
Ne neue Architektur glaube ich auch eher. Die R600 Architektur wird einfach langsam zu ineffizient, wie man meiner Meinung nach bei rv870 sieht. Immer nur dranflanschen geht einfach nicht. RV770 war so ein gutes Design, weil mans geschafft hat alle Bottlenecks vom R600/670 auf kleiner Fläche zu beseitigen. Das war bei Rv870 nicht mehr der Fall. Der Performancezuwachs bei gleicher Taktrate ist doch recht mau für die Verdopplung von allem.
Außerdem würde ich diesmal von ausgehen, dass r900 nen größeres SI bekommt. Irgendwas zwischen 512Bit und 256Bit sollte ne gesunde Speicherbandbreite erzeugen, vll 320 Bit oder so.
gruenmuckel
Grand Admiral Special
- Mitglied seit
- 17.05.2001
- Beiträge
- 29.626
- Renomée
- 1.743
- Standort
- Gerry-Weber - Stadt
- Aktuelle Projekte
- Collatz, Milkyway, POEM
- Lieblingsprojekt
- POEM & QMC etwa gleich
- Meine Systeme
- C2Q8400@3,2Ghz I7-3770K C2DE6750
- BOINC-Statistiken
- Mein Laptop
- Dell Studio 1749 @ work / Medion Erazer X7826 @ play
- Prozessor
- Intel Core i7 6700K
- Mainboard
- Asrock Z270 Extreme4
- Kühlung
- EKL Alpenföhn Matterhorn PURE
- Speicher
- 1x 16GB G.Skill Aegis DDR4-2400 DIMM CL15-15-15-35
- Grafikprozessor
- Sapphire AMD Radeon RX 480 NITRO 8GB
- Display
- LG Ultrawide 21:9 "29UM67-P & FullHD Packard-Bell-TV
- SSD
- 1TB 840 EVO, Mushkin Reactor1TB, Sandisk Extreme 480GB
- HDD
- 1xMD04ACA400, 2x Seagate Archive 8TB
- Optisches Laufwerk
- LG GH22NS40, Sony Optiarc BD-5300S Blu-Ray Brenner
- Soundkarte
- Creative Recon3D PCIe
- Gehäuse
- Corsair Obsidian 650D (2x 140mm Vegas Duo + 1x 120mm Vegas Trio)
- Netzteil
- Corsair RM650i
- Betriebssystem
- Windows 7 64 SP1
- Webbrowser
- Firefox aktuelle Version
- Verschiedenes
- Hauppauge WinTV USB , Scythe Kaze Master Ace Lüfte
- Schau Dir das System auf sysprofile.de an
Bei CPUs wird ja schon mit Dual- und Triplechannel für den RAM gearbeitet. Ist sowas bei Grafikkarten auch eine Idee? Die Taktraten der Chips sind ja schließlich nicht ewig steigerbar.
Kuroiban
Admiral Special
- Mitglied seit
- 31.05.2008
- Beiträge
- 1.625
- Renomée
- 23
- Mein Laptop
- Asus Nexus 7 2013
- Prozessor
- AMD Phenom II X6 1090T
- Mainboard
- ZOTAC 890GX-ITX WiFi
- Kühlung
- Corsiar H80+ 2x120mm Nanoxia FX-1250
- Speicher
- 2x 4GB A-Data PC-6400
- Grafikprozessor
- XFX AMD Radeon HD6850 1GB DDR5
- Display
- 21" Iiyama ProLite B2206WS
- SSD
- Curcial M500 250GB
- HDD
- WesternDigital CavierBlack 640GB
- Soundkarte
- M-Audio Fast Track Pro
- Gehäuse
- Bitfenix Prodigy + 140mm Nanoxia FX-1000
- Netzteil
- Antech TruePower New 550W
- Betriebssystem
- Windows 8.1
- Webbrowser
- Chrome
Es wird, wenn die bisherigen Vermutungen zum R900 sich bestätigen, auch am Memory Controller sich was tun müssen. Immerhin sollen ja beim R900 mehrere kleine Chips per MCM zusammen geschaltet werden, und das nicht mit CF, sonder als wirkliche Multi Core GPU. Damit stellt sich die Frage ob es überhaupt ein großes Speicher Interface braucht, immerhin dürften die einzelnen Dies nicht zu groß werden wenn ATI mit einer Die alle Segmente abdecken will. Man überlege von der Größe in Richtung Redwood nur in 32nm. Ein solche Die würde wohl mit 128bit SI ausgestattet werden. Wenn man davon ausgeht das ATI bis zu vier solcher Dies zusammen pappen will würde eine QC GPU mit 512bit Speicherinterface entstehen.
Das Problem an jetzigen Überlegungen ist aber, das der R900 eine komplett neue Architektur werden sollte, also vermutlich nicht nur die jetzige Architektur auf MCM. Wer weis mit was ATI sich da ausgedacht hat.
Das Problem an jetzigen Überlegungen ist aber, das der R900 eine komplett neue Architektur werden sollte, also vermutlich nicht nur die jetzige Architektur auf MCM. Wer weis mit was ATI sich da ausgedacht hat.
Die kleinen Chips per MCM Gerüchte gabs mittlerweile vor jedem Chip seit R600 und nie isses das geworden. Ich zweifle mittlerweile ob Amd das Projekt weitergetrieben hat, weils doch nicht so einfach ging wie man sichs früher mal vorstellte. Wir werden sehen ob sich bei Hemlock was an der Verbindung ändert. Wenn es immernoch stinknormales CF ist, dann kann man das MCM Zeugs vergessen. Man würde das nie und nimmer sofort in die gesamte Architektur ohne nen Testlauf einführen, weil man wenns doch nicht funktioniert wie man will total am arsch wäre.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.033
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
@gruenmuckel: Das ist ja eben die Breite des Speicherinterfaces. Bei CPUs werden je 64bit "ein Kanal" genannt, weil die RAM-Riegel so gebaut sind. Aber Grafikkarten kann man ja verdrahten, wie man will, die 2900XT hatte ja mit 512bit bereits ein "8-Kanal-Interface", wenn Du so willst.
Wie breit das Speicherinterface wird, das ist ja rein abhängig vom dann verfügbaren RAM; über sowas, oder den Takt u.ä. brauchen wir eigentlich nicht zu reden, das ist ja uninteressant. Reine Designentscheidung, wie groß oder klein man einen Chip macht, um möglichst effizient eine bestimmte Marktposition zu treffen. Die "6870" wird schon schneller werden als die 5870
Eine Architektur-Neuentwicklung dürfte wohl stärker Richtung GPGPU gehen, weil AMD langsam was braucht, was in Fusion und Nachfolgern nicht nur die Grafik macht, sondern wie eine FPU als echter Coprozessor nutzbar ist. Ich gehe stark davon aus, daß man sowohl bei Bulldozer als auch "R900" (was ja sicher nicht so heißen wird, sondern wieder irgendeinen tollen Codenamen bekommt) mehr oder weniger zusammen entwickelt, zumindest im Hinblick darauf, wie ein optimale Arbeitsverteilung auszusehen hat. Für die Anwendungssoftware müßte das natürlich beides als Einheit erscheinen, und OpenCL oder DirectX oder was auch immer weist dann die passenden Hardwareeinheiten zu.
Wie breit das Speicherinterface wird, das ist ja rein abhängig vom dann verfügbaren RAM; über sowas, oder den Takt u.ä. brauchen wir eigentlich nicht zu reden, das ist ja uninteressant. Reine Designentscheidung, wie groß oder klein man einen Chip macht, um möglichst effizient eine bestimmte Marktposition zu treffen. Die "6870" wird schon schneller werden als die 5870
Eine Architektur-Neuentwicklung dürfte wohl stärker Richtung GPGPU gehen, weil AMD langsam was braucht, was in Fusion und Nachfolgern nicht nur die Grafik macht, sondern wie eine FPU als echter Coprozessor nutzbar ist. Ich gehe stark davon aus, daß man sowohl bei Bulldozer als auch "R900" (was ja sicher nicht so heißen wird, sondern wieder irgendeinen tollen Codenamen bekommt) mehr oder weniger zusammen entwickelt, zumindest im Hinblick darauf, wie ein optimale Arbeitsverteilung auszusehen hat. Für die Anwendungssoftware müßte das natürlich beides als Einheit erscheinen, und OpenCL oder DirectX oder was auch immer weist dann die passenden Hardwareeinheiten zu.
N1truX
Admiral Special
- Mitglied seit
- 06.07.2007
- Beiträge
- 1.155
- Renomée
- 64
- Standort
- Berlin
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC
- Lieblingsprojekt
- QMC
- Meine Systeme
- Athlon II X4 620, Athlon II X2 250, Phenom II X4 940 BE
- BOINC-Statistiken
- Mein Laptop
- ASUS U38N
- Prozessor
- AMD FX-8150 @4 GHz
- Mainboard
- GIGABYTE GA-990XA-UD3
- Kühlung
- Antec H2O 920
- Speicher
- 4x4 GB DDR3-1866 CL9
- Grafikprozessor
- Sapphire Radeon HD 5770 (940/1290))
- Display
- 2x Eizo EV2333W-BK
- HDD
- SanDisk Extreme SSD 120 GB + 9 TB Storage-Server
- Optisches Laufwerk
- LiteOn iHOS104 (BluRay-ROM)
- Soundkarte
- Denon AVR-1610 :)
- Gehäuse
- Antec P183
- Netzteil
- Be Quiet! Dark Power 430W
- Betriebssystem
- Windows7 Ultimate x64
- Webbrowser
- Opera
- Schau Dir das System auf sysprofile.de an
Das der R900 "komplett neu" sein soll gilt als recht sicher. Ich hab letztes Jahr auf der GC schon mit Saphire drüber gesprochen. Das war die Zeit wo das Gerücht aufkam. Es ist auch realistisch weil ja bald (2011?) die neuen Next-Gen Konsolen kommen sollen und auch dafür neue GPUs herhalten sollen.
Was man da erwarten kann steht aktuell noch recht weit in den Sternen. Gerüchte habe ich bisher im Bereich MCM (nur noch verschiedene Core-Anzahl und Takt bei den einzelnen Modellen) und Taktdomänen (mehr als 2?) gehört.
Wie tief gehend nun die wirklichen Architekturänderungen werden oder was man unter "komplett neu" verstehen soll.. Ich denke frühestens Anfang 2010 sind wir schlauer.
Bei der Fertigung wird man sehen müssen was AMD für sinnvoller hält. Wenn man denkt man kommt mit 28 nm gut voran und der Chip verspätet sich nicht wegen dem Prozess dann wird man es wohl machen.
Auf jeden Fall denke ich aber, das wir wieder sowas wie den RV740 sehen werden. Eine 32/28 nm GPU zu Testzwecken.
Was man da erwarten kann steht aktuell noch recht weit in den Sternen. Gerüchte habe ich bisher im Bereich MCM (nur noch verschiedene Core-Anzahl und Takt bei den einzelnen Modellen) und Taktdomänen (mehr als 2?) gehört.
Wie tief gehend nun die wirklichen Architekturänderungen werden oder was man unter "komplett neu" verstehen soll.. Ich denke frühestens Anfang 2010 sind wir schlauer.
Bei der Fertigung wird man sehen müssen was AMD für sinnvoller hält. Wenn man denkt man kommt mit 28 nm gut voran und der Chip verspätet sich nicht wegen dem Prozess dann wird man es wohl machen.
Auf jeden Fall denke ich aber, das wir wieder sowas wie den RV740 sehen werden. Eine 32/28 nm GPU zu Testzwecken.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Was soll denn überhaupt "neu" sein?
Stehen da schon gute Raytracing-Eigenschaften im Vordergrund, oder ist das immer noch ein klassischer Rasterization-Chip?
Bis vor wenigen Tagen wusste ich nicht, dass ATI aktiv an der Standardisierung von GDDR3, GDDR4 und GDDR5 beteiligt war. AMD hat da ATI auch weitermachen lassen.
http://theovalich.files.wordpress.com/2008/11/gddr5_05_ram-roadmap.jpg?w=100&h=75
Mit einem Differenziellen Busanbindung wird die Verdoppelte Datenrate von GDDR5 in Angriff genommen.
Was in der Industrie seit längerer Zeit in die Runde geworfen wird, sind Chips in Sandwich-Bauweise. Damit kann RAM direkt angesprochen werden und spart Platz.
Bei Grafikkarten ist da nicht der Platzvorteil sexy, sondern die direkte Anbindung von Rechenclustern mit entsprechenden Speicherzellen. Das hatte Intel beim Polarisprojekt in Aussicht gestellt. Vergleichbare Mash-Architekturen kennen ebenso diese Idee.
Also Speicherbandbreite kann die nächsten 2 - 3 Jahre noch deutlich gesteigert werden, ohne die Pinanzahl wesentlich zu erhöhen.
Also zurück zur Frage, was denn die nächste andere ATI-Architektur besser können muss, damit man sich vom aktuellen Grunddesign des R600 löst.
Und ist der "R900" schon ein Chip dieser neuartigen Architektur?
MFG Bobo(2009)
Stehen da schon gute Raytracing-Eigenschaften im Vordergrund, oder ist das immer noch ein klassischer Rasterization-Chip?
Bis vor wenigen Tagen wusste ich nicht, dass ATI aktiv an der Standardisierung von GDDR3, GDDR4 und GDDR5 beteiligt war. AMD hat da ATI auch weitermachen lassen.
http://theovalich.files.wordpress.com/2008/11/gddr5_05_ram-roadmap.jpg?w=100&h=75
Mit einem Differenziellen Busanbindung wird die Verdoppelte Datenrate von GDDR5 in Angriff genommen.
Was in der Industrie seit längerer Zeit in die Runde geworfen wird, sind Chips in Sandwich-Bauweise. Damit kann RAM direkt angesprochen werden und spart Platz.
Bei Grafikkarten ist da nicht der Platzvorteil sexy, sondern die direkte Anbindung von Rechenclustern mit entsprechenden Speicherzellen. Das hatte Intel beim Polarisprojekt in Aussicht gestellt. Vergleichbare Mash-Architekturen kennen ebenso diese Idee.
Also Speicherbandbreite kann die nächsten 2 - 3 Jahre noch deutlich gesteigert werden, ohne die Pinanzahl wesentlich zu erhöhen.
Also zurück zur Frage, was denn die nächste andere ATI-Architektur besser können muss, damit man sich vom aktuellen Grunddesign des R600 löst.
Und ist der "R900" schon ein Chip dieser neuartigen Architektur?
MFG Bobo(2009)
Opteron
Redaktion
☆☆☆☆☆☆
2011 ist relativ sicher, da steht auch auf der ht4u Roadmap "Next-Gen":
Obs ne neue Architektur werden soll, glaube ich nicht. Die 5er VLIW SPUs sind gesetzt, denke ich, was sollte man da denn besser machen können ? Die werden vermutlich wieder an Funktionen zulegen und die Anzahl wird weiter vergrößert. nV soll angeblich ja MIMD bereits mit dem 300 Chip bringen.
Taktdomänen und MCM Spielereien sind eher nur Kleinigkeiten.
ciao
Alex
Obs ne neue Architektur werden soll, glaube ich nicht. Die 5er VLIW SPUs sind gesetzt, denke ich, was sollte man da denn besser machen können ? Die werden vermutlich wieder an Funktionen zulegen und die Anzahl wird weiter vergrößert. nV soll angeblich ja MIMD bereits mit dem 300 Chip bringen.
Taktdomänen und MCM Spielereien sind eher nur Kleinigkeiten.
ciao
Alex
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.275
- Renomée
- 1.413
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.3996 / Server 20348.2227
- Webbrowser
- Edge 120.0.2210.121
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
ich erwarte:
- 28nm und keine 32nm !!!
- weniger Stromverbrauch
- bessere Stromsparfunktionen ( idle )
- 28nm und keine 32nm !!!
- weniger Stromverbrauch
- bessere Stromsparfunktionen ( idle )
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Wo genau liegt eigentlich das Bottleneck, dass die häutigen GPUs ausbremst? Bei der HD 5870 wurde ja die rohe Rechenleistung verdoppelt, die FPS sind aber weit aus geringer gestiegen. Klar kann man jetzt auf Amdahls Gesetz oder Gustafsons Gesetz verweisen, aber liegt darin wirklich die ganze Wahrheit?
MfG @
Oder liegts daran, dass die Karte auf DX11 optimiert ist?
Hat der starke Performanceboost vielleicht hiermit was zu tun:
MfG @
Oder liegts daran, dass die Karte auf DX11 optimiert ist?
Hat der starke Performanceboost vielleicht hiermit was zu tun:
QuelleThe texture units located here have also been reworked. The first of these changes are that they can now read compressed AA color buffers, to better make use of the bandwidth they have. The second change to the texture units is to improve their interpolation speed by not doing interpolation. Interpolation has been moved to the SPs (this is part of DX11’s new Pull Model) which is much faster than having the texture unit do the job. The result is that a texture unit Cypress has a greater effective fillrate than one under RV770, and this will show up under synthetic tests in particular where the load-it and forget-it nature of the tests left RV770 interpolation bound. AMD’s specifications call for 68 billion bilinear filtered texels per second, a product of the improved texture units and the improved bandwidth to them.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Wie wärs mit etwas geringerer gesteigerter Speicherbandbreite?Wo genau liegt eigentlich das Bottleneck, dass die heutigen GPUs ausbremst? Bei der HD 5870 wurde ja die rohe Rechenleistung verdoppelt, die FPS sind aber weit aus geringer gestiegen. ...
Den Speichertakt herunterzudrehen würgt (meiner Meinung nach) die Leistung meiner RV740 mehr ab, als am GPU-Takt zu drehen.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Wie wärs mit etwas geringerer gesteigerter Speicherbandbreite?
Den Speichertakt herunterzudrehen würgt (meiner Meinung nach) die Leistung meiner RV740 mehr ab, als am GPU-Takt zu drehen.
Deswegen hatte ich ja einige Spekulationen bezüglich des Speicherinterfaces angestellt. AMD behauptet ja, man wäre nicht bandbreitenlimitiert!
Also woran könnte es dann liegen?
.
EDIT :
.
Kann es eventuell sein, dass Quimonda (konnte damals bereits auf 1,1 GHz übertaktet werden) schnelleren Speicher hätte liefern können?
Die laut Spezifikation unnötige Erhöhung auf 1,6 V Betriebsspannung macht mich etwas stutzig.
Zuletzt bearbeitet:
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.275
- Renomée
- 1.413
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.3996 / Server 20348.2227
- Webbrowser
- Edge 120.0.2210.121
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Ein Problem ist die "langsame" Verbindung zwischen CPUs und GPUs
PCIe 2.0 x16 macht gerade mal 8000MB/s theor. !
HyperTransport 3.1 macht schon mal 25600MB/s bzw 51200MB/s bei 32Bit
aber schaut man sich die Speicherbandbreite heutiger Grakas an - 150000MB/s
Es dürfte für AMD kein Problem sein, die GPUs mit einem HTX3.1 an die CPUs zu koppeln - dies würde auch die Latenz senken.
Auch würde man den Umweg über PCIe umgehen (Intel machts anders rum)
derzeit : CPU -> HT-Link -> Chipsatz mit PCIe -> GPU ( AMD-Sys )
CPU -> QPI -> Chipsatz mit PCIe -> GPU ( Intel )
Intel bald : CPU -> PCIe in CPU -> GPU (ein Anfang aber über langsames PCIe)
andere Mglk: CPUs -> HT-Link mit HTX3.1 -> GPUs (um einiges schneller)
Zweites Problem - die "Spiele" sind nicht genügend Mulitprozessor geeignet - dh selbst wenn genügend Kerne vorhanden sind, bremsen die Kerne die GPUs aus.
PCIe 2.0 x16 macht gerade mal 8000MB/s theor. !
HyperTransport 3.1 macht schon mal 25600MB/s bzw 51200MB/s bei 32Bit
aber schaut man sich die Speicherbandbreite heutiger Grakas an - 150000MB/s
Es dürfte für AMD kein Problem sein, die GPUs mit einem HTX3.1 an die CPUs zu koppeln - dies würde auch die Latenz senken.
Auch würde man den Umweg über PCIe umgehen (Intel machts anders rum)
derzeit : CPU -> HT-Link -> Chipsatz mit PCIe -> GPU ( AMD-Sys )
CPU -> QPI -> Chipsatz mit PCIe -> GPU ( Intel )
Intel bald : CPU -> PCIe in CPU -> GPU (ein Anfang aber über langsames PCIe)
andere Mglk: CPUs -> HT-Link mit HTX3.1 -> GPUs (um einiges schneller)
Zweites Problem - die "Spiele" sind nicht genügend Mulitprozessor geeignet - dh selbst wenn genügend Kerne vorhanden sind, bremsen die Kerne die GPUs aus.
Opteron
Redaktion
☆☆☆☆☆☆
Naja 32nm gibts ja eh 2010 ( Da war doch was mit nem AMD <> GF Vertrag, dass AMD GPUs fertigen läßt)... von daher darfst Du 2011 ruhig 28nm erwartenich erwarte:
- 28nm und keine 32nm
Jo, aber die Links sind z.Zt. nur 16bit breit. Im Moment passt das schön. Bei 2 GHz HTr Takt gibts genau die 2x8 GB/s, die auch ein x16 PCIe 2.0 Slot z.Zt. lieferen kann. 2011 wirds wohl PCIe3 geben, da würden 16bit HT Links bremsen, aber ob das bei 2 GB VRAM, die dann sicherlich Standard sind, überhaupt was ausmacht ...HyperTransport 3.1 macht schon mal 25600MB/s bzw 51200MB/s bei 32Bit
Blöderweise scheint es bei Intel aber intern immernoch ein QPI Interface zu geben...Intel bald : CPU -> PCIe in CPU -> GPU (ein Anfang aber über langsames PCIe)
ciao
Alex
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Würdest du als AMD Verkaufsmanager auch behaupten... AMD behauptet ja, man wäre nicht bandbreitenlimitiert! ...
Alle RV740 wurden mit GDDR5 bestückt, der laut Spezifikation 1 GHz vertrug ... aber in der Praxis wurden daraus 800 MHz gemacht mit maximal 50 MHz Aufschlag im ATI Catalist-Tool.... Kann es eventuell sein, dass Quimonda (konnte damals bereits auf 1,1 GHz übertaktet werden) schnelleren Speicher hätte liefern können? ...
Ob Qimonda noch bessere Speicherchips damals hätte liefern konnte, weiss ich nicht. Es sind auf jeden Fall nicht mal die technisch machbaren Grenzen von AMD ausgereizt worden.
Das gibt durchaus Sinn, wenn man schon eine Nachfolgegeneration in der Mache hat, aber nicht mal "so eben" die Bandbreite mit verdoppelten Takt hochreissen kann.
Damit die Karten aber auch schön billig bleiben, wollte man aber bei 128 Bit und 256 Bit breiten GDDR5-Speicherinterfaces bleiben. Das wird vermutlich auch 2010 so bleiben, weil dann eine verbesserte Version dieses Standards eingeführt werden sollte.
MFG Bobo(2009)
Die Speicherbandbreite ist nicht das größte Problem. Mehr als 10% würde er auch nicht mit schnellerem Speicher rauskriegen. Siehe zb auch Vergleiche von 4850 zu 4870. Doppelte Speicherbandbreite und inner Regel nur 10% Unterschied dadurch. Der rv870 ist in seinem Gesamtkonzept größtenteils ein überall verdoppelter Rv790 der auf DX11 aufgebohrt ist. Aber durch eine Verdoppelung kriegt man nie die doppelte Geschwindigkeit. Dazu bedarf es anderer Änderungen an der Architektur und ich bin überzeugt, dass wir diese bei der r900 Generation sehen werden. Dann würde ich die größten Leistungsgewinne auch bei DX11-Spielen annehmen, da die Architektur fordergründig auf dessen Anforderungen optimiert sein sollte.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
zumal vorhandene einheiten und ausgelastete einheiten auch noch zwei paar schuhe sind!
Kann man ausschließen, dass ein DX11 @ 32nm nicht aus als Next-Gen benennt wird?2011 ist relativ sicher, da steht auch auf der ht4u Roadmap "Next-Gen":
@Topic
Ich glaube eher, es läuft so wie mit der R6x0-Serie ab.
So "1,5" Jahr nach der Einführung kommt eine neue DX11-Architektur.
Zwar ist RV770 (2.Versuch der R6x0-Architekturr) 1 Jahr nach R600 gekommen, aber R600 verspätete sich um 0,5 Jahr.
Und RV870 hat sich wegen 40nm auch (etwas) verspätet. Die Frage ist nur wieviel?
Bis dahin könnte es zumindestens eine 32nm-RV870 aus der AMD-Fabrik geben, da AMD mit Probe-Fertigungs-GPUs a la RV740 gute Erfahrungen gemacht hat.
Dazu erwarte ich eine HD5890. Ob es ein verbesserter RV870 @ 40nm ist (Ich denke schon, dass AMD an den Yields arbeitet und nebenbei den Takt erhöhen kann) oder gar ein RV890 (=RV870 + Entstörungs-Transistor), kann man nur spekulieren.
Zuletzt bearbeitet:
w0mbat
Commodore Special
- Mitglied seit
- 19.05.2006
- Beiträge
- 416
- Renomée
- 18
- Mein Laptop
- Lenovo ThinkPad L450@Ubuntu MATE
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- MSI MAG B550M Mortar Max WIFI
- Kühlung
- NZXT Kraken X63
- Speicher
- G.SKILL F4-3600C17D-32GTZR
- Grafikprozessor
- XFX Speedster QICK 319 Radeon RX 6800 BLACK Gaming
- Display
- LG 34UC79G-B
- SSD
- 2TB WD_BLACK SN850X | 2TB Samsung 970 EVO Plus
- Soundkarte
- Realtek ALC1220
- Gehäuse
- Lian Li O11 Dynamic Mini
- Netzteil
- Cougar SF750 Platinum
- Tastatur
- CM QuickFire Rapid-i
- Maus
- Logitech G Pro X Superlight 2
- Betriebssystem
- Windows 11 Pro x64
- Webbrowser
- Firefox
Ich erwarte was ganz neues in 28nm und kein 512bit SI (das der Chip dafür sicher zu klein wird). So 384bit + 7Gbps GDDR5 und eben komplett neue Arch. Vielleicht auch mehr in Richtung GPGPU.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
der 40nm prozess hat bestimmt noch verbesserungspotential, nach all den anlaufschwierigkeiten, kann ich mir nicht so recht vorstellen dass der jetzt mal eben auf vollen touren läuft....
d.h. AMD hat da womöglich sowieso noch taktspielraum.
für den R900 wäre es schön mehr in die MIMD-Richtung zu gehen. Soweit ich weiß, ist es momentan so, dass alle ALUs mit einem befehl gefüttert werden, aber mit unterschiedlichen daten rechnen, d.h. es können nicht 500 davon einen Befehl bearbeiten und 500 andere einen anderen befehl inkl. dessen daten.
Wenn das ginge, wäre das ein großer schritt in richtung universelle verwendbarkeit, mit wesentlich besserer Auslastung!
grüßchen
ich
d.h. AMD hat da womöglich sowieso noch taktspielraum.
für den R900 wäre es schön mehr in die MIMD-Richtung zu gehen. Soweit ich weiß, ist es momentan so, dass alle ALUs mit einem befehl gefüttert werden, aber mit unterschiedlichen daten rechnen, d.h. es können nicht 500 davon einen Befehl bearbeiten und 500 andere einen anderen befehl inkl. dessen daten.
Wenn das ginge, wäre das ein großer schritt in richtung universelle verwendbarkeit, mit wesentlich besserer Auslastung!
grüßchen
ich
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ich habe nie gedacht, geschrieben und behauptet, dass eine hypothetische doppelt angewachsene Speicherbandbreite automatisch zu einer verdoppelten Rechenleistung führt.Die Speicherbandbreite ist nicht das größte Problem. Mehr als 10% würde er auch nicht mit schnellerem Speicher rauskriegen. Siehe zb auch Vergleiche von 4850 zu 4870. Doppelte Speicherbandbreite und inner Regel nur 10% Unterschied dadurch. Der rv870 ist in seinem Gesamtkonzept größtenteils ein überall verdoppelter Rv790 der auf DX11 aufgebohrt ist. Aber durch eine Verdoppelung kriegt man nie die doppelte Geschwindigkeit. ...
Der Witz ist ja, dass sich die Speicherbandbreite eben NICHT mit verdoppelt hat, OBWOHL sich die rohe Rechenleistung mindestens verdoppelt hat.
Die gering gewachsene Bandbreite kommt so huckepack auf Amdahls Law (-> "verdoppelter RV790"). Der verdoppelte L2-Cache im RV870 könnte es teilweise kaschiert haben.
MFG Bobo(2009)
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
Ich schätze, dass mit dem R900 erstmal keine grundsätzlich neue Architektur kommt.
Dazu läuft die derzeitige einfach zu gut. Bevor hier überhaupt die Notwendigkeit entsteht etwas besseres zu bringen muss Nvidia erst mit einer gleichwertigen oder überlegenen Architektur kontern.
Solange wird man die alte Architektur ausbauen und nebenbei an neuen Ideen Feilen.
Ich glaube eher, man wird versuchen zum R900 die bisherige Architektur wieder zu entschlacken um Preiswerte Leistung anbieten zu können.
Also wird das Ziel sein die Rechenleistung pro mm² und pro Watt zu steigern.
Dazu läuft die derzeitige einfach zu gut. Bevor hier überhaupt die Notwendigkeit entsteht etwas besseres zu bringen muss Nvidia erst mit einer gleichwertigen oder überlegenen Architektur kontern.
Solange wird man die alte Architektur ausbauen und nebenbei an neuen Ideen Feilen.
Ich glaube eher, man wird versuchen zum R900 die bisherige Architektur wieder zu entschlacken um Preiswerte Leistung anbieten zu können.
Also wird das Ziel sein die Rechenleistung pro mm² und pro Watt zu steigern.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Ich schätze, dass mit dem R900 erstmal keine grundsätzlich neue Architektur kommt.
Dazu läuft die derzeitige einfach zu gut. Bevor hier überhaupt die Notwendigkeit entsteht etwas besseres zu bringen muss Nvidia erst mit einer gleichwertigen oder überlegenen Architektur kontern.
Solange wird man die alte Architektur ausbauen und nebenbei an neuen Ideen Feilen.
Ich glaube eher, man wird versuchen zum R900 die bisherige Architektur wieder zu entschlacken um Preiswerte Leistung anbieten zu können.
Also wird das Ziel sein die Rechenleistung pro mm² und pro Watt zu steigern.
Wie die nächst Generation aussehen wird dürfte längst definiert sein. Da werden höchstens Details angepasst. Also nix mit warten auf den GT300!
..Bis dahin könnte es zumindestens eine 32nm-RV870 aus der AMD-Fabrik geben, da AMD mit Probe-Fertigungs-GPUs a la RV740 gute Erfahrungen gemacht hat.....
Aber diese Erfahrung hat nicht AMD selbst gemacht, sondern eher TMC gemacht! Ich denke nicht, dass TMCs Prozess so ohne weiteres auf GF uebertragen laesst - zumal TMC das sicher zu verhindern wuesste.
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 4K
- Antworten
- 0
- Aufrufe
- 3K
- Antworten
- 0
- Aufrufe
- 142K
- Antworten
- 0
- Aufrufe
- 94K