R800 Spekulationsthread

Ok, soweit so gut, aber werden aktuell auch die Caches genützt oder nicht ?
Ich glaube mich dunkel an ein posting im F@H Forum erinnern zu können, in dem der Programmierer dort sagte, dass dort noch nicht viel passiert sei.
Die Texture-L1 und L2-Caches werden eigentlich immer genutzt. Solange man die Daten in Texturen rumliegen hat, kann man das gar nicht verhindern ;)
Beim Zugriff auf den linearen Global-Memory cached nv aber nicht (weswegen auch CUDA-Arrays mit texture references empfohlen werden, ist meist schneller), bei ATI weiß ich es gerade nicht (solange man aber nicht den Local-Datahare benutzt, kommt bei ATI auch Global Memory nicht ins Spiel).
Der unterschiedliche Code auf RV6xx / RV7xx läßt sich schon durch die etwas besseren Shader Units erklären, die können ab 7xx ja auch Bit Shifts.
Mir ging es darum, daß der CAL-Compiler jetzt auch schon für unterschiedliche Hardware unterschiedlichen Code erzeugt ;)
Hmmm ... Cache ist für mich schneller Zwischenspeicher. "Zwischen" deswegen, da die Daten auch noch in langsameren DRAM vorliegen.
Das tun sie aber gerade nicht. Um mal Wikipedia zu zitieren:
Wikipedia zu Cache schrieb:
aus dem Englischen übersetzt bedeutet Cache (gesprochen käsch, entlehnt vom französischen cacher – verbergen) geheimes Lager. Der Name verdeutlicht den Umstand, dass ein Cache seine Arbeit zumeist im Verborgenen verrichtet. Ein Programmierer muss dessen Größe oder Funktionsweise prinzipiell also nicht kennen, denn der Cache ist als solches abstrakt und wird nicht direkt angesprochen. Praktisch ist er eine gespiegelte Ressource, die stellvertretend für das Original bearbeitet werden kann.
Genau das alles ist für den Local Data Share nicht erfüllt. Das meinte ich, als ich sagte, daß es für den Programmierer nicht transparent ist, sondern explizit angesprochen werden muß. Es ist einfach ein zusätzlicher Speicherbereich, aber kein Cache im herkömmlichen Sinne. Mit entsprechender Programmierung kann man den auch dazu benutzen, Daten zu cachen, das macht aber die Hardware nicht zu einem Cache. Die Register sind bei Dir ja auch kein Cache ;)

Irgendwoher müssen die Daten in den "Data Shares" doch auch gelesen/geschrieben werden, die fallen nicht vom Baum, oder werden durch ein umherschwirrendes Gamma Teilchen erzeugt ;-)
Die müssen wie schon gesagt vom Programm explizit da rein geschrieben und genauso explizit auch von dort wieder gelesen werden.

Um die Diskussion vielleicht abzukürzen, ich hab die "Cache" Floskel von nVidia, die sprechen bei CUDA sowohl von Cache also auch von shared memory:
Sollte also egal sein :)
Da ist nv offensichtlich ziemlich unsauber bei der Namensgebung. Jetzt weiß ich auch warum viele CUDA-Anfänger nicht kapieren, wie shared memory funktioniert und am besten genutzt werden sollte :]
 
Zuletzt bearbeitet:
... Ein SDK ist mit gar keiner Hardware "verbunden". Ein SDK (Software Development Kit) ist ein Werkzeug, mit dem ein Programmierer die Funktionalität einer bestimmten Anwendung, API, Sprache oder Spracherweiterung nutzen kann. ...
Jetzt lasset uns raten was ATI mit einer eigenen SDK für die GPUs vorhatte ... Nvidia-Chips mit angepasster Software optimieren? Natürlich nicht. In so fern ist das Tool-Bündel sehr wohl für bestimmte Hardware gedacht. Die kurzzeitige Umwidmung in der letzten Betaversion ausschliesslich für AMD CPUs anstatt der ATI-GPUs zeigt das ja.

Und genau hier verstehst du die Zusammenhänge nicht. OpenCL ist etwas eigenständiges, das hat mit Stream oder CUDA erstmal gar nichts zu tun. Dementsprechend hat auch OpenCL sein ganz eigenständiges SDK. ...
Die ATI Stream-SDK ist eine Toolsammlung mit der Schnittstelle CTM (Close to Metal) und auch OpenCL, um sie optimal für eigene Produkte einzusetzen.

Das entwertet NICHT die Eigenständigkeit von OpenCL. Und OpenCL ist in so fern vergleichbar mit CUDA und Stream/CTM, weil so Multicores für allgemeine Anwendungsfälle verwendet werden können.

Übrigens macht Nvidia nichts anderes mit ihrer eigenen CUDA-Toolsammlung. Dort wird unter dem Dach CUDA eine sehr breite Entwicklerumgebung angeboten. Neben der PhysX-Technik mit der APEX-Umgebung preisen sie jüngstens die Integration von Tools für OpenCL an

Das interpretierst du vermutlich nur falsch oder hast dich missverständlich ausgedrückt. "Verschmolzen" wird deshalb noch lange nichts bezüglich Implementierung. Die CPU hat ihren eigenen Pfad genauso wie die GPU.
Ich erinnere dich gerne daran, dass du fast ausgeschlossen hast, dass die OpenCL-Optimierung für Prozessoren und GPUs zugleich genutzt werden können ;D
Da steht ja nur, dass man alle möglichen zur Verfügung stehenden Geräte für Berechnungen nutzen möchte. ...
Wie das im Detail aussieht kann ich dir nicht sagen.

MFG Bobo(2009)
 
Jetzt lasset uns raten was ATI mit einer eigenen SDK für die GPUs vorhatte ... Nvidia-Chips mit angepasster Software optimieren? Natürlich nicht. In so fern ist das Tool-Bündel sehr wohl für bestimmte Hardware gedacht. Die kurzzeitige Umwidmung in der letzten Betaversion ausschliesslich für AMD CPUs anstatt der ATI-GPUs zeigt das ja.
Sry, aber ich glaube nicht, dass du den Unterschied zwischen OpenCL und Stream verstehst. An der Stelle macht es dann auch keinen Sinn, weiter darüber zu diskutieren.
Dir sollte nur klar sein, dass deine vorhergehende Frage unberechtigt war. Das ist alles.

Die ATI Stream-SDK ist eine Toolsammlung mit der Schnittstelle CTM (Close to Metal) und auch OpenCL, um sie optimal für eigene Produkte einzusetzen.
Nein. OpenCL ist eine eigenständige und unabhängige Spezifikation. AMD könnte Stream komplett über Bord werfen. Das hat auf OpenCL ansich erstmal keine Auswirkungen, maximal auf AMD Internas. Aber das ist nicht das Thema für Leute, die mit OpenCL entwickeln wollen.

Das entwertet NICHT die Eigenständigkeit von OpenCL. Und OpenCL ist in so fern vergleichbar mit CUDA und Stream/CTM, weil so Multicores für allgemeine Anwendungsfälle verwendet werden können.
Nochmal, du solltest dich von der hardwarebezogenen Denkweise lösen. Es sind Softwareschnittstellen und unterliegen ganz anderen Paradigmen. Lass dir das von jemanden sagen, der damit seit über 15 Jahren zu tun hat und sei bitte einmal einsichtig. ;)

Übrigens macht Nvidia nichts anderes mit ihrer eigenen CUDA-Toolsammlung. Dort wird unter dem Dach CUDA eine sehr breite Entwicklerumgebung angeboten. Neben der PhysX-Technik mit der APEX-Umgebung preisen sie jüngstens die Integration von Tools für OpenCL an
Das eine hat mit dem anderen nichts zu tun. Es gibt viele Unternehmen, die ganze Suiten mit diversen Inhalten zur Softwareentwicklung anbieten.

Ich erinnere dich gerne daran, dass du fast ausgeschlossen hast, dass die OpenCL-Optimierung für Prozessoren und GPUs zugleich genutzt werden können
Was soll ich fast wo ausgeschlossen haben?
 
... Nein. OpenCL ist eine eigenständige und unabhängige Spezifikation.
Habe ich was anderes behauptet? Du scheinst gerne das Wort "firmeneigen" (-> proprietär) bei mir zu überlesen.
AMD könnte Stream komplett über Bord werfen. Das hat auf OpenCL ansich erstmal keine Auswirkungen, maximal auf AMD Internas. ...
Natürlich kann AMD Stream über Bord werfen. Der Witz ist ja, dass das Marketing bei AMD Stream als Worthülse verwendet, um damit eine Entwicklungsumgebung nun auch für OpenCL für eigene Hardware zu bewerben.

Mir ist klar, dass die API OpenCL nun mal von einem Konsortium definiert wird. Die Entwicklung geschieht offen an einem runden Tisch, wo AMD/ATI ebenso Vorschläge einreichen wie Nvidia und Intel.

Darüber hinaus schmeissen AMD und Nvdia nicht den eigenen Markenbegriff Stream und CUDA einfach weg. Sie nutzen das als Mantel, um damit auch firmeneigene Tools für firmeneigene Schnittstellen zusammen mit OpenCL unter einem gemeinsamen Dach anzubieten. Bei AMD ist das die Stream-SDK, bei Nvidia ist das CUDA.

Und bei OpenCL gibt es, wie OpenGL auch, die Möglichkeit firmeneigene Erweiterungen zu definieren. Sie sind dann nur nicht Pflichtbestandteil der jeweils gültigen API.

... Was soll ich fast wo ausgeschlossen haben?
->
... Ich sehe das etwas anders. Die CPU Implementierung ist vermutlich eher der "Fallback". Also wenn keine OpenCL-fähige GPU im System gefunden werden kann, greift der CPU Pfad. Ich glaube nicht, dass man CPU und GPU Implementierung "verschmelzen" möchte. ...
So viel zum vom von dir vermuteten nicht möglichen Verzahnen von GPU- und CPU-Rechenpower unter OpenCL. AMD hat Interesse beides zu nutzen.

... Das eine hat mit dem anderen nichts zu tun. Es gibt viele Unternehmen, die ganze Suiten mit diversen Inhalten zur Softwareentwicklung anbieten. ...
Also wenn ich mit OpenCL Physik-Effekte im Stil vom PhysX-Chip für Spiele nachstelle, die denen von Ageia gleichen, womöglich mit den gleichen Satz an Physikalischen Grundformeln, dann hat "das Eine" sehr wohl mit "dem Anderen" was damit zu tun. Der Unterschied ist, das eine ist proprietär, das andere eine firmenübergreifende Schnittstelle.
Der Witz ist ja, dass Ageias APEX in Nvidias CUDA integriert wurde. Es ist dummerweise zu 100 Prozent unter Kontrolle von Nvidia, so dass schon viel geschehen muss, wenn AMD und Intel das in eigenen Produkten berücksichtigt.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
War zwar schon vor 2 Tagen, aber fiel wohl keinem auf.

Ich hats schon gelesen. Wust nur nicht ob es sich lohnt etwas zu posten bei der hitzigen Diskussion :]

Da es jetzt langsam auf den Release zu geht würde ich die Herren der Diskussion CUDA/OpenCL/Stream darum bitten etwas das Schreibtempo runter zu fahren damit wir auch nicht die Infos zur R800 verpassen bzw. sich vielleicht einen eigen Thread zu erstellen für das weitreichende Thema.... wundert mich eh das es dazu noch keinen Spekulationsthread gibt.

Edit: @Opteron: nV hat derzeit echt nicht leicht mit Charlie, sobald es auch nur ansatzweise um GPUs geht haut er auf ihnen rum *buck*
 
Zuletzt bearbeitet:
Der Witz ist ja, dass das Marketing bei AMD Stream als Worthülse verwendet, um damit eine Entwicklungsumgebung nun auch für OpenCL für eigene Hardware zu bewerben.
Unter welchem Begriff AMD die eigenen SDKs zusammenfasst, spielt keine Rolle. Was uns besser zur ursprünglichen Frage von dir zurückkommen lassen sollte:
Welchen Sinn hat eine SDK, die vormals für GPU-Computimg vorgesehen war, wenn nun darin nur noch zwischenzeitlich eigene Prozessoren unterstützt werden? Ist es dann überhaupt berechtigt von "Unterstützung" zu sprechen.
Das OpenCL SDK war eben nie ausschliesslich für GPU-Computing vorgesehen. Ganz einfach, weil OpenCL selbst nicht ausschliesslich auf GPU-Computing beschränkt ist. Zumal es ein OpenCL SDK bisher auch nicht gab. Was das bisherige Stream SDK beinhaltet, ist dabei unerheblich. Die Sinnfrage ist somit überhaupt nicht gegeben.
Ich hoffe, du akzeptierst das jetzt endlich mal, anstatt hier noch ewig darauf rumzureiten. ;)

So viel zum vom von dir vermuteten nicht möglichen Verzahnen von GPU- und CPU-Rechenpower unter OpenCL.
Unter "Verschmelzen" verstehe ich aber etwas anderes als beides zu nutzen. Separate Pfade sind nicht verschmolzen. Deshalb kann ich trotzdem beides zugleich nutzen. Da hast du scheinbar etwas wirr interpretiert.
 
... Das OpenCL SDK war eben nie ausschliesslich für GPU-Computing vorgesehen. ...
Bezogen auf die OpenCL API habe ich auch nie andersartiges behauptet.

Historisch genetisch gesehen war die ATI SDK eine Entwicklungsumgebung für GPGPU und GPU-Computing. Punkt.

... Da hast du scheinbar etwas wirr interpretiert.
Was unsere Postings angeht, da scheinen wir uns generell immer anders zu verstehen.

... Was uns besser zur ursprünglichen Frage von dir zurückkommen lassen sollte ...
Nein, wir sollten uns da aus dem Thread herausklinken, weil unsere Diskussion keine Sau hier interessiert.
 
AMD ist sich wohl ziemlich sicher, dass sie der neue LEADer werden.
 
Ich glaube eher, dass man einer Bienenallergie vorsorgen möchte. ;)

Oder man möchte verhindern, dass die neue Karte in den Eröffnungsbenchmarks hinter der 4870x2 liegt.


Ich glaube, die Karte wird einschlagen wie ein Hammer, und dann immer noch funktionieren. Neues DX, wieder September - das erinnert ein wenig an den R300 / Radeon 9700pro Launch.
 
Zuletzt bearbeitet:
Ich dachte das Thema 384bit sein nun endgültig vom Tisch?! Da hat wohl jemand ein altes Gerücht neu auftische wollen ;D

Ja ist es, die Info gilt als gesichert:
According to our own sources, the new HD 5870 offers over 1600 Stream processors. Amazingly AMD doubled the number of SIMD units from 10 to 20. Since each SIMD unit contains 16 5-D units and a Quad-TMU overall, that means we count 1600 stream processors and 80 TMUs. We are talking about a new videocard whose core speed is at 850 MHz and whose 256-bit GDDR5 runs at 1200 MHz – all for the suggested retail of $399! AMD is expecting HD 5870 to come close to the performance of a HD 4870-X2 or the GTX 295.
(...)
The HD 5870 die size is slightly over 330 MM2 and packed with over 2 billion transistors. This translates into one beast of a card with just over 150 GB/second bandwidth.
(...)
the HD 5870 will perform at just under 28 watts at idle and peak below 190 watts maximum
(...)
The new HD 5850 will launch on September 23 also. We hear it is priced below $299. HD 5850 will sport 1440 stream processors and it will have lower clockspeeds than its big brother. We are hearing somewhere around 700/1000 MHz
Weiß zwar nicht, wiese der anfangs "over" schreibt, obwohls 1600 Shader sind, aber egal.

http://alienbabeltech.com/main/?p=11135

ciao

Alex
 
Also doch abgeschaltete Recheneinheiten bei der 5850.
 
Also doch abgeschaltete Recheneinheiten bei der 5850.
Hast Du nach den TSMC Yield Problemen mit was anderem gerechnet ?

.. ich nicht.

In 3DC hat noch jemand schnell die FLOPS ausgerechnet:
700MHz x 1440 ergibt für die 5850 2016 GFlops.
850MHz x 1600 ergibt für die 5870 2720 GFlops
Thx @mboeller

ciao

Alex
 
Bei NordicHardware stand wohl folgendes kurz online:
http://www.nordichardware.com/news,9887.html

A few weeks ago there were reports of another member of AMD's graphics card family Evergreen. The card was code-named Trillian and would not use a special GPU but instead be a very special model. There were talks about three graphics processor but more likely it would be a card with extra display outputs. We have learned that the card will be called Radeon HD 5870 Six and support no less than six monitors, all with 3D functionality.

Many are perhaps wondering how AMD managed to fit no less than six display outputs on the back of the same graphics card. The answer is DisplayPort, or more precise Mini DisplayPort.

The interface, used quite frequently by Apple, supports resolutions up to 2560x1600 pixels through a connector that is only a fraction of the size of a regular DVI output.

DVI. vs. Mini DisplayPort

The 3D support across multiple monitors have been improved significantly with the coming Evergreen family and Radeon HD 5870 Six will take this to a whole new level. Theoretically you could connect six monitors to one and the same graphics card, with tailored resolutions. Something that should not only appeal to simulator fans but also regular gamers, or why not just use it run of the mill applications.

According to the info we received all cards of the Evergreen family will work a lot better with multiple monitors, something we're truly looking forward to seeing more of. AMD has talked about better support for multiple monitors for many years, and finally it's happening, and the exact shape and form will be revealed soon.

We can also confirm the price information on Radeon HD 5850 and Radeon HD 5870, and they will be 299USD and 399USD respectively.

Even if we don't have any benchmarks to share, we have it on good authority that AMD's new Radeon HD 5800 series will bring between 25-40% better performance than current generation, depending on games and application.

The card will use 1GB GDDR5 memory but 2GB models are to be expected. We have learned a bit about the overclocking potential and it seems the 40nm technology has matured well. There are talks about overclocking to 1GHz GPU with the reference cooler, which is on par with the current flagship Radeon HD 4890 in terms of overclocking ability.

We hope to learn more about AMD's Evergreen family soon, very soon, and we will be covering the launch of the first DirectX 11 graphics cards. A launch where performance and features are almost equally important.
 
AFAIK HD5850@725MHz & HD5870@825MHz.
 
Mich irritiert etwas, dass die sonst üblichen Verdächtigen bisher schweigen... *suspect*

Edit:
Fuad gehört nicht dazu. Die schreiben jeden Tag was anderes!



grafiky.png
 
Zuletzt bearbeitet:
Fuad hat unabhängig von uns eigentlich heute recht ähnliche Specs rausgebracht.. ;)
Also weißt Du, die ganzen Gerüchteküchen haben doch die ganze Zeit fast nur Müll erzählt. Wenn man ein wenig drüber nachgedacht hat, war sehr früh klar, daß alles andere als eine aufgebohrte RV770-Architektur sehr unwahrscheinlich ist. Im Prinzip bewegte sich der Spielraum nur zwischen 16 und 20 SIMDs und damit zwischen 1280 bzw. 1600 ALUs mit 64 bzw. 80 TMUs.

Meine Überlegungen vom April bei 3DCenter kann ich gerne dazu verlinken. Meine vermuteten Spezifikationen von damals waren 16 bzw. 20 SIMDs (jetzt werden es 18 bzw. 20 für 5850/5870), 1280/1600 SPs (jetzt 1440/1600) mit entsprechend 64 bzw. 80 TMUs (jetzt 72 bzw. 80) mit 32 ROPs (stimmt genau) an einem 256Bit Speicherinterface, was mit 1,2 GHz oder etwas mehr getaktet ist (stimmt auch).

Also die ganzen Insider-Quellen scheinen ja nicht viel wert zu sein
poke.gif
;)
 
Zuletzt bearbeitet:
Interessant sind natürlich die Details, die auch noch fehlen.
z.B. wieviel an den ALUs geändert/verbessert wurde. Die müssen jetzt ja mindestens DX11 können.
Von daher ist die Anzahl alleine nicht die ganze Wahrheit.

Ich freue mich auf die ersten richtigen Tests, mit Verbrauchsmessungen natürlich :-)
 
Also die ganzen Insider-Quellen scheinen ja nicht viel wert zu sein
poke.gif
;)
Jupp so siehts aus .. dann noch die ulkigen Gerüchte über MCMs ...

Da wird soviel Sch....lechtes geschrieben .. nicht zum aushalten.

Mit gesundem Menschenverstand kommt man weiter ...

Bekommst Du eingentlich ne Karte fürs Boinc Projekt ? ^^

ciao

Alex
 
Zurück
Oben Unten