R800 Spekulationsthread

Selbst dann könnte sich AMD trotz aller Framedrops immerhin perfekte Filterung auf die Fahnen schreiben...und wer dann unbedingt so ein game auf max. Details mit AF zocken muss, der muss eben die Knete springen lassen... umsonst ist der gevatter Tod...
 
als ob das bei DEM treiber noch ne Rolle spielt! *lol*
Bei der Größe der heutigen Grafiktreiber wird wohl so ein "perfectmode" - optiönchen den kohl nimmer fett machen....

Wenns so einfach ist, warum wird es dann deiner Meinung nach nicht gemacht?
 
Weil mehr Freiheitsgrade zu einem höheren Aufwand bei der Treiberentwicklung und Validierung führen.

Ja, das mag stimmen, sollte aber nun mal gar oder besser darf nicht als Argument herhalten; denn wenn Treiber auf zig Games hin optimiert werden (die noch nicht einmal jeder ATI Besizter hat), dann sollte diese Aufgabe doch zu loesen und der Aufwand zu rechtfertigen sein, oder?
 
Kurz vor dem Start der ersten DirectX-11-Familie bei AMD/ATI befinden wir normale Nutzer uns in einer Nachrichten-Zwitterlage. Zum einen bemüht sich AMD frühe Infos zu geben, andererseits vermitteln öffentliche Treiber und Tools einen halbfertigen Eindruck.

Mein Disput mit einigen Membern hier drückt die derzeitige halbgare Nachrichtenlage aus.
Zur Zeit ist OpenCL in der Beta 2.0 SDK Stream nicht für ATI GPUs implementiert ... obwohl AMD dies lauthals auf die eine, oder andere Art und Weise verlautbaren lässt. Dafür ist die Stream-Entwicklungsumgebung nun für OpenCL auf AMD-Prozessoren ausgelegt.
OpenCL@GPU ist fertig, wird gerade zertifiziert:
SUNNYVALE, Calif., Sep 21, 2009 (BUSINESS WIRE) -- AMD (NYSE: AMD) announced submission of conformance logs for its OpenCL graphics processing unit (GPU) implementation to the Khronos Working Group and awaits certification.
http://phx.corporate-ir.net/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=1333548

ciao

Alex
 
Wenns so einfach ist, warum wird es dann deiner Meinung nach nicht gemacht?

Ich denke, dass man einfach den Verlust an FPS scheut und 'man' schaut eben doch auf den Balken der Benchmarks. Es werden doch immer mehr die ueblichen Benchmarks mit 'max. alles' durchgefuehrt.

Aber es sollte nicht stoeren, wenn das ganze optional ist..und der 'normale' Anwender das in der Regel nicht zu Gesicht bekommt....
.
EDIT :
.



Genau..immerhin wird an dieser Front die PR Schuessel geruehrt und es passiert auch etwas..aber wird es nicht auch Zeit... ;-) !!
Klingt ein wenig, wie auf den letzten Druecker!
 
Aber Nvidia hat schon ne recht breite Basis an CUDA-Software, die haben nicht die große Not bei OpenCL, bzw. würden das am liebsten gar nicht bringen, damit einfach alle CUDA nutzen und sie alleine das Geschäft machen können... OpenCL hilft ihnen nur, solange ihre HW besser ist als die von Ati. Wenn das nicht so ist, wäre reine CUDA-Dominanz besser für die Gewinne ;)

grüßle,
ich

P.S. perfektes timing zum launch der Evergreens
 
Wie kommst Du darauf ? Nvidia ist auch nicht weiter ... und OpenCL ist nagelneu. Das passt schon so.

Ich hätte die Vorstellung der OpenCL Unterstützung erst zum Start der HD 58x0 erwartet.
 
Wie kommst Du darauf ? Nvidia ist auch nicht weiter ... und OpenCL ist nagelneu. Das passt schon so.

Nein, sicher ist Nvdia nicht weiter. Ich denke eher, dass sie auf OpenCL verzichten wuerden, da sie ja schliesslich CUDA haben und dies stark promoten.

'Ein wenig letzter Druecker' meine ich wegen
...The complete ATI Stream SDK v2.0 for CPU and GPU software development using OpenCL is planned for full release later this year...

Das klingt erst einmal etwas vage fuer den Zeitpunkt - und ich weiss nicht inwieweit die SDK wirklich an die konkrete Hardware (in diesem Fall die GPU) gebunden ist, als dass man sie nicht auch ohne den GPU Teil haette zertifizieren lassen koennen, um dann zum Launch parat zustehen.
Schliesslich ist OpenCL vornehmlich das Pferd Nummero 1, auf das ATI bei GGPU setzt - da haette man die Termine besser abpassen sollen oder koennen. Sicher haengt man da auch von anderen ab...aber es klingt so ein wenig 'ungeschickt'....
Ich denke, dass man auch deswegen diese Ankuendigung 'vorweg' schiebt, um sich erst bei Launch ein paar unangenehmen Fragen stellen zu muessen - ohne sich selbst vorher zu erklaeren.
.
EDIT :
.

Bei Fudzilla - gut vielleicht nicht ganz neutral oder problemlos, klingt es gerade nicht so ueberzeugend, was Dirt2 als ein DirectX 11 'Headliner' fuer AMD angeht...trotz der finz. Injektion seitens AMDs..

Aber warten wir es einfach ab...;-) !!!
 
Zuletzt bearbeitet:
Nvidia hatte schon im Mai 2009 einen OpenCL-Treiber bei Khronos.org zertifizieren lassen ... allerdings wohl noch mit "alter" "Legacy"-Hardware mit DirectX-10 Innereien. ;)

Im April 2009 hatten sie sogar eine Entwickerversion eines OpenCL-Treibers ins Rennen geschickt.

Es ist ein falsches Gerücht, dass nur AMD im OpenCL-Camp drin ist. Auch die Grünen Grafikgiganten sind dabei. Eine Demo hatten sie schon im Mai 2009 gezeigt "First OpenCL demo on a GPU".

Das fette Problem bei den Kaliforniern ist ... sie können offenbar keine DirectX-11-Karte bieten. Und das ist ein großer fetter Punkt für AMD/ATI.

Vergegenwärtigt man aber die Konkurrenz von Microsofts DirectX mit OpenGL, dann empfinde ich die Hoffnungen der AMD-Gemeinde für einen Hype. So offen die OpenGL API ist ... sie muss auch unterstützt wedren in den verschiedensten Produkten.

Noch nutzen viele Hersteller die proprietären Schnittstellen von ATI (Stream/CTM) und Nvdia (CUDA) und Microsofts DirectX-9/10. Demnächst folgt Microsoft mit Compute Shader und DirectX-11. Microsoft hat die Marktmacht im Softwarebereich. CUDA hat einen Traditionsvorteil einer bestehenden Entwicklergemeinde.

OpenCL hingegen steht noch ganz am Anfang. Immerhin scheint sie breite Unterstützung zu finden und die Grafikgiganten Intel, Nvidia und AMD/ATI scheinen diesen Industriestandard breit unterstützen zu wollen. Und auch Apple hats drin im neuen Snow Leopard, ihr neues Betriebssystem des Jahrgangs 2009.

Nach den Treibern und Entwicklertools muss das aber auch implementiert werden ...

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Hab ich wo geschrieben, dass nVidia nichts hat ? ;-)
Das ist natürlich klar ^^

Hype ... hmhmhm im ATi Lager vielleicht ein bisschen, ausserdem sind wir hier bei P3D ;-). Mit Deinem API Einwand hast Du natürlich recht, ein Fundament ist noch kein Haus, aber Havok wird ja von Intel auch auf OpenCL umgestrickt, das und die zugehörige Entwicklerumgebung ist auch schon gut verbreitet, wie Du sicher eh schon weisst. Da wirds dann interessant.

PhysiX kann man natürlich vergessen, und die komische neue Bullet Engine ... was ist das ? Wird die schon von irgendwelchen namhaften Firmen/Spielen unterstützt ?

Edit:
Apropos Hype ... hat nVidia überhaupt nen CPU Treiber ? Den hat AMD ja auch noch geschrieben. So wies ausschaut kann eine OpenCL App die hardware auswählen:
opencl1t7gg.gif

http://www.khronos.org/developers/library/overview/opencl_overview.pdf

Ohne CPU OpenCL Treiber wirds da nicht viel mit "pick the best device" sein ...

ciao

Alex
 
Zuletzt bearbeitet:
Wie man AMD likely to repeat Dell allocation debacle with ATI Radeon HD 5800 Series (eng) liest, koennte man erwarten, dass die 58XX den Weg ins Retail vorerst nur schleppend findet.

Damit beisst sich AMD/ATI selbst ins Beine, das im Moment noch so stark ist, da Nvidia keine DirectX 11 Loesung bieten kann.
Wird es dann doch eher ein Paperlaunch!? Oder sind die Units schon 'verschifft' ?
Oder gar hat ein Wholesaler sie schon auf Lager?
 
Ins eigene Bein beissen? Denk ich nicht unbedingt. Man muss da mal die genaueren Sachen abwarten. Besonders der letzte Satz hat da große Bedeutung:
It could be that these Dell systems are going to offer the Full Monty AMD platform experience - CPU, graphics and chipset - and that AMD considers this the perfect showcase for its platform message.

Wenn Dell nen großen Teil ihrer DX11 High-Performance Reihe auf Amd auslegen würde, ist das ne Gelegenheit die man unmöglich auslassen kann.
 
Edit:
Apropos Hype ... hat nVidia überhaupt nen CPU Treiber ? Den hat AMD ja auch noch geschrieben. So wies ausschaut kann eine OpenCL App die hardware auswählen:
opencl1t7gg.gif

http://www.khronos.org/developers/library/overview/opencl_overview.pdf

Ohne CPU OpenCL Treiber wirds da nicht viel mit "pick the best device" sein ...

Ich kann da keinen Automatismus von OpenCL rein interpretieren. Darüber muss sich der Programmierer Gedanken machen. Zur Laufzeit kann dann das Programm abfragen, welche Ressourcen zur Verfügung stehen und entsprechend der Vorschriften des Programmierers (If else elseif, case) die Threads/Kernel verteilen. Wenn keine Beschleunigung durch GPGPUs möglich ist soll ja jede OpenCL-Anwendung auch auf der CPU laufen können.

c't 11 vom 11.5.2009 S. 146 schrieb:
Brook+ und CUDA sind nicht die einzigen Zugänge zur GPGPU Programmierung. Die Khronos Group, die auch für die Grafikschnittstelle OpenGL verantwortlich ist, hat mit OpenCL (Open Computing Language) eine dritte, von einzelnen Herstellern unabhängige Möglichkeit geschaffen. Ein OpenCL-Programm läuft unverändert nicht nur mit AMD- und Nvidia-GPUs, sondern soll auch Intels Larrabee, Sonys Cell-Prozessor und verschiedene DSPs (Digitale Signal-Prozessoren) zur parallelen Datenverarbeitung nutzen können. Damit das funktioniert, übersetzt der OpenCL-Compiler den Code erst zur Laufzeit. So muss bei der Programmierung nicht bekannt sein, welche Hardware das Programm ausführt. OpenCL kennt zudem einen "ES-Mode" (Embedded Systems) für kleine und mobile Systeme mit beschränkten Hardware-Funktionen. ES-Mode-Programme sollen beispielsweise Handy-Videos aufhübschen können.

OpenCL wurde von Apple initiiert, die es Mitte diesen Jahres in Mac OS X 10.6 (Snow Leopard) integrieren wollen. Die Khronos Group erfindet das Rad nicht neu, sondern übernimmt schlicht die von Brook+ und CUDA eingeführten Stream- und Compute-Kernel-Mechanismen und tauscht einige Begriffe aus. Ein Thread ist in der OpenCL-Terminologie ein Work-Item und die von Nvidia benutzten Thread-Blöcke heißen hier Work-Groups. Der obligatorische Funktionsumfang von OpenCL ist praktisch die Schnittmenge der Möglichkeiten von AMDs CAL-Interface und CUDA. Besonderheiten, die lediglich CAL, CUDA oder nur bestimmte GPUs unterstützen, sind in OpenCL optional (Atomics, Double Precision, bestimmte Rundungsmodi) und über Erweiterungen (Extensions) verfügbar. OpenCL sieht auch CPU-Kernel vor, läuft daher auch auf Systemen ohne GPGPU-fähige Grafikkarte und lässt dann, entsprechend langsamer, alle Berechnungen von der CPU ausführen. Ein weiterer Kerneltyp unterstützt gewöhnlichen Task-Parallelismus, um CPUs mit zwei oder mehr Kernen mit Aufgaben wie Datenaufbereitung oder Ein- / Ausgabe-Operationen auszulasten, bei denen es nicht in erster Linie um arithmetische Berechnungen geht.

Es ist keine leichte Aufgabe, mit einer Programmierschnittstelle mehrere, teilweise sehr unterschiedliche Prozessoren unterstützen zu wollen. Man sollte also auch nicht erwarten, dass ein und dasselbe OpenCL-Programm mit hoher Effizienz auf beliebigen Grafikchips läuft. Dies gilt umso mehr für Intels Larrabee oder den Cell-Prozessor, deren Architektur von heutigen Grafikchips stark abweicht. Eine bestimmte Hardware wird nur mit zusätzlichen Optimierungen gut ausnutzen können, die die Besonderheiten des jeweiligen Prozessors berücksichtigen und einsetzen. Spezifische Funktionen einzelner Prozessoren sind über Extensions nutzbar. Da sich OpenCL und CUDA relativ ähnlich sind, ist der Optimierungsaufwand für die GeForce- und Tesla-Karten voraussichtlich geringer als für die Radeon- und FireStream-Boards mit AMD-Chip. OpenCL ist aber näher an der Hardware als CUDA oder Brook+ und zwingt Programmierer beispielsweise dazu, sich selbst um das Speicher-Management zu kümmern.

Microsoft beteiligt sich nicht an OpenCL, sondern entwickelt seine eigene, in DirectX 11 integrierte GPGPU-Implementierung Compute Shader. Man kann aber davon ausgehen, das AMD und Nvidia das Khronos-API auch in einer Version für Windows herausbringen werden. Die für Juni angekündigte nächste Version des ATI-Stream-SDK soll sowohl einen OpenCL-Compiler als auch Tools enthalten, die den Übergang von Brook+ zu OpenCL erleichtern. Nvidia nennt für seinen OpenCL-Compiler denselben Zeitraum.


MfG @
.
EDIT :
.

Neue Folien:

spec.jpg

701x298-images-stories-news-2009-09-septembre-21-crossfirex.jpg
 
Zuletzt bearbeitet:
Ich kann da keinen Automatismus von OpenCL rein interpretieren.
Ich auch nicht, dass sich der Programmierer drum kümmern muss, erkennt hier doch jeder, deswegen hab ich mir einen entsprechenden Halbsatz gespart ;-)
Aber es ist halt möglich, und falls da mal eine dicke Portion serieller Code auftaucht, wird der Programmierer das sicherlich ausnützen.

ciao

Alex
 
Hat nur indirekt mit R800 zu tun, aber sehr viel mit AMDs Engagement im Bereich Raytracing und Photorealismus:
Bright Side of News: OTOY für Raytracing (Neue Präsentation im Zusammenhang mit dem Launch der Evergreen Karten)
Gut von Otoy hatte man schon vor längerer Zeit mal was gehört und dann wieder nicht mehr. Jetzt scheint es aber laut Bright Side of News bei der Präsentation auf der USS Hornet am 10. September wieder gerenderte Szenen zu einem Film und ein Spiel gegeben zu haben. Das interessante: Das Spiel ist einfach nur der interaktive Film. Also wohl ziemlich gleiche Bildqualität, nämlich das was man im weitesten Sinne als Photorealismus bezeichnen würde.
Dabei kommt für die Darstellung der Charaktere wohl auch das schon länger vorgestellte Lightstage zum Einsatz, wobei BSN darauf verweist, dass das Modell auf der Lightstage Seite die neue Ruby für die Evergreen Demo sei.

Morgen werden wir wohl mehr erfahren. Jedenfalls beschäftigen sich nicht nur Intel und Nvidia mit Raytracing als Zukunftstechnologie für interaktives 3d-Material.
Hiermit erklärt sich vielleicht auch, warum sich die Hollywood Studios so für AMD interessieren, wie hier kürzlich berichtet wurde. Jetzt fehlt dann nur noch eine funktionierende Möglichkeit, das Ganze auch tatsächlich von der "OTOY-Render-Cloud" auf die heimischen Bildschirme regnen zu lassen....das ist ja auch nochmal eine erhebliche technische Herausforderung.
 
Zuletzt bearbeitet:
Auf dem IDF zeigt den Larrabee Intel in 'Action'. Aber das Gezeigte war eher muede und wird den Launch der 58XX Karten von AMD kaum stoeren koennen - wenn es ueberhaupt wahrgenommen wird. die 'Action' war ja auch eher ueberschaubar.

Intel scheint (noch) lange nicht in der Lage zu sein, den trad. Grafikhaeusern Paroli bieten zu koennen.
 
Auf dem IDF zeigt den Larrabee Intel in 'Action'. Aber das Gezeigte war eher muede und wird den Launch der 58XX Karten von AMD kaum stoeren koennen - wenn es ueberhaupt wahrgenommen wird. die 'Action' war ja auch eher ueberschaubar.

Intel scheint (noch) lange nicht in der Lage zu sein, den trad. Grafikhaeusern Paroli bieten zu koennen.
Dafür gibts nen Larrabee Thread .. schau mal was dort so steht ;-)

Immer dieses Off Topic hier.

Sowas gehört hier rein, erster HD5870 Test:
http://www.tomshw.it/graphic.php?guide=20090923

Bei THG Italy laufen die Uhren wohl anders ^^
Review ist auf Italienisch, aber die Bilder reichen ja.

ciao

Alex
 
Dafür gibts nen Larrabee Thread .. schau mal was dort so steht ;-)

Immer dieses Off Topic hier.

Sowas gehört hier rein, erster HD5870 Test:
http://www.tomshw.it/graphic.php?guide=20090923

Bei THG Italy laufen die Uhren wohl anders ^^
Review ist auf Italienisch, aber die Bilder reichen ja.

ciao

Alex

Na, nicht so empfindlich sein..sicher hat es auch mit diesem Topic etwas zu tun - denn wie der Zufall es so will, finden der 58XX (Papier?) Launch und das IDF zur gleichen Zeit statt.
Und Intel haette sich nichts mehr gewuenscht als dass man ein wenig 'Glanz' und Aufmerksamkeit haette ergattern koennen.
Statt Staunen, gab es aber wohl nur ein kurzes zuckendes Lebenszeichen...

Der 'Weg' ist also bereitet fuer den R800..oder so..
.
EDIT :
.


Sowas gehört hier rein, erster HD5870 Test:
http://www.tomshw.it/graphic.php?guide=20090923

Bei THG Italy laufen die Uhren wohl anders ^^
Review ist auf Italienisch, aber die Bilder reichen ja.

Danke fuer den Link:

Erstes Schnellschussfazit:
** meist etwa so schnell wie eine 4870X2 in den ueblichen Benches (nicht in allen!)
** endlich genuegsamer im idle Betrieb - ca 30 Watt @idle realistisch 157Mhz GPU 300 Mhz Mem
** leider (noch) etwas laut
** verbesserte Skalierung im Crossfire Mode ueber alle Benches hinweg
nicht nur bei den 'Crossfire' geneigten...
** Unter Last heiss und durstig
** Keine Probleme mit den Treiber
** UVD Part 2.0 (!) braucht noch die 'richtige Software'
 
Zuletzt bearbeitet:
Wenn Du als Überschrift
IDF: Intel zeigt Larrabee
wählst, gehört das nicht hier rein :)

Aber lassen wirs, denk beim nächsten Mal vielleicht dran :)

Thx für die Kurzzusammenfassung.

ciao

Alex
 
Erste Listungen bei geizhals sind hier zu erwarten.

Noch ist die Liste (00:54 23.09.2009) leer, ..
 
Für Listings siehe Posting #717 :)

Bin mal gespannt, wo sich der Preis einpendel wird.

ciao

Alex
 
Alle schreiben von UVD2, dabei hat sich was getan:

Audiophile Heimkino-Fans werden sich an dieser Stelle nun händeklatschend freuen: Die Radeon HD 5000 Serie unterliegt diesen Einschränkungen nicht mehr. PAP wird unterstützt und somit steht dem qualitativ hochwertigen Hörgenuss nichts mehr im Wege. Dank voller Unterstützung von HDMI 1.3a sind die Karten der HD 5000 Serie nun endgültig in der Lage die Audio-Signale verlustlos als Bitstrom an den Verstärker zu schicken.
Quelle

Hier gibts noch mehr zum Thema: klick
Der AnandTech Artikel ist allgemein sehr zu empfehlen!
For a while I'd heard that ATI was dropping 8-channel LPCM support from RV870 because of cost issues. Thankfully, those rumors turned out to be completely untrue. Not only does the Radeon HD 5870 support 8-channel LPCM output over HDMI like its predecessor, but it can now also bitstream Dolby TrueHD and DTS-HD MA. It is the first and only video card to be able to do this, but I expect others to follow over the next year.

...

I can't begin to express how relieving it is to finally have GPUs that implement a protected audio path capable of handling these overly encrypted audio streams. Within a year everything from high end GPUs to chipsets with integrated graphics will have this functionality.


MfG @


lol:
20136.png

Quelle

__________________

3wayportrait.jpg

slide17.jpg
 
Zuletzt bearbeitet:
Wie man sieht hat sich wohl in Wirklichkeit der Idleverbrauch sogar noch unterboten! Magere 20W
Deckt sich auch mit den Aussagen, dass die 4670 8W verbraucht und hier ein Abstand von 11W aufgezeigt wird.

Weitere Bestätigung findet man hier.
 
Zuletzt bearbeitet:
Zurück
Oben Unten