R800 Spekulationsthread

Charlie zieht mal wieder über Nvidia her und prophezeit den GT300 erst für Q1 2010.
klick
Allerdings muss man dafür nicht unbedingt Prophet sein. Es ist schon länger absehbar, dass G(T)300 Produkte erst 2010 verfügbar sein könnten.

Ich sehe bei nVidia aber ein ganz anderes Problem. Die neue bzw überarbeitete Architektur wird erstmal nur im Enthusiasten Bereich Einzug halten, wie schon beim G(T)200. Der Rest, also der hauptsächliche Absatz, wird wieder mit aufgewärmten Chips bedient. Dh, der G80 wird uns nach 65 und 55 nm nun vermutlich auch noch in 40 nm begleiten. Fehlende Features wie DirectX 11 sind damit obligatorisch. Und das könnte bis 2011 auch so bleiben.
Während AMD mit Evergreen wieder einen kompletten Generationswechsel vollzieht, lediglich IGPs werden erst später gelauncht, wird nVidia vermutlich immer mehr an Boden verlieren.
 
Also ich denke, dass der RV870 einfach ca. 60% bei gleichen Takt schneller ist als der RV770.
Wenn dem so ist, dann wird auch der Abstand zum RV790 in etwa aehnlich sein, wie er heute zwischen RV770 und RV790 ist. Also noch alles ok! ;-)!

Hauptsache ATI bekommt gut funktionierendes Powerplay endlich mal hin...
Einen 2x so schnellen RV870 kann ich mir schon vorstellen.

Interessant ist, die RV870-Die soll (deutlich) größer werden als RV770 (+15-30%), während GT300 "nur" 5% größer wird als GT200b.

Wenn ATI halbwegs gut arbeiten und Nvidia per MIMD nicht extrem überrascht, dann könnte der Abstand RV770 vs. GT200b mit der neuen Generation sogar kleiner werden.

Der Rest, also der hauptsächliche Absatz, wird wieder mit aufgewärmten Chips bedient. Dh, der G80 wird uns nach 65 und 55 nm nun vermutlich auch noch in 40 nm begleiten. Fehlende Features wie DirectX 11 sind damit obligatorisch. Und das könnte bis 2011 auch so bleiben.
Das würde ich auch als sehr großes Problem sehen.
In der G80 & Nachfolger Ära hatte Nvidia AFAIK ihre GPUs immer / sehr oft Zeitlich sehr gut platziert, während ATI es immer knapp verpasste.
Somit war Nvidia von Anfang an voll dabei und ATI tröpfelte immer langsam über Quartale in den Makrt, bis eine neue Plattformen gab, wo es wieder viele neue Modelle gab.

Während AMD mit Evergreen wieder einen kompletten Generationswechsel vollzieht, lediglich IGPs werden erst später gelauncht, wird nVidia vermutlich immer mehr an Boden verlieren.
IGPs kommen immer so 1 Jahr später. Das ist normal.
Aber der IGP-Markt wird ab 1Q 2010 kleiner, bis er in 1-2 Jahren stirbt.

Allerdings muss man dafür nicht unbedingt Prophet sein. Es ist schon länger absehbar, dass G(T)300 Produkte erst 2010 verfügbar sein könnten.
Na ja, da bin ich nicht ganz der Meinung.
Denn im Frühjahr wusste man ja noch nichts von den 40nm-Problemen und da höhrte man schon einges positives vom GT300. Yield-Problem hielt ich möglich, aber nicht ernsthaft.

Aber seit 1-2 Monaten hat Nvidia ziemlich dicht gemacht, was auch wieder Zeitdeutig (positve oder negativ) sein kann.
Aber in den letzten Tagen hörte man aber wieder einiges, was auf GT300 & Nachfolger Probleme hindeuten. Ausgehend von den 40nm-DX10-GPUs die auch nicht ganz optimal (Verzögerungen & Yield) laufen.

Mal sehen wie es ausgeht, aber momentan dürfte ATI die RV8x0-Serie ziemlich gut machen haben.
Während ATI sich voll auf die frühe RV8x0-Serie-Einführung setzten und da dabei RV740 als Probe-40nm-Die verwendeten, setzte Nvidia "voll" auf einen DX10.1-40nm-Serie.
Einen/Einige hat Nvidia schon gecancelt, aber bei anderen dürfte es nicht rund laufen.
(Zeitverschiebungen und jetzt auch noch die Yield)
Es kommt schon so rüber, als ob da schon ein hin und her ist, welche DX10.1-40nm tatsächlich noch kommt.
Denn es is ja nich einfach, soll Nvidia sich noch mit viel Manpower die Dx10.1-40nm GPUs am Markt bringen, damit sie überhaupt noch einen Konkurrnez zu RV8x0-Serie haben, oder sollen sie die ganze Manpower in ihre ganzen DX11-Serie stecken, damit sie nicht allzuspät kommt, aber bis dahin keine Konkurrenz zu ganzen RV8x0-Serie bieten können.

Und jetzt dürfte sich der GT300 auch noch verspäten.
Das hat für Nvidia mehrere bittere Nachteile.
Erstens: Der High-End-Markt & Weihnachtsgeschäft. Umsätze müssen auch die R&D-Kostenabschreiben.
Zweitens verschiebt sich Cuba 3.0.
ATI bringt nicht nur ATI Stream 2.0 (ich hoffe das heißt so) raus, sondern die OpenCl-Konkurrenz schläft auch nicht.
Drittens, wenn die Konkurrenz zu spät kommt, sind die Treiber des Konkurrenz schon deutlich besser optimiert, was bei der Einführung es für GT300 noch schwieriger macht und GT300 am Anfnag nicht so gut aussehen lässt.
 
Am Schluß bleibt es aber wieder alles beim alten,das ATI nur über einen agressiven Preis ihre Waren verkaufen kann.
 
Zweitens verschiebt sich Cuba 3.0.

Bringt Russland wieder seine Raketen in Stellung? *lol*

Warum setzt man eigentlich auf 40nm? Wären die 45nm, bei der CPUs erfolgreich produziert werden, nicht sinnvoller?
 
Preis/Leistung muss stimmen! Dann ist die absolute Leistung nicht so wichtig! Das kann man am aktuellen Erfolg der 48xx sehen.


MfG @
 
Was für ein Erfolg,ich seh net das 4890 un co sich deutlich mehr verkaufen als Nvidias.
 
... Zweitens verschiebt sich Cuba 3.0.
ATI bringt nicht nur ATI Stream 2.0 (ich hoffe das heißt so) raus, sondern die OpenCl-Konkurrenz schläft auch nicht. ...
[/QUOTE] Das nennt sich CUDA. ;D

Und was AMDs Stream angeht. Wollen die tatsächlich die eigene Schnittstelle aktualisieren? Ich dachte sie setzen zukünftig voll auf OpenCL und Microsofts ComputeShader in DirectX-11?
 
Zuletzt bearbeitet:
Was für ein Erfolg,ich seh net das 4890 un co sich deutlich mehr verkaufen als Nvidias.

Woran liegt es, dass du immer alles so schwarz siehst?

Man konnte Marktanteile zurückgewinnen (Verluste stoppen!) und hat Nvidia unter Druck setzen können. Die Folgen für Nvidia sind: starker Preisverfall, geringere Margen und Gewinneinbruch. Man kann den Markt nicht von heute auf morgen drehen!


MfG @
 
Diese Ganze Diskussion wer hier wen kippt und langfristig mehr Erfolg haben wird ist mühselig. Der Markt schwankte in diesem Bereich immer wieder mal zu Gunsten nVidia, mal zu Gunsten ATI. ICh sehe derzeit keinen echten Vorteil für ATI, der Preiskampf ist einfach zu groß.
 
Woran liegt es, dass du immer alles so schwarz siehst?

Man konnte Marktanteile zurückgewinnen (Verluste stoppen!) und hat Nvidia unter Druck setzen können. Die Folgen für Nvidia sind: starker Preisverfall, geringere Margen und Gewinneinbruch. Man kann den Markt nicht von heute auf morgen drehen!


MfG @

Ich seh nichts schwarz,aber im Gegensatz zu euch schau ich nicht durch die rote ATI Brille.Im Moment ist es eben ausgeglichen,außer im High End Hardwaresegment wo Nvidia mit der GTX285 alleine da steht und das ist nunmal die Realität.
 
Also wir verkaufen erstmalig mehr ATI Karten als nvidia. Fast nur 4850 bzw. 1Gb 4870. Ein Grund ist wohl die Namensänderung. 240/250 darunter wollen/können sich auch die Kunden nichts mehr vorstellen. Aber das ist wohl OT....


Da kommt doch noch HighEnd dieses Jahr.

http://www.hartware.de/news_47546.html
 
Zuletzt bearbeitet:
Ich seh nichts schwarz,aber im Gegensatz zu euch schau ich nicht durch die rote ATI Brille.Im Moment ist es eben ausgeglichen,außer im High End Hardwaresegment wo Nvidia mit der GTX285 alleine da steht und das ist nunmal die Realität.

Ich sehe hier nix in rot oder grün. Nvidia hat aktuell die schnellsten GPUs im Angebot (absolute Performance) aber ATI kann sehr gut mithalten wenn es ums Preis/Leistungs-Verhältnis geht. Und die Karten reichen für aktuelle Games.

Ich sprach von Erfolg. Ich habe dir aufgezeigt worin ich den Erfolg sehe. Du hast ihn angezweifelt.

Definiere bitte Erfolg!


MfG @


Edit:


allg. Defnition für Erfolg
 
Zuletzt bearbeitet:
Erfolg ist der Mehrverkauf eines Produktes gegenüber dem Produkt der Konkurrenz und das ist eben nicht der Fall.
 
... ATI. ICh sehe derzeit keinen echten Vorteil für ATI, der Preiskampf ist einfach zu groß.
Och ich sehe da schon Vorteile. Kompakte GPUs, einfachere PCBs der Grafikkarten und GDDR5 für die Oberklasse sind Kostenvorteile.

Papierdünne ATI-Verluste zeigen ja, dass sie damit sich auf einen guten Weg befinden, trotz insgesamt geschrumpfter weltweiter Nachfrage.

Nvidia hat dafür eine eingespielte Zusammenarbeit mit Spieleentwicklern, den größeren Marktanteil und entsprechend breite Verkaufskanäle und im Institutionellen- und Industriesektor (Quadrokarten) ebenso eine hohen Zuspruch.

Das kann sich aber ändern, wenn die Hardware nicht an der Spitze bleibt, oder aber an Zuverlässigkeit mangelt. Chipbonding-Probleme führten dazu, dass OEMs wie Dell, HP und andere Nvdia vor kurzem so weit wie möglich auslisteten. Im Grafikkarten-Mobilmarkt hat Ati/AMD sich deswegen im zweiten Quartal 2009 an die Spitze gesetzt.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Erfolg ist der Mehrverkauf eines Produktes gegenüber dem Produkt der Konkurrenz und das ist eben nicht der Fall.


ziemlich einfache definition.

dann ist der zuwachs an marktanteil kein erfolg? was denn? ein misserfolg?

und womit hat nvidia erfolg? mit einem verlustquartal nach dem anderen, weil man auf den "erfolgreichen" GT200 gesetzt hat?

mit dem verlust der marktführerschaft bei den notebook grakas an ati, weil die qualität schlecht ist?
ist das erfolg?
 
Wollt ihr euch wirklich über eine Definition streiten die man gar nicht wirklich festlegen kann und jeder anders interpretiert?
 
Bringt Russland wieder seine Raketen in Stellung? *lol*
*lol*

Am Schluß bleibt es aber wieder alles beim alten,das ATI nur über einen agressiven Preis ihre Waren verkaufen kann.
Und beim alten sieht es bei Nvidia nicht gut aus.

Man darf nicht vergessen, dass RV710 & RV730 sehr spät kamen.
Im Mobile-Markt prakitsch erst im 2Q 2009 und da hat Nvidia herbe Verluste.

Dazu hat Nvidia viele Veruste bzw. kaum gewinne Gemacht und da profitierte Nvidia vorallem durch andere Märkte sowie der späten RV710 & RV730 einführung.

So wie ich es sagte, Nvidia war voll in den Märkten da weil sie Zeitlich richtig ankamen und ATI kam mit ihren Chips ungünstig und so tröpfelten die ATI-Produkte sehr langsam in die OEM-Märkte.

Mit G80 hat sich Nvidia ein riesen Image augebaut und das könnte jetzt weiter angekratzt werden, vorallem wenn sei weiter umbenennen.

Die RV7x0-Architektur ist erst seit ein paar Monaten vollstandig am Markt (Notebook dauerte es ewig) vertreten und wenn es mit der nächsten Architektur wieder so aussieht, dann wird es für Nvidia niciht leicht alais ATI kleiner Die für Preissenkunen. Aber das dann für die nächsten paar Jahre und nicht nur paar Monate.

Mit einer viel bessere Performance pro mm² könnte ATI dann auch die schnellste GPU liefern. Das könnte auch jetzt passieren da RV870 viel sträker wächst als GT300

Mal sehen, was kommt und wie Nvidia doch noch kontern kann.
 
Zuletzt bearbeitet:
Wollt ihr euch wirklich über eine Definition streiten die man gar nicht wirklich festlegen kann und jeder anders interpretiert?
Wer streitet?
Wir diskutieren! ;)

Das nennt sich CUDA. ;D

Und was AMDs Stream angeht. Wollen die tatsächlich die eigene Schnittstelle aktualisieren? Ich dachte sie setzen zukünftig voll auf OpenCL und Microsofts ComputeShader in DirectX-11?


Wenn möglich dann schau dir mal die c't 11 vom 11.5.2009 an.

Auf Seite 144 ist eine Grafik zum ATI-Stream-SDK (Oberbegriff für GPGPU unter dem alles zusammengefasst wird) abgebildet.

Die Bildunterschrift lautet:
Im ATI-Stream-SDK sprechen sowohl der Brook+ als auch der OpenCL-Compiler (zur Luafzeit erfolgt die Compilierung) die Grafikkarte über den Compute Abstraction Layer (CAL) an.

Das gilt auch für die ComputeShader!

Der OpenCL-Compiler übersetzt zur Laufzeit das Programm in die Intermediate Language (IL). Diese wird dann vom CAL-Interface in Maschinencode umgesetzt. Damit der Code optimal ausgeführt werden kann, muss also ATI sowohl den OpenCL-Compiler als auch das CAL-Interface weiterentwickeln (Anpassung an neue Hardware ist sicher auch notwendig) und damit das ATI-Stream-SDK (was ja auch die CPU unterstützt). Ob man noch groß an Brook+ entwickelt, weiß ich nicht. Man will sich aber auf OpenCL konzentrieren.

Das Video-Transcoding läuft ja auch unter dem Bergriff ATI-Stream.


Das Gegenstück zu CAL ist PTX (Low-Level-Interface, Parallel Thread Execution) bei Nvidia.


c't 11 vom 11.5.2009 S. 146 schrieb:
Brook+ und CUDA sind nicht die einzigen Zugänge zur GPGPU Programmierung. Die Khronos Group, die auch für die Grafikschnittstelle OpenGL verantwortlich ist, hat mit OpenCL (Open Computing Language) eine dritte, von einzelnen Herstellern unabhängige Möglichkeit geschaffen. Ein OpenCL-Programm läuft unverändert nicht nur mit AMD- und Nvidia-GPUs, sondern soll auch Intels Larrabee, Sonys Cell-Prozessor und verschiedene DSPs (Digitale Signal-Prozessoren) zur parallelen Datenverarbeitung nutzen können. Damit das funktioniert, übersetzt der OpenCL-Compiler den Code erst zur Laufzeit. So muss bei der Programmierung nicht bekannt sein, welche Hardware das Programm ausführt. OpenCL kennt zudem einen "ES-Mode" (Embedded Systems) für kleine und mobile Systeme mit beschränkten Hardware-Funktionen. ES-Mode-Programme sollen beispielsweise Handy-Videos aufhübschen können.

OpenCL wurde von Apple initiiert, die es Mitte diesen Jahres in Mac OS X 10.6 (Snow Leopard) integrieren wollen. Die Khronos Group erfindet das Rad nicht neu, sondern übernimmt schlicht die von Brook+ und CUDA eingeführten Stream- und Compute-Kernel-Mechanismen und tauscht einige Begriffe aus. Ein Thread ist in der OpenCL-Terminologie ein Work-Item und die von Nvidia benutzten Thread-Blöcke heißen hier Work-Groups. Der obligatorische Funktionsumfang von OpenCL ist praktisch die Schnittmenge der Möglichkeiten von AMDs CAL-Interface und CUDA. Besonderheiten, die lediglich CAL, CUDA oder nur bestimmte GPUs unterstützen, sind in OpenCL optional (Atomics, Double Precision, bestimmte Rundungsmodi) und über Erweiterungen (Extensions) verfügbar. OpenCL sieht auch CPU-Kernel vor, läuft daher auch auf Systemen ohne GPGPU-fähige Grafikkarte und lässt dann, entsprechend langsamer, alle Berechnungen von der CPU ausführen. Ein weiterer Kerneltyp unterstützt gewöhnlichen Task-Parallelismus, um CPUs mit zwei oder mehr Kernen mit Aufgaben wie Datenaufbereitung oder Ein- / Ausgabe-Operationen auszulasten, bei denen es nicht in erster Linie um arithmetische Berechnungen geht.

Es ist keine leichte Aufgabe, mit einer Programmierschnittstelle mehrere, teilweise sehr unterschiedliche Prozessoren unterstützen zu wollen. Man sollte also auch nicht erwarten, dass ein und dasselbe OpenCL-Programm mit hoher Effizienz auf beliebigen Grafikchips läuft. Dies gilt umso mehr für Intels Larrabee oder den Cell-Prozessor, deren Architektur von heutigen Grafikchips stark abweicht. Eine bestimmte Hardware wird nur mit zusätzlichen Optimierungen gut ausnutzen können, die die Besonderheiten des jeweiligen Prozessors berücksichtigen und einsetzen. Spezifische Funktionen einzelner Prozessoren sind über Extensions nutzbar. Da sich OpenCL und CUDA relativ ähnlich sind, ist der Optimierungsaufwand für die GeForce- und Tesla-Karten voraussichtlich geringer als für die Radeon- und FireStream-Boards mit AMD-Chip. OpenCL ist aber näher an der Hardware als CUDA oder Brook+ und zwingt Programmierer beispielsweise dazu, sich selbst um das Speicher-Management zu kümmern.

Microsoft beteiligt sich nicht an OpenCL, sondern entwickelt seine eigene, in DirectX 11 integrierte GPGPU-Implementierung Compute Shader. Man kann aber davon ausgehen, das AMD und Nvidia das Khronos-API auch in einer Version für Windows herausbringen werden. Die für Juni angekündigte nächste Version des ATI-Stream-SDK soll sowohl einen OpenCL-Compiler als auch Tools enthalten, die den Übergang von Brook+ zu OpenCL erleichtern. Nvidia nennt für seinen OpenCL-Compiler denselben Zeitraum.


MfG @


Edit 23.09.2009:

Finally, with AMD is hitting the ground running for OpenCL and DirectCompute, their older APIs are being left behind as AMD has chosen to focus all future efforts on OpenCL and DirectCompute. Brook+, AMD’s high level language, has been put out to pasture as a Sourceforge project. Compute Abstract Layer (CAL) lives on since it’s what AMD’s OpenCL support is built upon, however it’s not going to see any further public development, with the interface frozen at the current 1.4 standard. AMD is discouraging any CAL development in favor of OpenCL, although it’s likely the High Performance Computing (HPC) crowd will continue to use it in conjunction with AMD’s FireStream cards to squeeze every bit of performance out of AMD’s hardware.
Quelle
 
Zuletzt bearbeitet:
... Wenn möglich dann schau dir mal die C'T 11 vom 11.5.2009 an.
...
Auf Seite 144 ist eine Grafik zum ATI-Stream-SDK (Oberbegriff für GPGPU unter dem alles zusammengefasst wird) abgebildet.
...
Der OpenCL-Compiler übersetzt zur Laufzeit das Programm in die Intermediate Language (IL). Diese wird dann vom CAL-Interface in Maschinencode umgesetzt. Damit der Code optimal ausgeführt werden kann, muss also ATI sowohl den OpenCL-Compiler als auch das CAL-Interface weiterentwickeln ... und damit das ATI-Stream-SDK.
Ob man noch groß an Brook+ entwickelt, weiß ich nicht.
...
Das Video-Transcoding läuft ja auch unter dem Bergriff ATI-Stream.
...
Das Gegenstück zu CAL ist PTX (Low-Level-Interface, Parallel Thread Execution) bei Nvidia ...
Mir ging es primär um den Stellenwert der Brook+ und CAL Programmierschnittstellen. In einer älteren Meldung steht, dass AMD sich auf DirectX-11 und OpenCL konzentrieren wird: "AMD gibt CTM auf. RV870 beherrscht DirectX-11".

Die ein Jahr spätere Meldung "AMD veröffentlicht Stream SDK Beta v2.0 mit OpenCL Unterstützung" zeigt ja den Stellenwort der eigenen Schnittstellen (Brook+, CAL). Sie wird nach wie vor unterstützt, aber OpenCL und DirectX-11 Compute Shader werden in den Vordergrund gerückt.
Das zeigt die Pressemeldung von AMD recht deutlich: "AMD Delivers and Submits for Certification Industry’s First OpenCL Software Development Platform for x86 CPUs".

Nvidia hingegen bleibt beinhart parallel bei CUDA und betont, dass sie auch OpenCL und Microsofts kommende GPGPU-Schnittstelle unterstützen wollen.

Was ich nicht mehr auf dem Tablett hatte, das war, dass AMD nach wie vor die GPGPU-Tools in der SDK Nr. 2 Subsummiert. Die eigene SDK Stream ist nicht tot, sie ändert sich aber qualitativ in Richtung allgemein verfügbare breit unterstützte Standards.
 
Die eigene SDK Stream ist nicht tot, sie ändert sich aber qualitativ in Richtung allgemein verfügbare breit unterstützte Standards.
Miv fällt gerade ein.
Umso schlimmer wäre es, wenn sich GT300 & somit Cuda sich (deutlich) verspätet alias 6+ Monate nach RV870 kommt.
Denn dann sieht man ja wie wichtig es ist den Standard zu nutzen, der von allen Unterstützt wird, da im Falle von Problemen man eben andere Grafikkarten nutzten kann, anstatt ewig auf z.B. GT300 (& Cuda 3.0) zu warten.
 
Mir ging es primär um den Stellenwert der Brook+ und CAL Programmierschnittstellen. In einer älteren Meldung steht, dass AMD sich auf DirectX-11 und OpenCL konzentrieren wird: "AMD gibt CTM auf. RV870 beherrscht DirectX-11".
Habe nichts anderes behauptet. Wenn man das ganze mal möglichst simpel betrachten will, dann wird letzten Endes einfach Brook+ durch OpenCL ersetzt. CAL wird es hingegen weiterhin geben. Denn CAL ist das Interface zur Hardware und wird sowohl von OpenCL als auch Compute Shader genutzt.

Die ein Jahr spätere Meldung "AMD veröffentlicht Stream SDK Beta v2.0 mit OpenCL Unterstützung" zeigt ja den Stellenwort der eigenen Schnittstellen (Brook+, CAL). Sie wird nach wie vor unterstützt, aber OpenCL und DirectX-11 Compute Shader werden in den Vordergrund gerückt.
Wie ich schon in dem verlinkten Thread angemerkt habe, unterstützt diese Version die GPUs nicht! Es werden nur die AMD CPUs unterstützt.

Das zeigt die Pressemeldung von AMD recht deutlich: "AMD Delivers and Submits for Certification Industry’s First OpenCL Software Development Platform for x86 CPUs".

Nvidia hingegen bleibt beinhart parallel bei CUDA und betont, dass sie auch OpenCL und Microsofts kommende GPGPU-Schnittstelle unterstützen wollen.

Was ich nicht mehr auf dem Tablett hatte, das war, dass AMD nach wie vor die GPGPU-Tools in der SDK Nr. 2 Subsummiert. Die eigene SDK Stream ist nicht tot, sie ändert sich aber qualitativ in Richtung allgemein verfügbare breit unterstützte Standards.
Da es bei dieser Pressemitteilung um das gleiche SDK geht das nur CPUs unterstützt, hat CAL und Brook+ hier auch nichts verloren!

Today, AMD is delivering the first beta release of an OpenCL implementation for the CPU.
Quelle



MfG @


Edit:

Ich zitiere aus den FAQ des ATI Stream SDK v2.0-beta2:
4. What is the difference between the CPU and GPU components of OpenCL that are
bundled with the ATI Stream SDK?

The CPU component uses the compatible CPU cores in your system to accelerate your
OpenCL compute kernels; the GPU component uses the compatible GPU cores in your
system to accelerate your OpenCL compute kernels.

5. When will the ATI Stream SDK v2.0-beta2 with OpenCL 1.0 GPU support be shipped?
The GPU version of OpenCL to be bundled with the ATI Stream SDK is scheduled to be
available later in Q3 of 2009.

7. What CPUs does the ATI Stream SDK v2.0-beta2 with OpenCL 1.0 support work on?
The CPU component of OpenCL bundled with the ATI Stream SDK works with any x86 CPU
with SSE3 or later. AMD CPUs have supported SSE3 (and later) since 2005. Some examples
of AMD CPUs that support SSE3 (or later) are the AMD Athlon™ 64 (starting with the
Venice/San Diego steppings), AMD Athlon™ 64 X2, AMD Athlon™ 64 FX (starting with San
Diego stepping), AMD Opteron™ (starting with E4 stepping), AMD Sempron™ (starting with
Palermo stepping), AMD Phenom™, AMD Turion™ 64, and AMD Turion™ 64 X2.

8. What GPUs does the ATI Stream SDK v2.0-beta2 with OpenCL 1.0 support work on?
The CPU component of OpenCL that is bundled with the ATI Stream SDK does not make
use of GPU acceleration. The exact list of compatible GPUs for the GPU component of
OpenCL to be bundled with the ATI Stream SDK will be provided when that release is made
available.

14. Which graphics driver is required for the current ATI Stream SDK v2.0-beta2 with
OpenCL 1.0 CPU support?

The CPU component of OpenCL that is bundled with the ATI Stream SDK does not make
use of GPU acceleration. The exact list of compatible GPUs for the GPU component of
OpenCL to be bundled with the ATI Stream SDK will be provided when that release is made
available.
 
Zuletzt bearbeitet:
... Wie ich schon in dem verlinkten Thread angemerkt habe, unterstützt diese Version die GPUs nicht! Es werden nur die AMD CPUs unterstützt. ...
Der Link führt auf die Stream SDK:

"Home > GPU Tools > ATI Stream SDK v2.0 Beta "

Als neu in der damaligen Featurelist wurde die Unterstützung von AMD-Prozessoren genannt. Natürlich werden in der Stream SDK ATI-GPUs unterstützt (hätte sonst auch kaum Sinn so etwas Stream zu nennen).


... Da es bei dieser Pressemitteilung um das gleiche SDK geht das nur CPUs unterstützt, hat CAL und Brook hier auch nichts verloren! ...
Zu CAL und Brook kann ich dazu nichts weiter sagen.
Da die SDK aber auch OpenCL und DX11 unterstützt, hat die Nennung von Prozessoren durchaus Sinn. Die APIs sollen ja auch Prozessoren ausnutzen. Bei OpenCL ist da sogar der Cell drin, der eben keine GPU ist.

Nachtrag: Welchen Sinn hat eine SDK, die vormals für GPU-Computimg vorgesehen war, wenn nun darin nur noch zwischenzeitlich eigene Prozessoren unterstützt werden? Ist es dann überhaupt berechtigt von "Unterstützung" zu sprechen. Also für die AMD/ATI-Sprachakrobatik in der FAQ habe ich kein Verständnis. Und vor allem, wem nützt es? Frei nach dem Motto: "Neuer Keksriegel: Twixx ohne Raider, dafür mit M&Ms" darf man dann noch von einem Keksriegel sprechen?
 
Zuletzt bearbeitet:
Der Link führt auf die Stream SDK:

"Home > GPU Tools > ATI Stream SDK v2.0 Beta "

Als neu in der damaligen Featurelist wurde die Unterstützung von AMD-Prozessoren genannt. Natürlich werden in der Stream SDK ATI-GPUs unterstützt (hätte sonst auch kaum Sinn so etwas Stream zu nennen).

Das mit dem Link verstehe ich nicht! *noahnung*


Hast du meinen Edit gesehen? Das sind Zitat aus der FAQ von dem SDK was du noch mal verlinkt hast!


MfG @


Edit:

Nachtrag: Welchen Sinn hat eine SDK, die vormals für GPU-Computimg vorgesehen war, wenn nun darin nur noch zwischenzeitlich eigene Prozessoren unterstützt werden? Ist es dann überhaupt berechtigt von "Unterstützung" zu sprechen. Also für die AMD/ATI-Sprachakrobatik in der FAQ habe ich kein Verständnis. Und vor allem, wem nützt es?
Beide Teile sollen später zusammengeführt werden.
Wie oben in meinem c't Zitat drin steht, sollen durch OpenCL ja auch andere Prozessoren neben den GPUs unterstützt werden! Sieh es als evolutionären Schritt hin zu Fusion an.

FAQ des SDK schrieb:
15. How does OpenCL compare to other APIs and programming platforms for parallel
computing, such as OpenMP and MPI? Which one should I use?

OpenCL is designed to target parallelism within a single system and provide portability to
multiple different types of devices (GPUs, multi-core CPUs, etc.). OpenMP is targets multicore
CPUs and SMP systems. MPI is a message passing protocol most often used for
communication between nodes; it is a popular parallel programming model for clusters of
machines. Each programming model has its advantages. It is anticipated that developers will
mix APIs, for example programming a cluster of machines with GPUs with MPI and OpenCL.


(*) Xzibit
 
Zuletzt bearbeitet:
Zurück
Oben Unten