FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
Schaut euch doch einfach mal LuxMark an, da sieht man, dass das Ganze echt gut funktionieren würde. Aber wenn man sich die Probleme ansieht, die sich ergeben haben, dann wird klar, dass viele Programmierer diesen Aufwand scheuen, vor allem, wenn man dann die ganzen Leute, die "nur" Intels CPU+GPU Kombi haben quasi außen vor lässt und das sind ja nicht wenige.
Und wen interessiert das dann läuft das bei Intel Platformen halt auf der CPU, die meisten intel jünger sind eh der meinung sie haben genug Rechenleistung in der CPU. Ist für OpenCl keine Hürde eher ein vorteil die SW holt dann aus jeder Platform die maximale Leistung raus, dafür ist OpenCl ja gemacht muss ja kein HW spezifische erweiterungen verwenden, die widersprechen eh dem Prinzip des OpenCl konzept auch wenn es erlaubt ist.
 
Auf die Frage, warum das mit OpenCL nicht in die Gänge kommt, hieß es auf der CeBIT, dass Brazos eben nur LowEnd ist und nicht die performance bietet, um sowas sinnvoll zu promoten (obwohl ich hier bei LuxMark sehe, dass sich unter Nutzung der GPU die Performance selbst beim C-50 in vielen Fällen unter Nutzung von OpenCL durchaus verdoppeln ließe).

Wobei die "Lowend performance" von einem E350 z.B. unter OpenCL schon sehr beachtilich ist. In einem Anwendungsfall schafft mein E350 mit OpenCL-Berechnungen den doppelten Durchsatz von meinem Phenom X6 @ 3,8GHz. Und beim E350 idlen die CPU-Kerne sogar noch. In dem Fusion Konzept steckt eine Menge Potential! Wird Zeit das mehr Software auf den OpenCl Zug aufspringt!
 
Wobei die "Lowend performance" von einem E350 z.B. unter OpenCL schon sehr beachtilich ist. In einem Anwendungsfall schafft mein E350 mit OpenCL-Berechnungen den doppelten Durchsatz von meinem Phenom X6 @ 3,8GHz. Und beim E350 idlen die CPU-Kerne sogar noch. In dem Fusion Konzept steckt eine Menge Potential! Wird Zeit das mehr Software auf den OpenCl Zug aufspringt!

Das ist doch in der Tat erstaunlich - das zeigt doch, dass prinzipiell moeglich ist, auch wenn es vermutlich eine sehr eng gefasste Anwendung ist, oder?

Was nun fehlt ist die Software und Entwickler, die das Potential erkennen und verstehen, dass da draussen viele potentieller Nutzer (in Sinne von Hardware) gibt - aber AMD versucht ja jetzt ein wenig die Trommel zu ruehren - vermutlich eine Trommel, die fuer AMD vielleicht mit entscheidend fuer die (APU)Zukunft ist und hoffentlich ihren Widerhall findet.
 
@ Cumec:
Das würde mich auch interessieren. Hast du einen Link zu diesem Anwendungsfall?
 
Zu der Software kann ich leider keine genauen Angaben machen. Kann hier aber heute abend noch aequivalente Tests einstellen die jeder nachvollziehen kann.
 
Ob OpenCL angenommen wird, ist für AMD in der Tat eine richtungsweisende Frage.
Da wird man neben viel Überzeugungsarbeit auch einige Dollars in die Hand nehmen müssen.
Allerdings hat AMD da mächtige Gegenspieler, die kein Interesse haben das OpenCL sich durchsetzt. nVidia bevorzugt aus verständlichen Gründen proprietäre Produkte und Intel hätte es am liebsten, das alles so bleibt wie es ist. Zudem ist AMD in der Vermarktung alles andere als geschickt.

Ich bin da nicht sehr optimistisch.
 
...

Ich bin da nicht sehr optimistisch.

Dass AMD bessere Produkte baut als das es Marketingstrategie entwickeln ist ja mehr als deutlich - das eine ist gut, das andere oft eine Katastrophe - warum auch immer.

Aber die Bemuehungen sind ja da - auch wenn der Developer Summit viel zu spaet kommt, aber er kommt. Mit viel Dollar wedeln kann AMD leider nicht - aber ich denke dennoch, dass hier jeder AMD Dollar gut angelegt ist.
Wenn AMD zu Intel aufschliessen will oder irgendwo mittelfristig ueberholen kann, dann ist es doch vermutlich hier. Aber dazu braucht es Mommentun - und zwar fuer OpenCL.

Wie man das hinbekommen kann, keine Ahnung - Hilfe fuer der OpenSource Gemeinde?
Bessere Tools? Endlich Gamephysik durch OpenCL in einem Game Blockbuster?
 
Die Physik wäre vorhanden, sie wird nur nicht eingesetzt.
Ist irgendwem schonmal der Gedanke gekommen dass die vielen PhysX-Adaptionen nicht daher kamen dass man ohne nicht zocken kann, sondern weil NV viel Kosten und Mühen auf sich genommen hat und mit Manpower den Entwicklerstudios unter die Arme gegriffen...?
NVidias guter Schlag bei der Entwicklergemeinde kommt nicht von ungefär.
Aber sowas muss man sich leisten können. AMD hat anscheinend kaum genug leute um die Treiber-Releases vernünftig zu pflegen, von Aushilfe bei irgendwelchen Spieleproduzenten um eine Physikengine für die zu schreiben mal ganz abgesehen.
Und bei Blockbustergames würde das eher mit DirectCompute realisiert, weil da die Integration zu DirectX leichter geht als mit OpenCL.
OpenCL ist nur da praktisch wo entweder Plattformunabhängig entwickelt wird (OpenGL) oder wo es computing-intensive Aufgaben gibt die nichts mit Games zu tun haben und daher auch nicht DirectX angelastet sind.
Wollte nicht mal irgend ein Hersteller nen Virenscanner basteln der CUDA benutzt? *noahnung*
Bessere tools sind sowieso von Nöten... aber auch die kommen nicht von allein.
Fakt ist, zuerst muss eine Infrastruktur her, dann kommt die Software. Niemand schreibt ein Programm dass nur auf 10% der Maschinen beim Kunden läuft... *noahnung*
 
Ich will keine Werbung machen - aber fuer alle c't Abonnenten und Llanointerssierten - in der naechsten Ausgabe soll es einen 'Test' von Llano gegeben.
 
Na hoffentlich ist der besser als die Berichterstattung über Bulldozer...
Inzwischne würd ich denen zutrauen "Fail" darunter zu schreiben, wenn Llano es nicht schafft den 2600er Sandy Bridge im Monte-Carlo Bench zu schlagen o_O
 
... Niemand schreibt ein Programm dass nur auf 10% der Maschinen beim Kunden läuft... *noahnung*

Ja, das ist ein wenig das Henne und Ei Problem. Es gibt ja (noch) nichts, was zwingend auf OpenCL oder dergleichen angewiesen ist. Aber ich denke, dass OpenCL 1.1 doch auf allen ATI GPUs ab 5XXX und jede CPU von Intel und AMD sollte es auch koennen (wenn natuerlich nicht mit 'der' Performance) laufen sollte?

Sicherlich einen Gameblockbuster mit OpenCL auszustatten ist sicherlich (noch) utopisch - waere aber ein gutes PR Vehikel.
Bleibt AMD nur fuer bessere Tools/Doku der eigenen OpenCL-faehigen Hardware zu sorgen.

Und vielleicht den einen oder anderen Software Ing. einzustellen, der das entsprechend vertritt und foerdert - er kann ja mit besseren Treibern anfangen... und ansonsten irgendwelche Demos basteln ;-).
.
EDIT :
.

...
Inzwischne würd ich denen zutrauen "Fail" darunter zu schreiben, wenn Llano es nicht schafft den 2600er Sandy Bridge im Monte-Carlo Bench zu schlagen o_O

Nee, ich traue ihnen da mehr zu... aber wenn c't einen Test macht - dann sollten doch anderen Medien nicht weit sein - sprich es koennte wirklich etwas mit dem 14/15.06 werden, oder?
 
Ja, das ist ein wenig das Henne und Ei Problem. Es gibt ja (noch) nichts, was zwingend auf OpenCL oder dergleichen angewiesen ist. Aber ich denke, dass OpenCL 1.1 doch auf allen ATI GPUs ab 5XXX und jede CPU von Intel und AMD sollte es auch koennen (wenn natuerlich nicht mit 'der' Performance) laufen sollte?
Das Problem dabei ist, dass du in dem Fall gleich auf GPUs verzichten kannst.
Für eine CPU zu entwickeln ist kinderleicht, lad dir Visual Studio runter, Code los und verscherbel das Ergebnis im Internet...

Um OpenCL zu benutzen, brauchst du extra das SDK, musst dich einarbeiten, musst deinen Algorithmus entsprechend Parallelisieren, musst womöglich Anpassungen für CPU/GPU an den Funktionen vornemen damit es halbwegs effizient läuft usw.
Das lohnt sich nur wenn am Ende wirklich signifikante Vorteile herausspringen. *noahnung*
Wenn es nachher auf 90% der Maschinen sowieso per CPU laufen muss weil die IGP es nicht bringt... wozu dann den OpenCL-Aufwand betreiben?
Das Ganze ist ein langsamer Prozess... Llano muss zuerstmal mit guter Akkulaufzeit, energieeffizienz und Preis punkten. Damit die Notebooks auch verkauft werden. Wenn dann mal ein paar davon im Umlauf sind, kommt die Software schon irgendwie auf den Trichter die Leistung der Shader auch anzuzapfen... aber im Moment ist die Hürde einfach noch zu hoch.
Immerhin hat AMD sich Manju Hedge geschnappt, der lange Zeit bei NV für CUDA zuständig war, das könnte mittelfristig dazu beitragen einen besseren Stand bei den Entwicklern zu bekommen... Aber erwartet nicht dass ihr morgen MS EXCEL in der Llano-Edition runterladen könnt...
 
Interessante Statements.
I also have to give kudos to Nvidia for coming out with CUDA and pushing the whole GPGPU market in a certain direction. I've been saying for a long time that CUDA's not going to exist forever, it's going to go away – it's proprietary.
...
Intel just announced its OpenCL certification last week, so all of a sudden our friends at Intel have joined the industry standard OpenCL.
...
I think the way to answer it is to say that AMD as a company made a very, very big bet when it purchased ATI: that things like OpenCL will succeed. I mean, we're betting everything on it. Our most important major product launch is Llano. We're an APU company; that is our priority – we've given that direction to the investment community, our CEO has said over and over that our priority now and for the future is APUs, so it's a very big bet.
...
Would AMD consider developing an ARM CPU too? : Our boss John Taylor recently did some interviews with other publications where he said that obviously we're looking at what's best for AMD, and how we could proceed with that, and we are going to be investigating different paths.

Die Entwicklung eines ARM Prozessors schliesst AMD also nicht kategorisch aus. ARM + Radeon in Smartphones?
 
@Ge0rgy

Die wichtigsten Ziele von OpenCL sind:
a. Code hochgradig zu parallelisieren.
b. Abstraktion der Hardware.

Wenn ich beides benötige, ist OpenCl schon eine Option. Auch ohne GPU.
 
zu a) was soll das bringen wenn ich nicht auf GPUs abziele?
zu b) das können .Net und Java auch... *noahnung*
Dazu noch 1000 Frameworks für auto-vektorisierung, multithreading und schlagmichtot
 
zu a) was soll das bringen wenn ich nicht auf GPUs abziele?
zu b) das können .Net und Java auch... *noahnung*
Dazu noch 1000 Frameworks für auto-vektorisierung, multithreading und schlagmichtot
zu a) Intel hat auf der SIGGRAPH mal gezeigt, wie gut OpenCL mit Hilfe von SIMD Rechenkernels parallelisieren kann. Sie kamen recht nah an handoptimierten SSE-Code, haben aber nur OpenCL mit ein paar Code-Anpassungen verwendet.
Aber GPUs sind natürlich noch bessere Ziele als SIMD-Erweiterungen.

zu b) Gut, für Java gibt's nun "APARAPI" (oder so). Aber .Net und Java verfolgen vorwiegend andere Ziele mit ihrer Hardwareabstraktion.
 
So, hier jetzt mal ein paar Zahlen wie versprochen.
Habe ein wenig gesucht nach OpenCL fähigem. Und da habe ich ein Tool vom momentan gehypten BitCoin zeugs gefunden. Und zwar einen Miner. Dieser berechnet Hashwerte. Benutzt habe ich den GUIMiner in der Version 2011-05-21. Betriebssystem jeweis Win7 Professional 64 bit. Treiber war der aktuelle Catalyst mit der 2.4er Stream runtime.


Testsystem 1:
Phenom X6 @ 3.8 GHz
8GB DDR2
790G onbord.
Der Test lief auf der CPU (790G funzt hier nicht)

Wert: 4,7 MHashes/sec.

System2:
Asrock E350M1
2GB DDR3 - 1333

Wert nur auf der CPU: 0,4MHashes/s
Wert mittels OpenCL auf Shader: 7,9 MHashes/s

Das ist ein schönes Beispiel wie die APUs mit Hilfe von OpenCL richtig abgehen können. Hier mehr Leistung als bei meinem X6 bei bedeutend weniger Leistungsaufnahme! Ausserdem waren während der OpenCL Berechnung die CPU-Kerne nur zu ca. 10% ausgelastet. Ein paralleles Arbeiten machte keinerlei Probleme! Hoffe das AMD in Sachen OpenCL - Verbreitung wirklich mal Gas gibt...
 
Das Potential von OpenCL ist glaube ich keine Frage, das Problem ist die Vermarktung.
Am stärksten profitiert AMD dann Apple, schwierig jenseits des Apfels dafür Programmierer zu finden und wie schon erwähnt AMD ist schon mit Treiber ge-(über)fordert.
Aber das Problem hatten wir auch schon öfter analysiert, bin mal gespannt wann OpenCL wirklich eine Marktbedeutung hat, vermutlich wenn die Intel GPU´s das auch vernünftig können.
 
Wenn AMD bereits Trinity Samples hat, dann ist das TapeOut mit sicherheit bereits erfolgt :), wenn Trinity die Bulldozer-1 Cores als Basis hat, dann müsste der Launch in ca. 6-9 Monaten stattfinden, mit Glück noch vor Ivy Bridge
 
Diesmal ohne Holzschrauben. Doch lassen die letzten offiziellen Schnitzer vermuten, dass in den Gemächern von AMD ein Holzwurm sein Unwesen treibt. Strategische Verschiebung durch Holzböcke, Marketing-Köpfe aus Holz, geleimte Kunden, eine holzige Vorstellung, und ganz inoffiziell fallen von allen Seiten mächtig Späne.
 
Wenn AMD bereits Trinity Samples hat, dann ist das TapeOut mit sicherheit bereits erfolgt :), wenn Trinity die Bulldozer-1 Cores als Basis hat, dann müsste der Launch in ca. 6-9 Monaten stattfinden, mit Glück noch vor Ivy Bridge
Sollte in Trinity nicht BD2 wandern?
 
Ja, Trinity mit BD-Next-Gen-Cores. Wenn Llano und Bulldozer sich schon verzögern, wird Trinity wohl kaum vor Ivy Bridge kommen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten