AMD erklärt den neuen Fusion Prozessor

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<div class="newsfloatleft"><a href="http://www.planet3dnow.de/photoplog/index.php?n=3075"><img src="http://www.planet3dnow.de/photoplog/file.php?n=3075" border="1" alt="Fusion"></a></div>Neben dem heute vorgestellten <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1221719093">Fusion Gaming Tool</a> hat AMD nun auch seine <a href="http://fusion.amd.com" target="_blank">Fusion-Webseite</a> freigeschaltet, auf der interessierte Besucher sich das neue Konzept erläutern lassen können.

Wie bereits mehrfach auf Planet 3DNow! berichtet folgt der Fusion dem Konzept des heterogenen Multi-Core Prozessors. Während alle aktuellen x86-Prozessoren (Core 2 Quad, Phenom) homogene Multi-Core Prozessoren sind, weil sie zwar viele, aber identische Kerne in sich tragen - nämlich x86-CPU Kerne - besitzt ein heterogener Multi-Core Prozessor unterschiedliche Kerne für unterschiedliche Aufgaben.

Ein Beispiel eines bereits existierenden heterogenen Multi-Core Konzepts ist <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173999674">IBMs Cell-Prozessor</A>, wie er etwa in der PS3 zum Einsatz kommt. Dieser Prozessor trägt einen "normalen" Power-PC Kern für I/O, Verwaltung und zwecks Kompatibilität mit der Power-PC Software-Welt und zusätzlich 7 oder 8 SPEs, spezielle auf hohen Durchsatz optimierte Kerne, auf welche die mathematischen Funktionen ausgelagert werden können. Im Grunde ähnelt das Konzept dem des klassischen x87 Co-Prozessors aus der Zeit, als PC-Prozessoren noch keine mathematische Fließkomma-Einheit enthielten - allerdings auf einem höheren Niveau. Einen ähnlichen Ansatz verfolgt der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1213095800">IBM Super-Computer Roadrunner</a>. Hier schieben normale AMD Opterons ihren Dienst, wobei jedem Opteron ein IBM Cell-Prozessor als Co-Prozessor angeflanscht wurde. Der Opteron für die Kompatibilität mit der x86-Welt, der Cell als Arbeitsbiene im Hintergrund.

Beim Fusion macht sich AMD nun zu Nutze, dass moderne Grafik-Prozessoren (GPUs) bereits wahre Rechenmonster sind mit dutzenden Shader-Prozessoren und mehreren hundert GFLOPS Leistung. Allerdings sind GPUs zu "dumm", um sie selbst als CPU einsetzen zu können (von der fehlenden x86-Kompatibilität abgesehen). Daher pflanzt AMD der CPU so eine GPU als Co-Prozessor ein. Konzepte wie dieses - GPGPU (General Purpose GPUs) - existieren bereits heute, indem moderne Grafikkarten wie ATIs X1800/1900/HD2000/3000 Reihe oder NVIDIAs Cuda-Grafikkarten (GeForce 8 aufwärts) über spezielle Programmierschnittstellen als Rechenhilfen genutzt werden. Populäres Beispiel: siehe <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1219757451">Folding@Home</a>, siehe <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1220518421">GPUGrid</a>.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=3076"><img src="http://www.planet3dnow.de/photoplog/file.php?n=3076" border="1" alt="Fusion"></a></center>

Bei Fusion jedoch wandert diese GPU nun direkt auf die CPU. Wie das aussehen soll, zeigen die AMD Fusion Whitepaper. Gerechnet werden darf mit Fusion Ende 2009.

<b>Links zum Thema:</B><ul><li><a href="http://fusion.amd.com" target="_blank">Fusion Homepage</a></li><li><a href="http://www.amd.com/us/MarketingDownloads/AMD_fusion_Whitepaper.pdf" target="_blank">Fusion Whitepaper</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197635765">AMD mit Accelerated Processing Unit "Swift"</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1201340879">AMD bestätigt Pläne zum Fusion</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1212593227">AMD wird den Fusion alias Swift in Dresden fertigen</a></li></ul>
 
lang her das ich das mal gesagt habe...aber Respekt AMD...das Logo sieht geil aus...genau wie der Rest der Seite.
Außerdem find ichs toll endlich mal wieder ein Jahr früher informiert zu werden als 2 Wochen nach einem stillen und heimlichen Produktrelease irgend eine Powerpointfolie auf ner Chilenischen Seite zu lesen...

Der Herr Dessau war wohl wirklich ein lohnender Einkauf...erst das Blog...jetzt diese Kampagne...und Herr Meyer ist auch deutlich "vorzeigbarer in der Werbung" als her Ruiz :)
 
Ich wage mir kaum vorzustellen, wie schön die Rechnerei werden könnte, wenn endlich das Potential der GPU-Einheiten für normale Programme verfügbar würde...
 
Ja, sieht in der Tat so aus, als hätte die Marketingabteilung sich dabei was gedacht. Dem Aktienkurs tut es sicherlich ganz gut, wenn ein schlüssiges Konzept vorgelegt wird (wobei der Aktienkurs dank der momentanen Börsenlage sowieso Fahrstuhl fährt).

Wichtig ist jetzt aber auch, daß es erstens bei der Hardware nicht noch weitere Verzögerungen gibt (AMD sollte möglichst weit vor Intels Havendale in den Markt kommen), und daß es zweitens genug Entwicklerunterstützung seitens AMD gibt, damit möglichst zügig möglichst viele Programme von der GPU Gebrauch machen.

Hier wärs wirklich mal wichtig, daß AMD ranklotzt, denn im Gegensatz zu 64bit, was Intel einfach übernommen hat und damit selber unterstützt, fahren hier Intel, AMD und Nvidia jeweils andere Strategien: Nvidia mit CUDA, Intel mit unterschiedlich gearteten x86-Cores (z.B. Larrabee) und eben AMD mit einem Mischmasch. Der Vorteil für AMD ist, daß sie kurzfristig (wenn erstmal nur die Grafik die Hauptrolle spielt) theoretisch gut aufgestellt sind und sich damit einen ordentlichen Marktanteil erbeuten können. Das muß dann aber voll ausgewalzt werden, so daß in einigen Jahren alle CPUs von klein bis groß Fusion-CPUs sind.
 
Hübsches Logo!

Ich frage mich aber gerade, ob der Fusion nur eine Performancesteigerung bringen soll, oder etwa eine Graka bzw. onboard Graka (im Chipsatz) hiermit überflüssig wird?!
 
Ist eigendlich der Accelerator näher spezifiziert ?
Bisher klang das Fusion-Konzept immer nach einer billigen Lösung für untere Performanceanforderungen, die gleichwohl für AMD aufgrund der Verdichtung hochrentabel sein soll (etwa wie der Atom für Intel :-* ) Nun klingt es so, als kämen da durchaus auch höhere Ambitionen dazu... Auch merkwürdig ,.... es war eigendlich immer von einem Doppelkern plus GPU die Rede das Schaubild des Artikels zeigt aber 3 CPU-Felder *suspect* ... Konzeptionell ist es sicher interessant x86-64CPU und Hochleistungs GPU besser zu verzahnen und dem lässt sich durchaus auch auf höhere Regionen skalliert was abgewinnen ;D!. Können sich doch beide recht gut ergänzen... wenn man jemanden findet der es effizient programmiert ( was ich mir nicht ganz trivial vorstelle :o )

Mmoe
 
Ist eigendlich der Accelerator näher spezifiziert ?
Jo, das bedeutet, dass Du die GPU nicht mit Grafikdaten zur Monitorausgabe fütterst, sondern irgendwas berechnen läßt.

--> Nur Marketing, andrer Name für den gleichen Chip, sowas ähnliches wie die FireStreamkarten, die verwenden auch den gleichen Chip, nur andre Software (Treiber).

ciao

Alex
 
Bisher klang das Fusion-Konzept immer nach einer billigen Lösung für untere Performanceanforderungen
Naja, AMD hat aber auch irgendwie verlautbaren lassen, dass man damit auch im Server Markt Mitmischen will, also von anfang an von top to bottom geplant.

Übrigens erwähnte man bei der Grafik die Leistung einer HD3850 oder 3870...
 
[3DC]Payne;3725757 schrieb:
Übrigens erwähnte man bei der Grafik die Leistung einer HD3850 oder 3870...
Jo kommt hin, das wurde schon ganz am Anfang verlautbart, dass die Grafik auf R600 Niveau sein sollte. Man kann also ziemlich sicher von 320 Shader ausgehen.

ciao

Alex
 
man kann ja nich dauern superpien , weils so schoen is.

und ob word im schader besser läuft ?

man stelle sich mal 40 gleichzeitige korrekturvorschläge vor

;-)
 
Ich finde vor allem den letzten Absatz irreführend und nicht ganz richtig, er erweckt den Eindruck, daß AMD mit 'Fusion' eine Art FPU-Alternative ins Rennen schickt. Schöne Märchenwelt. Die Realität sieht leider ganz anders aus!

Ich bin selber auf der Suche nach Möglichkeiten, eine GPU als GPGPU nutzbar zu machen. Und das scheitert an vielen Dingen. In vielen Fällen ist 'GP' gar nicht gerechtfertigt, da die notwendigen API ganz und gar nicht generell ausgelegt sind. AMD hat das Projekt CAL 'schlafen' gelegt, nVidias CUDA ist nur unter Windows wirklich ernsthaft einsetzbar und unter Linux nur mittels BLOB. Im Projekt der Stanford-Universitäet arbeitet ein nicht unerheblicher Stab Wissenschaftler und Informatiker an den bekannten CUDA- und CAL-Implementationen, die allerdings nur für ein proprietäres Projekt nutzbar sind. Wer die GSL, ATLAS oder NAG-Bibliotheken nutzt, hat leider keinen Zugriff auf die enorme Rechenleistung. In Zukunft will man mit speziellen Objekten innerhalb OpenGL 3.0 Shader-Code über OpenGL an die GPU senden, um die GPU 'Single-Precission' Operationen ausführen zu lassen, aber das ist bisher noch Zukunftsmusik.

FUSION wird deshalb nichts weiteres sein als eine CPU, die ihre Graphik gleich mitbringt. Alles andere ist mit derzeitigen Graphikkarten auch machbar und FUSION wird nicht mehr können, als derzeitige Graphikkartenkonzepte, vielleicht im Rahmen der Weiterentwicklung etwas leistungsfähiger sein als heutige Spitzenprodukte. Hierbei den GPGPU-Aspekt besonders herauszuheben ist reine Augenwischerei und wieder einmal AMDsches Traumdeuten. Die vor zwei Jahren groß angekündigte CELL Anbindung für kleinere Workstations ist bis heute nicht vorhanden, obwohl sie theoretisch mit AMDs Design leicht realisierbar wäre. Eine K10 auf einem Sockel, eine CELL auf dem anderen Sockel. So die Theorie. Dann ist auf der Softwareseite das Problem einer mathematischen Bibliothek und/oder einer C/Fortran Schnittstelle nicht gelöst.

Wir wissen alle, wie schwer die Krise bei AMD ist und allen ist gewiß, oder sollte, noch jenes Desaster um Versprechen und Wirklichkeit in Erinnerung sein. Nur in einem großen Projekt findet sich die CELL CPU mit Opteronen gepaart, es gibt kaum Mainboards, die einen HTx anbieten, schon gar nicht mit vernünftigem Chipsatz zur Nutzung des K10-Potentials. Und jetzt soll es Fusion richten ...
 
Ich finde vor allem den letzten Absatz irreführend und nicht ganz richtig, er erweckt den Eindruck, daß AMD mit 'Fusion' eine Art FPU-Alternative ins Rennen schickt.
Der Absatz erweckt nicht nur den Eindruck und irreführender Weise erst recht nicht, das ist ganz offiziell das Ziel des Fusion-Konzepts. Siehe Whitepaper:
The next processor generation is focused on creating heterogeneous multicore computer systems: computers with multiple processors that have different capabilities. A heterogeneous multicore system could contain several general purpose CPUs plus several accelerators designed to enhance the performance of a particular function (Figure 3). This processor generation is at the heart of accelerated computing. And interestingly, its emergence is analogous to the introduction of math coprocessors in the early days of personal computing. When the original IBM PC was introduced in 1979, it contained an 8088 CPU, which did not include a math coprocessor because most software at the time was not math intensive. Anyone who needed more advanced math functions bought an 8087 floating point math coprocessor and installed it in the extra socket available on the motherboard.

In a similar way, this next processor generation focuses on offloading certain processing functions to specialized hardware accelerators to improve overall performance.
As an integral part of accelerated computing, these processors provide the hardware foundation for today’s data-driven and media-rich computing experiences.
 
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=3076"><img src="http://www.planet3dnow.de/photoplog/file.php?n=3076" border="1" alt="Fusion"></a></center>

Bei Fusion jedoch wandert diese GPU nun direkt auf die CPU. Wie das aussehen soll, zeigen die AMD Fusion Whitepaper. Gerechnet werden darf mit Fusion Ende 2009.
3 Kerne ? Oder nur Schema ?

Accelerator ist wohl dann die SSE5 Unit in Mehrfachausführung ?

Schwach ist es, dass keine DIE-Plot oder zumindest ein detailliertes Schema wie DRAM-Anbindung, Socket, Performance der GPU, GDDR-Speicher etc. erscheint.

Im Prinzip hat AMD kurz nach der Fusion mit ATI 2006 schon detaillierter Schemas gezeigt wie heute.

Das ist also alles noch mehr im Fluß als real existierendes Silizium - zumindets als rechnerische Abbildung.

Was man aber entnehmen könnte wäre, dass die GPU nur optional und deaktivierbar ist.
Letztlich wie bei nvidia und wohl auch Intel bei der Northbridge. 50-70% der Kunden wollen IPC-Lösungen und der Rest bekommt die IPC eben werksseitig deaktiviert mit.

3 * K10 Cores zzgl. 1* GPU würden gegen den 2*2 Core Havendale (mit HT) in der Performance ausreichen.
Sowas könnte in DD in 45nm gefertigt werden und dazu noch kompatibel einen 40nm Shrike bei TMSC mit Dual-Core, kein Accelerator und GPU.

Alles sieht aber nach neuem Socket aus und AM3 wird wohl eher Exot bleiben.
Also LGA 1000+, dazu noch PCIe x16 Ausgänge und 2++ DRAM Kanäle.
3* DDR3 mit je 64 Bit Anbindung und ein GDDR5 Side-port RAM für die GPU würden schon reichen um gegen Intel anzukommen.
 
3 Kerne ? Oder nur Schema ?
Ich denke das ist nur ein Schema, das zeigen soll was prinzipiell möglich ist - On-Die und "discrete" (daher der Link zu dem externen Accelerator). Und der "Accelerator" dürfte - wie schon gesagt wurde - nichts anderes sein, als eine GPU ohne Monitor-Anbindung, also das was die ATI FireStream Karten jetzt schon sind.
 
Der Ansatz ist sehr schön, ich frag mich allerdings wie die GPU von dem Ding Performancemässig platziert werden soll.
Man beachte dabei mal die Speicherbandbreite einer aktuellen Grafikkarte im Vergleich zu der aktueller CPUs.
 
Sehr schönes Logo, wie auch der Rest des Designs enorm gut aussieht.

Jetzt muss nur noch die CPU gut sein. ;)
 
... Ich bin selber auf der Suche nach Möglichkeiten, eine GPU als GPGPU nutzbar zu machen. Und das scheitert an vielen Dingen. In vielen Fällen ist 'GP' gar nicht gerechtfertigt, da die notwendigen API ganz und gar nicht generell ausgelegt sind.
Mitunter brauchst du gar keine zusätzliche API installieren.

trend_gpu_gui-beschleunigung_2.jpg
Quelle

Ich nutze zur Zeit Vista und das mit verschiedenen Programmen, die tatsächlich parallel die GPU-Beschleunigungen mehr oder weniger nutzen.

Dazu gehört Magix, CyberLink, Adobe [...].

"Natürlich" wird die GPU nur dann verwendet, wenn du wirklich recht aktuelle Hardeware hast UND entsprechend aktuelle Software ... das integrierte "Accelerated"-Computing soll ja auch den Konsum anfeuern ...

Im Forum hatte ich auch schon entsprechendes geschrieben: "Kleine Rechenmonster für "Accelerated"-Computing".

MFG Bobo(2008 )
 
[3DC]Payne;3725757 schrieb:
Naja, AMD hat aber auch irgendwie verlautbaren lassen, dass man damit auch im Server Markt Mitmischen will, also von anfang an von top to bottom geplant.

..

Macht ja auch Zwieback , mein Kumpel Igor beschwehrt sich auch immer dass die ihn einfach nicht Bioshock auf dem Rackserver installieren lassen wollen *Muhahahaaar* *clap*...
Aber ernsthaf gerade bei kommerzielen Servern ist 3D-Beschleunigung nicht erstes Kriterium...

Mmoe
 
Aber ernsthaf gerade bei kommerzielen Servern ist 3D-Beschleunigung nicht erstes Kriterium...
Hehe, ich glaube bei Dir ist der Groschen bzgl. GPGPU noch nicht gefallen ;) Bei den Fusion-CPUs für Server ist die integrierte GPU nicht für 3D-Beschleunigung gedacht. Bei den meisten Servern läuft ja nicht mal eine grafische Oberfläche ;D Die integrierte GPU soll mathematische Berechnungen durchführen - also nichts mit 3D-Beschleunigung.

Lies Dir mal da hier durch, da wird recht schnell klar wohin die Reise führt :)

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1219757451
 
Der Absatz erweckt nicht nur den Eindruck und irreführender Weise erst recht nicht, das ist ganz offiziell das Ziel des Fusion-Konzepts. Siehe Whitepaper:

... und auf Napoleon Bonarparte geht folgendes zurück: "Fähigkeiten ohne die Möglichkeiten sind nichts."

Wenn große Teile der wissenschaftlichen und interessierten Gemeinschaft an einer konzeptionellen, allgemeinzugänglichen Umseztung zur Nutzung der heutigen GPUs als GPGPU scheitern, weil die Landschaft zu heterogen und vor allem verschlossen (keine wirklich offenen Standards) daherkommt, wie will ein so schwer angeschlagener Prozessorhersteller wie AMD ein solches Konzept verwirklichen? Bis Ende 2009 wird man gewiß noch einiges Wasser den Rhein herabfließen sehen, allerdings unter realistischen Bedingungen, und damit schließe ich die erneut auf AMD hereinbrechende Restrukturierung infolge der Abtrennung der Chipherstellung, könnte ein Kraftakt dieser Art vollends das Aus bedeuten. Sollte ich hier, was das Finanzmanagement betrifft, zu dunkel sehen, dann dürfte letztlich einem alternativen FPU-Konzept auf Basis der GPU keine sehr große Zukunft beschert sein. Das heißt nicht, daß ich es mir nicht wünschen würde, da eine AMD-GPU als DP-Rechner drei- bis vier Male schneller ist als ein vergleichbares Rechenwerk in den derzeit schnellsten Intel-CPUs. Schon heute werfen, zum Beispiel auch wir, AMD basierte Mehrsockelsysteme zugunsten günstigerer und (nicht unbedingt!) schnellerer XEON Systeme 'raus. Ich meine, wir stehen damit nicht stellvertretend für alle, aber AMD verliert zunehmend an Boden im Servermarkt und ich denke, daß gerade hier ein wirklich rechenstarker FUSION mit einer anfänglich propreitären GPGPU-Lösung für den Durchbruch sorgen kann und /oder könnte. Wer soll die notwendigen mathematischen Bibliotheken liefern, wenn nicht eine breite OpenSource Gemeinschaft? Sobald ein geschlossener Treiber ala nVidias GraKa Treiber nötig ist, messe ich der Sache wenig Chancen bei.

Nun ja, ist aber alles spekulativ. Letztlich kam im IBMK Superrechner ja auch die Hybridisierung CELL/Opteron, wenn auch nicht für den Massenmarkt.
 
... und auf Napoleon Bonarparte geht folgendes zurück: "Fähigkeiten ohne die Möglichkeiten sind nichts."
x87 nützt auch nichts wenn mans nicht verwendet, genausowenig wie SSE1,2,3,4,5 ..

Das Verwenden/Beschäftigen einer GPU ist zwar jetzt komplizierter als alten Code einfach mal durch nen neuen Compiler zu jagen, aber richtig Schwung kommt auch bei SSE.... erst durch Handoptimierung auf.

Von daher seh ich keine Probleme ... wenn AMD das denn am Markt durchdrücken kann. Mit OpenCL (übrigens ein offener, homogener Standard, nur MS fehlt) sieht das aber schon ganz gut aus.

ciao

Alex
 
Zuletzt bearbeitet:
Hehe, ich glaube bei Dir ist der Groschen bzgl. GPGPU noch nicht gefallen ;) Bei den Fusion-CPUs für Server ist die integrierte GPU nicht für 3D-Beschleunigung gedacht. Bei den meisten Servern läuft ja nicht mal eine grafische Oberfläche ;D Die integrierte GPU soll mathematische Berechnungen durchführen - also nichts mit 3D-Beschleunigung.

Lies Dir mal da hier durch, da wird recht schnell klar wohin die Reise führt :)

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1219757451

Diese 'Reise' wird in eine Nische führen. Solange allgemeinverfügbare mathematische Bibliotheken kein Standard sind (ATLAS, GLS, NAG), die von Fortran und/oder C/C++ einfach anzusprechen sind, Mangelware darstellen und man auf Exoten wie Standford angewiesen ist, wird es eine schöne, aber recht sinnlose Entwicklung. Zumindest jetzt sehe ich (noch) kein echtes verwertbares Potential, auch wenn die Rechenergebnisse phänomenal sind. Die prestigeträchtigen FEM-Benchmarks, wie sie zum Beispiel in den Ingenieurswissenschaften Verwendung finden, sind ebenfalls eine Nische, eignen sich Dank Single Precission aber prächtig zum Angeben. Derzeit wird die meiste Rechenpower in Klima- und Wettermodellen sowie in der Astronomie und kernphysik verbraten - und hier wird in aller Regel mit DP oder QP gerechnet.

Irgendwie wie bunte Glasperlen, schön anzusehen aber im Endeffekt nicht sehr nutzbringend ... Man lügt sich halt gerne seine brechende AMD Welt zurecht ... Die Hoffnung stirbt zuletzt.
.
EDIT :
.

x87 nützt auch nichts wenn mans nicht verwendet, genausowenig wie SSE1,2,3,4,5 ..

Das Verwenden/Beschäftigen einer GPU ist zwar jetzt komplizierter als alten Code einfach mal durch nen neuen Compiler zu jagen, aber richtig Schwung kommt auch bei SSE.... erst durch Handoptimierung auf.

Von daher seh ich keine Probleme ... wenn AMD das denn am Markt durchdrücken kann. Mit OpenCL (übrigens ein offener, homogener Standard, nur MS fehlt) sieht das aber schon ganz gut aus.

ciao

Alex

OpenGL 3.0 soll ja die Möglichkeit bieten, via spezieller Datenstrukturen Shader-Code an die GPU zu senden. Eventuell wird man erst über OpenGL als Zwischenlösung die mathematischen Fähigkeiten in die Software bringen.

In Sachen Handoptimierung gebe ich Dir prinzipiell recht, aber auch hier zeigt sich, zum Beispiel am ATLAS Projekt, daß es auch anders geht. Allerdings gibt es aber auch negative andere Beispiele.
Seit es den Athlon64/Opteron gibt, sind SSE Register (SSE2) Standard. Derzeit verwenden nur speziell angepaßte C-Kernbibliotheken diese flotten Register auf AMD64 Betriebssystemen, um malloc() und mmap() und Konsorten zu beschleunigen. In den BSD-Projekten ist es das von M. Dillon gegründete 'DragonFly-BSD', daß, leider nur i386, derlei Beschleunigungen einsetzt. Mir sagte man, daß das Problem bei einer solchen Umsetzung darin liege, daß heutzutage zu wenig gute Assembler-Programmierer exitieren würden.

Nichtsdestortrotz, ich würde mich mehr als nur freuen, wenn es endlich möglich wäre, die GPU 'frei' zu verwenden. Aber man sollte immer noch im Auge behalten, daß Intel den markt dominiert und ohne Intel geht sicherlich gar nichts! AMD hätte gut daran getan schon 2003 das anvisierte alternative FPU-Projekt einzuführen oder zumindest 2004, nachdem die AMD64 Architektur ihre Stärken vorführte.

Ansonsten: Dein Wort in Gottes Ohr! Vielleicht wird dann die Post-Core-i7-Ära wieder grünlicher sein. Jetzt jedenfalls dürften die kommenden 14 Monate bis Erscheinen des FUSION von Intels Tick-Tack-Schlägen gegen AMD dominiert werden. Und abseits dessen, was man als technikverliebte Person mag oder ablehnt, entscheidet leider noch immer die Bank zu einem großen Teil mit, ob ein Konzept durchsetzbar ist oder nicht. Und nur die Technik liefern geht eben mal nicht ...
 
Zuletzt bearbeitet:
Sorry wenn ich jetzt eure Fachgespräche unterbreche aber... Bin ich der Einzige, dem das AMD Grün im Logo fehlt? ;D
 
Nichtsdestortrotz, ich würde mich mehr als nur freuen, wenn es endlich möglich wäre, die GPU 'frei' zu verwenden. Aber man sollte immer noch im Auge behalten, daß Intel den markt dominiert und ohne Intel geht sicherlich gar nichts! AMD hätte gut daran getan schon 2003 das anvisierte alternative FPU-Projekt einzuführen oder zumindest 2004, nachdem die AMD64 Architektur ihre Stärken vorführte.
Wie besagt, OpenCL (nicht OpenGL) wirds wohl richten, da ist wirklich jeder (ausser, wie erwähnt MS) dabei, und damit mein ich IBM, intel, AMD, nVidia, und noch ein paar:
cVzsEmIljDG5q1k.JPG

http://s08.idav.ucdavis.edu/munshi-opencl.pdf

Rauskommen solls bereits nächstes Jahr, ein Umweg über OpenGL wäre also meiner Meinung nach nicht nötig.

Zur Programmierung wäre sowas hier noch ganz praktisch:
http://www.rapidmind.net/product.php

Bin mir ziemlich sicher, dass das auch noch angepasst wird(die sind ja auch mit im OpenCL Konsortium, wie man oben sehen kann), damit brauchts dann auch keine Assembler Leute ;-)

Aber das Argument, dass es da keine bzw. nicht viele Assembler Cracks gäbe, glaub ich gerne, besonders in der OpenSource Szene.

@LinuS:
Farbe ist mir egal, solange das Produkt gut ist, und es AMD über Wasser hält :)

ciao

Alex
 
Zuletzt bearbeitet:
Zurück
Oben Unten