News Onlineshop listet NVIDIA GeForce GTX 570

Dr@

Grand Admiral Special
Mitglied seit
19.05.2009
Beiträge
12.791
Renomée
4.066
Standort
Baden-Württemberg
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
<div class="newsfloatleft"><a href="http://www.planet3dnow.de/photoplog/index.php?n=10924"><img src="http://www.planet3dnow.de/photoplog/file.php?n=10924" border="0" alt="GeForce Logo"></a></div>NVIDIA hat im Vorfeld des Launches seines zweiten Modells der leicht überarbeiteten, zweiten Fermi-Generation einigen Redaktionen <a href="http://openbox.oc.com.tw/article/?aid=74369" target="b">Weihnachtspakete</a> zukommen lassen. Darin ist offenbar neben der NVIDIA GeForce GTX 570 samt Reviewers Guide auch ein GTX Tank T-Shirt enthalten. Nebenbei wird das bisher spekulative Launch-Datum Dienstag, 7. Dezember 15 Uhr bestätigt. Die Leistung des neuen Grafikbeschleunigers soll in etwa auf dem Niveau der GeForce GTX 480 liegen, die damit vollständig von den überarbeiteten Fermis abgelöst wird.<p style="clear:left;">
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=12294"><img src="http://www.planet3dnow.de/photoplog/file.php?n=12294" border="1" alt="NVIDIA GeForce GTX 570"></a> <a href="http://www.planet3dnow.de/photoplog/index.php?n=12293"><img src="http://www.planet3dnow.de/photoplog/file.php?n=12293" border="1" alt="NVIDIA GeForce GTX 570"></a></center>

Noch vor dem offiziellen Start hat der Onlineshop YOYOtech bereits das erste Modell der neuen NVIDIA GeForce GTX 570 für £299,56 gelistet und gibt die technischen Daten preis. Wie bereits zu erwarten war, ist bei der GeForce GTX 570 ein Streaming-Multiprocessor des GF110 deaktiviert. Dadurch sinkt die Zahl aktiver CUDA Cores auf 480 und die Zahl der TMUs auf 60. Zudem wurde das Speicherinterface auf 320 bit und damit die ROPs auf 40 Stück beschnitten. Dafür wird die GPU gegenüber der GeForce GTX 480 mit leicht höheren Taktraten befeuert, wobei die Leistungsaufnahme auf unter 225 Watt (zwei 6-Pin-Stromstecker) beschränkt werden konnte. Alles weitere kann der unten stehenden Tabelle entnommen werden.

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=12291"><img src="http://www.planet3dnow.de/photoplog/images/54308/1_GeForce_GTX_-_Modelle.png" border="1" alt="NVIDIA GeForce GTX 570"></a></center>

<b>Quelle:</b> <a href="http://www.yoyotech.co.uk/item-detail.php?products_id=4371034" target="b">YOYOtech</a>

<b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1289311286">NVIDIA launcht GeForce GTX 580</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1291287497">Nvidia BIOS Editor v5.9</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1288709966">NVIDIA Inspector Tool 1.94</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1290423968">Nvidia GeForce 263.09 WHQL für die GeForce GTX 580 und GeForce GTX 460 SE</a></li></ul>
 
Ich bin nicht ganz firm in Sachen Fermi-Architektur und nVidias Kastrationsambitionen, was die Recheneinheiten mit doppel genauer Arithmetik betrifft. Kann mir jemand sagen über wieviele Fließkommaeinheiten mit 'double'-Fähigkeit nominell beim Fermi GF110 vorhanden sind und wieviele davon bei einer GTX570 nach der Kastration noch übrig bleiben?
 
Zuletzt bearbeitet:
Kann mir jemand sagen über wieviele Fließkommaeinheiten mit 'double'-Fähigkeit nominell beim Fermi GF110 vorhanden sind...
Es gibt 1/8 soviel FP64 Einheiten, wie es FP32 Einheiten gibt. Aber dafür verfügt immerhin jeder Fermi darüber. Selbst die GeForce GT430.

Allerdings dort in einem noch ungünstigeren Verhältnis. Nämlich 1/12. Aber immerhin. Bei ATi gibt es das nicht einmal bei der Radeon HD 6870.
 
Es gibt 1/8 soviel FP64 Einheiten, wie es FP32 Einheiten gibt. Aber dafür verfügt immerhin jeder Fermi darüber. Selbst die GeForce GT430.

Allerdings dort in einem noch ungünstigeren Verhältnis. Nämlich 1/12. Aber immerhin. Bei ATi gibt es das nicht einmal bei der Radeon HD 6870.
Ja, aber wer braucht bei ner GT430 die DP Fähigkeit ?

Wer die braucht, wird sich ne 5870 oder demnächst 6950/70 zulegen ;)
 
...jup....oder ne 5850 Toxic, oder besser zwei, die dann mit 875 Mhz parallel laufen.Da hat man dann ordentlich DP via MGPU;)
(mit zwei derart getakteten kommt man damit auf bis zu 1TFlops DP !)
 
Zuletzt bearbeitet:
Ja, aber wer braucht bei ner GT430 die DP Fähigkeit? Wer die braucht, wird sich ne 5870 oder demnächst 6950/70 zulegen ;)
Schon, aber es lässt Zweifel an den Stream Ambitionen von ATi aufkommen. nVidia nimmt es mit CUDA einfach ernster.

@S.I.: Das ist ein häufiger Fehler die Rohleistung mit der Leistungsfähigkeit in gängigen Anwendungen zu verwechseln.
 
Schon, aber es lässt Zweifel an den Stream Ambitionen von ATi aufkommen. nVidia nimmt es mit CUDA einfach ernster.
Nö, ist doch wie besagt ein ganz anderes Segment.
Jemand der besagte Stream Ambitionen hat, hat doch 0 Interesse an nem GT430 Witz.

Und die OpenCL Spielchen für die Desktopapps brauchen kein DP. DP ist ein Profifeature, wenn es das nur in Profikarten gibt, reicht das absolut.
 
DP ist ja anscheinend auch ein Nachteil für den Chip, wenn er als Spielechip verkauft werden soll. Nachteil, weil es mehr Diefläche braucht, den Chip komplexer macht, weniger Takt erlaubt, mehr Strom zieht o.ä. Nvidia hat den GF110 ja extra in diesem Punkt deutlich schwächer gemacht als den GF100. Für die Profikarten wird es deswegen ja auch keine GF110-Ausführungen geben, der GF100 ist da weiterhin das Maß der Dinge.

Andererseits hat SPINA schon recht damit, wenn er sagt, daß AMD es nicht ernst genug meint. Immerhin wird es in Zukunft mit Fusion eine immer breitere Hardwarebasis geben, die potenziell für grafikfremde Berechnungen über die GPU interessant wäre. Sowohl in der Hardware wie auch bei den Anstrengungen bzgl. Entwicklerunterstützung sehe ich bei AMD aber noch deutlich zu wenig Initiative, diesen theoretisch sehr großen Pluspunkt auch praktisch auszunutzen.
 
@S.I.: Das ist ein häufiger Fehler die Rohleistung mit der Leistungsfähigkeit in gängigen Anwendungen zu verwechse

stimmt schon.

Die Wahrheit liegt, wie so oft, dazwischen:
Je nachdem wie die Software das Ganze unterstützt und CF skaliert ist das natürlich unterschiedlich, tw. sogar extrem verschieden.
Von daher schrieb ich "bis zu".

In Warhed, um nur mal ein Beispiel zu nehmen, skalliert CF extrem gut.
In Boinc-Projekten, wie Milkywayhome ebenso.
Dies mal zur Grundsätzlichen Frage wie sehr CF skalieren kann.
Hinzu kommt natürlich ob, wie Alex schon schrieb, überhaupt DP gefragt und genutzt wird und dies zus. skaliert...*noahnung*

Was MW@home betrifft, scheint dies jedoch höchst performant und effizient zu klappen:
Hier habe ich in etwa zwei Wochen >2 Mio Credits errechnet (!!)
Nur zum Verglich: Mit einer hochgetakteten Hexacore CPU in der doppelten Zeit nur um 50.000 (!)
Hier geht es zwar nicht um den Vergleich CPU/GPU, aber das Beispiel zeigt, was bei optimiertesten Anwendungen theoretisch machbar ist - und das ist ne ganze Menge.
Fragt sich halt nur in wie weit was unterstützt wird, oder überhaupt benötigt wird auf der anderen Seite.
Die "Rohleistung" ist aber nur ein Indikator, eine grobe Abschätzung, was die jew. Karte kann - (und auch nicht direkt zwischen AMD und Nvidia vergleichbar*²), das stimmt schon!
Sie ist ein Anhaltspunkt, was erreicht werden kann, wenn alles softwareseitig optimal unterstützt wird.
In den von mir genannten Anwendungen kann man sehr gut sehen, was passiert, wenn dies der Fall ist! :)

Das derzeitige Top Modell GTX 580 scheint mit weniger "TFlops-Rohleistung" eine ähnliche Leistung wie die AMD-Topmodelle aufzubringen, was zum einen (Seit längerem) an einem etwas breiteren Speicherbus liegen wird, zum anderen an etwas anderer und noch effizienterer Architektur ggü. den Radeons.
 
Zuletzt bearbeitet:
Und die OpenCL Spielchen für die Desktopapps brauchen kein DP. DP ist ein Profifeature, wenn es das nur in Profikarten gibt, reicht das absolut.
Andererseits schadet es aber auch nicht darüber zu verfügen. Wer weiß wie der Markt sich entwickelt. x86-64 war anfangs auch nur für Server und Workstations interessant.

Zur Zeit ist aber noch ganz klar kein Feature für das Desktop Segment und gehört daher zwingend mit ECC kombiniert. Insofern ist die GeForce GT430 wirklich ein "Witz".
 
Also, ich gehöre (leider oder wie auch immer) zu den Menschen, die auf die doppelt genaue Fließkommaarithmetik angewiesen sind. Wir rechnen N-Körpermodelle mit symplektischen Algorithmen und ich würde gerne einen solchen bestehenden (WHM, symplektisch 2. Ordnung) auf SIMD- und GPU Einheiten adaptieren. Mir läuft leider die Zeit weg, da ich in Zugzwang bin.

Ich will mal schildern, wie die Situation an diversen astrophysikalischen Instituten hierzulande und in den Staaten aussieht: da gibt es keine Quadro- oder Tesla Karten in Workstations, wie man vermuten sollte, da mus möglichst kostengünstig eingekauft werden, weil die Budgets für die wissenschaft sehr schmal geworden sind (wir müssen schließlich Renten in Griechenland mit 55 Jahrene rmöglichen, wie die Amis ihr Geld verwenden weis ich nicht). Jedenfalls ist es bemerkenswert, was man auch mit kleinen nVidia Karten, OpenCL und CUDA fertig bringen kann, auch wenn man einen schicken XEON 3530 als Unterbau hat. Wie in fast allen naturwissenscgaftlichen Disziplinen ist doppelt genaue Flieskommaarithmetik Pflicht, quad wäre in vielen Bereichen besser (zum Beispiel in einigen isostatischen Geo-Modellen, hier funktioniert die geschickte Normierung nicht mehr, um noch mit 64Bit Doubles rechnen zu können). Aus meiner/unserer sicht ist die SP-Genauigkeit ein Kinderspielzeug und unbrauchbar.
Meine japanischen Kollegen haben TESLA Cluster, aber diese Maschinen sind nur via 'Proposal' erreichbar, ein Aufwand, der im Grunde ein dediziertes, ausgefeiltes wiss. Konzept erforderlich macht, denn die Rechenzeit ist limitiert und kostbar. Die Kollegen haben aber einfache Konsum-karten in ihren Workstations (von nVidia). Unsere Geldgeber haben uns für unsere CAD Maschine eine mittelprächtige Quadro genehmigt, man glaubt nicht, wie damlich Entscheider an Hochschulensein können. Grund: die treiber des CATIA Systems können nur mit OpenGL und Quadro kanns ... Nun ja ...

Nun ja, ich habe bisher immer tapfer an AMD festgehalten, mein FreeBSD eiert mit einer HD4830 dahin, die keinen vernünftigen Treiber hat. Und damit rechnen kann ich auch nicht. Mein Notebook hat eine NVS3100, die von einem 64Bit FreeBSD BLOB befeuert wird. Sie kann auch nicht rechnen, weil das OpenCL/CUDA SDK nicht adaptiert ist, aber sie ist rattenschnell im Vergleich zur AMDschen Lösung.
PathScale wird noch Ende des Jahres für diverse UNIX Plattformen, so auch FreeBSD/amd64, einen HMPP-fähigen C/C++ Compiler emittieren, wir werden Betatester sein. Mittels OpenMP-ähnlicher Pragmaanweisungen kann man einfache Konstrukte in C/C++ bilden, die mittels Compiler und einer speziellen Laufzeitbibliothek dann auf der GPU ausgeführt werden. Laut Entwicklern ist das aber nur auf nVidia GPUs anwendbar, zumindest sagte man mir das, als ich nachgefragt habe, weil ich gerade drauf und dran war noch ein Bündel HD5850 Karten zu ordern - in heimlicher Hoffnung, es ginge doch ...
Da ich privat auch arbeiten möchte, versteht sich von selbst, das ich mir gerne eine Karte zulege, die mir ihre DP/FP64 Rechenwerke zur Verfügung stellt. nVidia kastriert alle Konsumkarten um einige DP-Einheiten (das hat nur Marketinggründe, die entsprechenden Quadro-Karten sind gleich schnell und setzen gleich viel Energie in Wärme um wie jene karten, die im Spielemarkt um die DP Einheiten beschnitten wurden), was mich ein wenig verprellt. Deshalb liebäugelte ich auch mit AMD, denn da scheinen auch bei den Konsumkarten der entsprechenden Baureihen alle DP Einheiten zur Verfügung zu stehen. Aber "Fähigkeiten ohne die Möglichkeiten, sind nichts!" (Napoleon Bonarparte).

Ich bin kein Profi, ich will nur etwas, was unter dem von mir verwendeten OS nutzbar ist. Und im Moment sehe ich eigentlich nur nVidia, auch wenn ich nur Kastrate in bezahlbaren Regionen kaufen kann.
.
EDIT :
.

[...]

Was MW@home betrifft, scheint dies jedoch höchst performant und effizient zu klappen:
Hier habe ich in etwa zwei Wochen >2 Mio Credits errechnet (!!)
Nur zum Verglich: Mit einer hochgetakteten Hexacore CPU in der doppelten Zeit nur um 50.000 (!)
Hier geht es zwar nicht um den Vergleich CPU/GPU, aber das Beispiel zeigt, was bei optimiertesten Anwendungen theoretisch machbar ist - und das ist ne ganze Menge.
Fragt sich halt nur in wie weit was unterstützt wird, oder überhaupt benötigt wird auf der anderen Seite.
Die "Rohleistung" ist aber nur ein Indikator, eine grobe Abschätzung, was die jew. Karte kann - (und auch nicht direkt zwischen AMD und Nvidia vergleichbar*²), das stimmt schon!
Sie ist ein Anhaltspunkt, was erreicht werden kann, wenn alles softwareseitig optimal unterstützt wird.
In den von mir genannten Anwendungen kann man sehr gut sehen, was passiert, wenn dies der Fall ist! :)

Das derzeitige Top Modell GTX 580 scheint mit weniger "TFlops-Rohleistung" eine ähnliche Leistung wie die AMD-Topmodelle aufzubringen, was zum einen (Seit längerem) an einem etwas breiteren Speicherbus liegen wird, zum anderen an etwas anderer und noch effizienterer Architektur ggü. den Radeons.


Mitlerweile gibt es einige wiss. Papiere, die CPU(FPU) und GPU Leistungen im Bereich der doppelt genauen Fließkommaarithmetik untersuchen. In einem Papier erreicht ein 12-Kern XEON (Westmere, 2P) mit knappen 3 GHz gerade mal 1/9 dessen, was eine TESLA C2050 erreicht. eine TESLA/Fermi beherrscht FMA (Fused Multiply-Add), was eine höhere Genauigkeit bei einfachen arithemtischen Opertaionen der Form (a * b + c) bietet) in der Hardware und hat sehr schnelle trigonometrische Funktionen, was bei Fourier-Transformationen meßbar zu leistungsschüben führt. Die FPU einer CPU hat darüberhinaus aber den Vorteil mit 80 bittiger Genauigkeit arbeiten zu können (long double). Das geht mit GPUs leider noch nicht. Auch mit einer kastrierten GTX570, die nur 25% der möglichen FP64 Leistung auf die rollbahn bringt, bin ich noch doppelt so schnell wie die besagten 12 XEON Kernchen (HTT wird in solchen Tests abgestellt, da kontraproduktiv). Und ich kann mir keine 12 XEON Kerne leisten. Unterm Strich ist also ein rechnerischer Gewinn, oder?

Meine VL über Vektorrechner sind schon ziemlich lange her. AMDs GPU Design ist das der VLIW Prozessoren, der Compiler wird also versuchen müssen, so viele parallelisierbare Operationen wie möglich zu bündeln. nVidia bedient sich des Superskalar-Prinzips, wenn ich das noch richtig zusammenkriege, hier ist die Parallelisierung etwas einfacher. Manche, wenn nicht sogar viele Probleme aus dem Bereich einfacher Anwendungen, Spiele etc. sind schlecht oder logisch gar nicht parallelisierbar, so daß AMDs Konzept einfach Leistung verpuffen läßt - oder der Compiler optimiert nicht gut genug. Das könnte der Grund sein, warum rein rechnerisch AMD wesentlich mehr Rohleistung verbuchen kann, aber letztlich sehr viel weniger auf die Straße bringt. Vielleicht ändert das sich nun beim Wechsel von 5D auf 4D bei den neuen HD6900 Karten, wobei immer noch die Frage offen beibt, wie AMD diese Rechenkraft an willige und begierige Wissenschaftler weiterreichen will. nVidia macht das vorbildlich, die kommen sogar mit Personal an Hochschulen, wenn man größere Projekte, die förder- oder sponsorbar sind, publik macht. Von AMD hört und liest man nur das berühmte Schweigen im Walde ...
 
Warte mal noch ein zwei Wochen ab. Dann wird das Stream SDK / APP SDK 2.3 erscheinen. Da werden einige neue Features dazukommen (größerer für OpenCL nutzbarer Grafikspeicher == Global Memory). Ob auch DMA (<-- großer Bremsklotz) für OpenCL dabei ist, wage ich zu bezweifeln.

Außerdem bietet die Radeon HD 6970 wohl auch ein paar neue recht nützlichen GPGPU-Feature.

Bis AMD den Rückstand auf CUDA aufgeholt hat, wird es aber sicher noch eine ganze Weile dauern.


file.php
 
.....

Andererseits hat SPINA schon recht damit, wenn er sagt, daß AMD es nicht ernst genug meint. Immerhin wird es in Zukunft mit Fusion eine immer breitere Hardwarebasis geben, die potenziell für grafikfremde Berechnungen über die GPU interessant wäre. Sowohl in der Hardware wie auch bei den Anstrengungen bzgl. Entwicklerunterstützung sehe ich bei AMD aber noch deutlich zu wenig Initiative, diesen theoretisch sehr großen Pluspunkt auch praktisch auszunutzen.

ja, das unterschreib ich auch: AMD sollte sich mehr ins Zeug legen, was vorallem die "Effizienz" betrift, aber warten wir mal was mit den 69xx Karten nun tatsächlich auf den Tisch kommt...vllt. tatsächlich wenigstens mit nem breiteren Datenbus, an der sonstigen Effizienz wird ja schon gefeilt...
but... back to Topic;)
 
Zuletzt bearbeitet:
AMDs Fusion hat sehr früh den richitgen und innovativen Weg vorgezeichnet, schon seinerzeit, als der Begriff eher eine nahende 'Vision' war denn ein in Silizium gegeossenes Konzept.

ATi machte zuerst GPGPU-Rechnen publik, zumindest meine ich es so zu kennen. AMD war die erste Firma, die mit Fusion die besagte Vision unter das einfache Volk streute. Und wie schauts momentan aus? CUDA/OpenCL überall in HPC Rechenzentren, in Workstations, kleinen Renderfarmen. Nirgendwo AMD zu sehen, allenthalebn als CPU Basissystemlieferant. Vor zwei Jahren haben mit Kollegen auf einer Konferenz in Ithaka gezeigt, was sie mit CUDA in Bereich der Bahndynamik machen. Einfache GT270/GT280 Graphikkarten unter Linux mit CUDA. Meine naive Frage nach AMD wurde mit strafenden, bedauernden Blicken abgestraft. Man sei sich nicht bewußt, daß AMD sowas könnte, sagte man mir. Nun ja. Ich habe dann weiter gebohrt, mir war noch in Erinnerung, daß AMD die 3D Specs moderner Chips offenlegen wollte. LLVM/CLANG wäre damit eine wirklich famose Opensource Alternative mit enormem Potential gewesen. Aber wo man hinhört vernimmt man Proteste und Unwohlsein. AMD hat wohl für die wirklich wichtigen Chips und einige essentielle Details die Freigabe von Informationen unterbunden. Also starb auch hier der Traum einer OpenCL/LLVM Umsetzung.
Ich hatte ja schon erwähnt, daß Pathsclae mit dem ENZO Compiler auch für das von mir bevorzugte BSD System einen Compiler anbieten wird, der GPGPU-Code via #PRAGMA Anweisungen generieren können wird (das hatte ich eigentlich von CLANG und LLVM erwartet). Anfangs verliefen die Gespräche mit einem Entwickler von Pathscale noch unspezifiziert, ich ging irrtümlicherweise davon aus, daß auch AMD unetsrtützt werden würde. Aber seit einigen Wochen weiß ich, daß vorerst nur nVidia GPUs Unterstützung finden werden - und ich kann mir nicht helfen, das Konzept des ENZO Compilers, GPU Code via #PRAGMA alternativ erzeugen zu können (wie OpenMP via #PRAGMA OMP), ist einfach faszinierend - und wird meine Projekte schubweise voranbringen können!
Auch hier: AMD hat Terrain verloren, weil andere Terrain erobert haben, das AMD wohl nicht mal angedacht hatte. Der GPGPU Zug ist ins Rollen geraten. Und nVidia investiert in Entwicklungsplattformen. FreeBSD als freies BSD UNIX hat in den letzten 10 Jahren stark Federn im Zuge des Linux Hype lassen müssen (mir unverständlich). Trotzdem (oder gerade weil) bietet nVidia jetzt einen 64Bit fähigen Treiber (BLOB) an, der hervorragend funktioniert! Ich wette, daß damit der erste wichtige Schritt in die Umsetzung eines 64bittigen SDK für CUDA auch für die BSD Plattformen gemacht wurde. AMD bietet nicht mal einen halbwegs funktionierenden Opensource-Support an. Derzeit funktionieren auf all unseren Rechnern mit offiziellen X11 Versionen die AMD/ATi Treiber nicht richtig. Es heißt immer, der Entwickler sei bemüht ... das tut er schon seit 15 Monaten und noch immer friert nach einem SIG HUP an den Xserver mit AMD GraKa die Kiste ein. Bekanntes Phänomen ... nicht gelöst. Und ich habe sechs (6!) Maschinen im Labor, die mit AMD Karten ausgerüstet wurden, weil es hieß, die Unterstützung sei gesichert ... Ihr könnt Euch ja vorstellen, daß nach so einer Blamage die nächste Generation garantiert keine AMD Karte mehr haben wird, egal, ob die rohe Rechenleistung oder die Energieeffizienz die der nVidia Karten weit übertreffen sollte.

Zuviel Worte, schätze ich. Aber einfach zu sagen 'AMD bringt's nicht' wäre nicht fair./
 
Zuletzt bearbeitet:
Vielleicht ändert das sich nun beim Wechsel von 5D auf 4D bei den neuen HD6900 Karten, wobei immer noch die Frage offen beibt, wie AMD diese Rechenkraft an willige und begierige Wissenschaftler weiterreichen will. nVidia macht das vorbildlich, die kommen sogar mit Personal an Hochschulen, wenn man größere Projekte, die förder- oder sponsorbar sind, publik macht. Von AMD hört und liest man nur das berühmte Schweigen im Walde ...

http://blogs.amd.com/work/2010/11/12/investing-in-research-investing-for-the-future/

http://www.amd.com/us/aboutamd/research/ero/Pages/gift-request.aspx

Wenn Du parallel auf CPU&GPU programmieren willst, setzte auf OpenCL. Das läuft dann auch auf nVidia und Intel Kisten.
Mag am Anfang ein höherer Aufwand sein, aber zahlt sich später dann durch bessere Flexibilität aus.

Die Tools sollten mit der Zeit auch besser und umfangreicher werden.

Es gab auch mal ne Software, die automatisch C/C++ Code mit ein paar extra ANweisungen in nvida oder Ati Code umgewandelt hat .. aber die wurden von Intel aufgekauft ... kannst Dir denken, wie groß das Interesse an GPU Code nun ist ...
http://www.ddj.com/cpp/199902702

ciao

Alex
 
Zuletzt bearbeitet:
Mag am Anfang ein höherer Aufwand sein, aber zahlt sich später dann durch bessere Flexibilität aus.
Der Nachteil einer solchen Universallösung ist jedoch die verminderte Leistungsfähigkeit. Je nach Anwendung ist das durchaus spürbar.

So können nicht alle Möglichkeiten der GPU genutzt werden und es kommt der Aufwand für die Übersetzung hinzu.
 
Der Nachteil einer solchen Universallösung ist jedoch die verminderte Leistungsfähigkeit. Je nach Anwendung ist das durchaus spürbar.

So können nicht alle Möglichkeiten der GPU genutzt werden und es kommt der Aufwand für die Übersetzung hinzu.
Das mag stimmen, aber mit der nächsten GPU/CPU Generation, die man einfach durch Neucompilieren ansprechen kann, hat sich dass dann wieder.... v.a. ist es egal, ob CUDA/OpenCL/x86/Cell oder sonstwas.

Klar, da wird dann wieder Leistung verschenkt, aber dafür ist es "billig".

Kommt halt auch darauf an, wie groß das Projekt ist ... wenn genügend Finanzmittel für 2-3 Programmierer vorhanden sind, die jedesmal den Code tunen & testen - ok.

Edit:
Bemerke gerade, dass ich mich beim aktuellen Beitrag auf RapidMind bezog. Beim von SPINA zitierten Text bezog ich mich aber auf OpenCL. Bei OpenCL sollte es egal sei, da sehe ich keine großartigen Performanceunterschiede zu CUDA. AMD hat seinen Sprachansatz (Brook+ oder wie das hieß) ja auch gleich ganz begraben.
 
Zuletzt bearbeitet:
Zurück
Oben Unten