News Raytracing 1000-fach schneller

User-News

Von Bobo_Oberon

Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.
BrightSideofNews (BSN) berichtet anlässlich der Siggraph 2009 über einen Raytracing-Renderer, der mit einer Nvidia GTX285-Grafikkarte um den Faktor 1000 schneller ist, als alleine mit einem Intel Nehalem: "Chaos Group demonstrates production grade Ray Tracing GPU renderer". Im "Schlechtesten Fall soll deren Lösung immer noch um den Faktor 20 schneller sein, als Rendering mit einem Prozessor.

Zwar basiert diese Lösung namens V-Ray RT auf eine Engine, die mit Prozessoren in Raytracing-Stil Bilder berechnet. Die Firma "Chaos Group" zeigte nun bei dem Grafik-Event Nvidia-Karten, welche auf Basis der CUDA-Schnittstelle das Rendern extrem beschleunigen.

Bevor die AMD-Jünger vom Glauben abfallen. BSN schreibt auch, dass eine Version für OpenCL geplant sei, so dass damit auch ATI/AMD-Karten als Bildmal-Hilfsmittel genutzt werden können.

Der Hersteller hat ein Demo-Video herausgebracht: "V-Ray Demo "(QuickTime)
Nachtrag: Eine Kurzversion ist ebenso gemacht worden (THX @Opteron)


Raytracing-Co-Prozessor

Schon etwas älter, aber eine BSN-Ergänzung zum Thema Raytracing. Raytracing-Beschleunigung mit Grafikkarten kann mit einem "Nachbrenner" nochmals gesteigert werden.
In diesem Fall spricht die Firma Caustic von einer Beschleunigung um den Faktor 20. Spätere Serienkarten sollen nochmals um den Faktor 10 schneller werden.

Caustic Graphics hat einen Co-Prozessor entwickelt, der ebenso Raytracing deutlich beschleunigen soll. Dabei nutzt die CausticRT-Karte eine API, die eine Ergänzung von OpenGL ES 2.0 ist. Diese Ergänzung lautet CausticGL. Die Entwickler sprechen ausdrücklich davon, dass auch Grafikkarten zusätzlich mit der Caustic One eingesetzt werden können.

Zur Zeit basiert die erste Karte Caustic One auf einem FPGA-Chip mit DDR2-Speicher. Der Prozessor lässt sich in Hardware flexibel nachträglich programmieren. damit die Entwickler die Rechenformeln anpassen können. Schon in der Vergangenheit wurden FPGAs in speziellen Rechensystemen als Co-Prozessoren eingesetzt (FPGAs im Sockel 940 in AMDs Torrenza-Initiative). Nun können also auch GPGPUs einen "Zusatzprozessor" nutzen..
Die geplanten Serienprodukte ab 2010 werden mit einen ASIC geplant, statt eines teuren FPGAs.

Ein Interview zu diesem Co-Prozessor bietet die Seite CGArchitect.com im Artikel "Interview with Alex Kelley, VP of Worldwide Sales & Marketing at Caustic Graphics".

Nachtrag2: Tim Sweney von Epic ("Unreal"-Engine und Spieleserie) hat auf der Konferenz den Vortrag "The End of GPU Roadamap" (PDF) gehalten, wie er die Zukunft des Spiele-Rendern sieht. Zwar kein zwingendes Raytracing, aber eine Abkehr von einer statischen, in Teilen fest verdrahteten Hardware, hin zu freier Programmierung in C/C++ bzw. hardwarenahen Schnittstellen wie CUDA (ein firmeneigener Nvidia-Dialekt von C/C++). (THX @Opteron)

Dass noch mehr im professionellen CAD-Bereich Raytracing geht, steht im Posting "Raytracing 2010 - Zwischen Topstream und Larrabee 3".

MFG Bobo(2009) Martin Bobowsky
 
Zuletzt bearbeitet:
Und von wem wird diese Firma wohl geschluckt werden?

mfg

elite.bl4ze

P.S.: Schöne News!
 
Thx Bobo,

...Begrüßenswert,....wobei sich das mit der massiven Parallelisierung der GPUs ja inzwischen langsam rumgesprochen haben dürfte.
Die Super-Rechner Leistung eines ALLICENext vor ein paar wenigen Jahren mit um 3TFlops wird nun tw. im Wohnzimmer für einen Bruchteil der zig-Millionen € teuren Rechenalage der badischen Uni Wuppertal (dort mit 1024 Opterons) erreicht: Nur über die GPUs von 2 4890ern[OC jeweils rund 1,5TFlops] oder 3 4850ern [insg. 3Tflops] theor. Rechenleistung bei einfacher Genauigkeit - doppelte Genauigkeit kostet die Hälfte an Performance- was sich mit Open CL deutlich bessern dürfte !] Das Terraflop-Ergebnis nun ist dasselbe, wenn auch über die mehrmals derzeit 800 Streamprozessoren inzwischen....[die sich sicher bald auf 1000 oder 1200/Karte steigern lassen]
Denke das Parallelisieren wird weiter zunehmen, da es Leistungs-effizienter ist, als ständig höhere Taktraten usw - wie es aussieht und einfacher/billiger in der Produktion - Dieses Prinzip zumindest wird in änlicher Form zum. ansatzweise auf die CPUs übergehen - die Frage ist dabei nicht ob, sondern wann...
 
Zuletzt bearbeitet:
Und von wem wird diese Firma wohl geschluckt werden? ...
Das mag ein Grund sein derartiges vorzustellen, keine Frage.

Andererseits scheint es einen exklusiven Raytracing-Markt zu geben, wo extrem teure Hardware dennoch seine Berechtigung hat, weil die Zeitersparnis viel kostbarer ist. In meinem Posting "Raytracing extrem" Ende Juli habe ich schon über die Caustic-Karte geschrieben (mit Links auf Ars Technica).


Auf dem Everest mit Topstream

Aber es geht noch mehr, bzw. es ist noch mehr geplant. Aktuelle GPUs haben eine Rechenleistung von etwas mehr als einem Teraflop. Mit den ersten DirectX-11-Karten womöglich 2 Teraflop. Glaubt man der Ankündigung von Toyota und Unisys dann soll 2010 bei dem Autokonzern ein Raytracing-Numbercruncher mit einer Leistung von *und jetzt festhalten* 800 Teraflop den Autoentwicklern unter den Armen greifen.

Es handelt sich dabei um eine Clusterlösung:
- Dabei werden 9 System on Chips gebündelt. Diese "Einzelchips" haben eine Rechenleistung von 88 Teraflops.
- Intern sind die Einzelchips aber aus weiteren 8 Einzelchips in einem Cluster zusammengefasst. Die Rechenleistung eines Einzelchips aus diesem internen Cluster beträgt 11 Teraflops
- Dieser interne Cluster ist wiederum aus 9 verschiedenen Kernen zusammengesetzt.

Der geplante Topstream ist aber vermutlich keine herkömmliche Grafikkarte für Gamer, sondern ist "kompakt genug", um in einen PC Platz zu finden. Zudem ist der Topstream-Raytracer ein heterogener Multicore:
fig1.jpg
Quelle: techon.nikkeibp.co.jp, bzw. "800 TFLOP real-time ray tracing GPU unveiled, not for gamers" ArsTechnica.com.

Dagegen verblassen die Bemühungen von Intel mit dem Larrabe (-> mit allenfalls derzeit geschätzten 2 Teraflop). Selbst im Raytracing-Sektor ist diese Intel-Lösung also Massenware und kein "Highest-End"-Produkt. Das wird in der folgenden Ergänzung deutlich.
Man kann über Fudzilla verschiedener Meinung sein. Die Meldung "Larrabee is Intel’s third attempt" klingt meiner Meinung nach aber glaubwürdig, dass zur Zeit so etwas wie ein "Larrabee 3" in Intels Labors herumschwitzt, weil seine Vorgänger nicht den eigenen Erwartungen entsprach. Diese "Nr. 3" könnte Mitte 2010 erscheinen und bietet die Rechenleistung, die aktuelle GPU-Zwillingspitzenprodukte aus dem Jahr 2009 von AMD/ATI und Nvidia jetzt schon bieten.
Nachtrag: Intel bestreitet vehement, dass es so etwas wie einen Larrabee 3 gäbe. Es ist immer noch der erste x86-GPGPU-Chip, woran sie arbeiten. Im Grunde genommen hat Fudzilla ja auch nur bschrieben, dass es vermutlich ein Larrabee der ersten Generation ist, aber schon in der dritten Chiprevison.

ATI, Nvidia und Intel müssen sich also auch damit auseinandersetzen, dass multifunktionale Hardware einen gewissen Overhead hat. Da bestehen mitunter Welten zwischen theoretischer und praktischer Rechenleistung. Die Spitzenwerte der aktuellen GPUs sind theoretische Werte, die im GPGPU-Alltag um den Faktor 10 einbrechen können. Bei spezialisierter Hardware ist der Verschnitt der theoretischen Rechenleistung geringer, dafür können sie auch "nur" in ihrem geplanten Einsatzgebiet glänzen.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Ich finde das jetzt nicht so berauschend. Zum Zeitpunkt der Bewegung die Anzahl der Rays so zu regeln, dass es nicht mehr ruckelt ist nicht Sinn der Sache.
 
Ich habe die Hauptmeldung etwas ergänzt und auch die News mit dem Toyota-Raytracing-System ist etwas nachbearbeitet worden. Vor allem News zum Larrabbe sind damit auf den aktuellen (Gerüchte)-Stand gebracht worden.

@hoschi_tux
Ich verstehe nicht worauf du dich beziehst.

MFG Bobo(2009)
 
Zurück
Oben Unten