APU13: APUs für die Datenwolke, Videocodierung, JAVA, C++ AMP für Linux und mehr

Artikel-Index:

Beispielszenarien

Als­dann wur­den kon­kre­te Anwen­dungs­bei­spie­le für APUs in der Daten­wol­ke genannt. Ers­tes Bei­spiel war der neue Video­co­dec HVEC (H.265), dem Nach­fol­ger des bekann­ten H.264-Codecs:

 

 

Abge­se­hen von der deut­lich bes­se­ren Bild­qua­li­tät gegen­über dem Vor­gän­ger sieht AMD vor allem einen Vor­teil: Der Codec ist von Haus aus leich­ter par­al­le­li­sier­bar, da er das Bild in Seg­men­te unterteilt:

Dadurch fällt dann auch der 10x grö­ße­re Rechen­auf­wand weni­ger ins Gewicht, not­falls müs­sen die Daten­wol­ken­zen­tren nur mehr APUs bei AMD bestel­len. Dies wer­den sie sicher­lich tun, denn die ein­ge­spar­te Band­brei­te auf­grund der deut­lich bes­se­ren Video­kom­pri­mie­rung von H.265 ist es ihnen sicher­lich wert:

Als nächs­tes Bei­spiel wur­den B+-Bäume gezeigt. Die­se Daten­struk­tu­ren wer­den bei eini­gen Daten­ban­ken ein­ge­setzt, erwähnt wur­den CouchDB sowie SQLi­te . Eine nor­ma­le Baum­struk­tur ver­läuft nur ver­ti­kal, so wie ein Baum vom Erd­bo­den nach oben wächst. Daten in einem B+-Datenbau sind nun aber in der letz­ten Ebe­ne (der soge­nann­ten Blatt­ebe­ne) auch direkt in einer Ebe­ne ver­linkt, was man an den hori­zon­ta­len Pfei­len auf der nächs­ten Folie sehen kann:

Der Geschwin­dig­keits­zu­wachs durch den Ein­satz einer HSA-APU – im Test­fall ein Kaveri – liegt zwi­schen dem 1,9 und dem 6‑fachen des nor­ma­len Quad­core Kave­ris ohne GPU-Unterstützung:

Neben der gestie­ge­nen Par­al­le­li­tät gibt ver­weist AMD auch auf das Weg­fal­len des Daten­ko­pie­rens zwi­schen CPU und GPU, was bei einer gro­ßen Daten­bank natür­lich groß ins Gewicht fällt:

Nächs­tes Bei­spiel war die Erd­öl­för­de­rung. Dort fal­len rie­si­ge Daten­men­gen bei der seis­mi­schen Unter­su­chung der Erd­krus­te an. Aktu­ell wer­den die Daten­men­gen in Rechen­clus­tern mit Hun­de­tau­sen­den CPUs berech­net, aber APUs könn­ten den sehr gut par­al­le­li­sier­ba­ren Daten­wust natür­lich noch bes­ser verarbeiten:

Ein Mix aus den letz­ten bei­den Bei­spie­len ist das nächs­te: Text­ana­ly­se mit­tels Hadoop und Big-Data. Auch hier ist die Aus­gangs­la­ge eine gute Par­al­le­li­sier­bar­keit und durch die schie­re Daten­men­ge waren die Daten­ko­pien im bis­lang getrenn­ten CPU-GPU-Daten­be­reich ein gro­ßes Hin­der­nis. Mit hUMA hat man dage­gen natür­lich kein Pro­blem mehr:

Zusam­men­fas­send kann man sagen, dass sich AMD zur rich­ti­gen HSA-Zeit am rich­ti­gen Wol­ken-Ort wähnt:

Sicher­lich wird es auch Anwen­dungs­be­rei­che geben, die nicht so gut auf APUs lau­fen wer­den, jedoch schei­nen die­se nicht stark ins Gewicht zufal­len, AMDs Stra­te­gie könn­te also durch­aus aufgehen.