APU13: APUs für die Datenwolke, Videocodierung, JAVA, C++ AMP für Linux und mehr
Beispielszenarien
Alsdann wurden konkrete Anwendungsbeispiele für APUs in der Datenwolke genannt. Erstes Beispiel war der neue Videocodec HVEC (H.265), dem Nachfolger des bekannten H.264-Codecs:
Abgesehen von der deutlich besseren Bildqualität gegenüber dem Vorgänger sieht AMD vor allem einen Vorteil: Der Codec ist von Haus aus leichter parallelisierbar, da er das Bild in Segmente unterteilt:
Dadurch fällt dann auch der 10x größere Rechenaufwand weniger ins Gewicht, notfalls müssen die Datenwolkenzentren nur mehr APUs bei AMD bestellen. Dies werden sie sicherlich tun, denn die eingesparte Bandbreite aufgrund der deutlich besseren Videokomprimierung von H.265 ist es ihnen sicherlich wert:
Als nächstes Beispiel wurden B+-Bäume gezeigt. Diese Datenstrukturen werden bei einigen Datenbanken eingesetzt, erwähnt wurden CouchDB sowie SQLite . Eine normale Baumstruktur verläuft nur vertikal, so wie ein Baum vom Erdboden nach oben wächst. Daten in einem B+-Datenbau sind nun aber in der letzten Ebene (der sogenannten Blattebene) auch direkt in einer Ebene verlinkt, was man an den horizontalen Pfeilen auf der nächsten Folie sehen kann:
Der Geschwindigkeitszuwachs durch den Einsatz einer HSA-APU – im Testfall ein Kaveri – liegt zwischen dem 1,9 und dem 6‑fachen des normalen Quadcore Kaveris ohne GPU-Unterstützung:
Neben der gestiegenen Parallelität gibt verweist AMD auch auf das Wegfallen des Datenkopierens zwischen CPU und GPU, was bei einer großen Datenbank natürlich groß ins Gewicht fällt:
Nächstes Beispiel war die Erdölförderung. Dort fallen riesige Datenmengen bei der seismischen Untersuchung der Erdkruste an. Aktuell werden die Datenmengen in Rechenclustern mit Hundetausenden CPUs berechnet, aber APUs könnten den sehr gut parallelisierbaren Datenwust natürlich noch besser verarbeiten:
Ein Mix aus den letzten beiden Beispielen ist das nächste: Textanalyse mittels Hadoop und Big-Data. Auch hier ist die Ausgangslage eine gute Parallelisierbarkeit und durch die schiere Datenmenge waren die Datenkopien im bislang getrennten CPU-GPU-Datenbereich ein großes Hindernis. Mit hUMA hat man dagegen natürlich kein Problem mehr:
Zusammenfassend kann man sagen, dass sich AMD zur richtigen HSA-Zeit am richtigen Wolken-Ort wähnt:
Sicherlich wird es auch Anwendungsbereiche geben, die nicht so gut auf APUs laufen werden, jedoch scheinen diese nicht stark ins Gewicht zufallen, AMDs Strategie könnte also durchaus aufgehen.