News True Audio Next in Steam Audio

User-News

Von E555user

Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.
In einem Blog-Artikel der Steam-Community geht hervor, dass in der aktuellen Steam Audio 2.0 beta 13 nun der Support für AMDs True Audio Next (TAN) implementiert wurde. Dabei handelt es sich um Methoden zur Berechnung von Raumklangeffekten. Die True Audio Next Bibliotheken unterstützen sowohl die GPU-seitige als auch die CPU-seitige Berechnung der sog. Convolution. Mit TAN steht dem Entwickler frei bei geeigneter Hardware Compute Units für die Convolution zu reservieren um damit wesentlich mehr Tonquellen bzw. Objekte für die Echtzeitausgabe berechnen zu lassen.

gpuconvolution.png

Nachdem diese Technologien in der Vergangenheit kaum Einzug in die Games-Entwicklung gefunden haben wird korrekter 3D-Sound mit VR wieder wichtiger, das zugehörige Whitepaper von 2016 AMD TrueAudio Next – The right next step for audio on VR von Carl Wakeland nimmt Bezug dazu. Dieses ist im Rahmen von einem Artikel auf GPUopen.com zu True Audio Next verlinkt.

True Audio Next hat die dedizierte True Audio Hardware auf den GPUs und in den APUs mit Beginn der Polaris-Architektur abgelöst. In wie fern die ältere True Audio Hardware ebenso profitieren kann geht aus den Artikeln nicht hervor. Im Steam-Blog wird der aktuelle Support wie folgt angegeben:

System Requirements
Supported GPUsOperating SystemGPU Drivers
Radeon™ RX 470 Series
Radeon™ RX 480 Series
Radeon™ RX 570 Series
Radeon™ RX 580 Series
Radeon™ R9 Fury
Radeon™ R9 Fury X
Radeon™ Pro Duo
Radeon™ RX Vega 56
Radeon™ RX Vega 64
Windows 10, 64-bitCurrent Radeon™ Adrenalin Edition drivers
http://support.amd.com/en-us/download

Somit wird mit der Radeon Pro Duo und den Fury Vertretern zumindest die Fiji Generation bereits unterstützt. Ob dabei nun der dedizierte ASIC für True Audio genutzt wird, oder aber ebenso die Compute Units nach dem True Audio Next Konzept bleibt dabei im unklaren.

--- Update ---

Wie es der Zufall so will gab es rund 1h nach meiner News auch entsprechende Artikel bei heise und Computerbase. So ganz scheint man True Audio bei den sog. Online Journalisten nicht verstanden zu haben, umso erbärmlicher sind - wie so oft - die Leserkommentare zum Thema. Es driftet eigentlich nur ab in die Frage ob Benchmarkbalken länger werden oder nicht.
Die Frage ob und wie eine realistischere Soundkulisse in Echtzeit mit planbaren Ressourcen für einen Coder möglich wird steht dort gar nicht zur Debatte, auch nicht, dass es eine OpenSource Software ist. Dabei ging es doch letztlich nur um reservierte Ressourcen für einen realistischeren Ton.

Immerhin gab es im CB-Forum einen Link auf einen alten Hardwareluxx Artikel, der einen feinen Absatz und richtige Wertung zum Thema enthält:
Noch einmal: Den Effekt von TrueAudio und in diesem Fall der realistischeren Berechnung der Echos können wir nicht messen, wir müssen uns also auf unsere Ohren verlassen. Wer im Besitz einer der oben genannten Karten ist, der sollte TrueAudio in jedem Fall einmal ausprobieren. Gerade große Gebäude mit großflächigen Stein-Oberflächen sorgten bei uns in Thief für ein völlig neues Klangerlebnis - ohne dies nun überbewerten zu wollen.

So gesehen ist es wohl schade, dass ausgerechnet ein Schleich-Spiel damals als Einführungsbeispiel zu True Audio dienen musste. Gerade ein Shooter wie Doom mit vielen engen, aber auch weitläufigen Leveln bzw. Caves und dem ganzen akustischen Gebrüll würde eine sehr viel deutlichere Wahrnehmung ermöglichen.
Retrospektiv erklärt das vielleicht die mangelnde Nutzung der Technik in der Vergangenheit, letztlich liegt es nun wohl an den SteamVR Entwicklungen eine Bahn für bessere Akustik zu brechen.

(in wie weit das schon für PSVR umgesetzt wird kann ich nicht beurteilen)



--- Update ---

Nachtrag - auf GPUopen.com gibt es seit 09. Februar einen kurzen Artikel von besagtem Carl Wakeland zu diesem Update bei Steam Audio. Hervorgehoben wird darin nochmals die extrem kurze Latenz bei der Berechnung der Convolution auf der GPU im Vergleich zu CPU.
 
Zuletzt bearbeitet:
So ganz scheint man True Audio bei den sog. Online Journalisten nicht verstanden zu haben, umso erbärmlicher sind - wie so oft - die Leserkommentare zum Thema. Es driftet eigentlich nur ab in die Frage ob Benchmarkbalken länger werden oder nicht.

So ist das nunmal in der (gar nicht mehr so) heilen Welt mancher Intel/nVidia Fanatiker. Die haben nunmal Angst um jedes FPS, das sie ggü. AMD verlieren. Und das zurecht.. Wer kriegt Async Compute (AC) noch immer nicht sinnvoll auf die Reihe? AMD GPUs werden da keinen Nachteil haben, da hier massiv Compute Leistung brach liegt und mit funktionierendem AC die Geometrieleistung so gut wie gar nicht tangiert wird (Ohrenschmankerl: FIFA im Westfalenstadion mit 80000 korrekt berechneten Fans im Nacken ;)). Auch diverse FPS Spiele werden da profitieren (z.B. 64 Spieler Maps mit einigem Krach-Bumm drumherum).

Zum Topic:
Habe mich schon gewundert, warum es um TrueAudio so still wurde. Gut, dass sich da noch was tut. Vielleicht setzt man sich da noch mal mit Creative zusammen und bastelt passend dazu ein Sound Addon Board, so zum komplettieren der Radeon Plattform. Momentan fehlt allerdings wieder der Radeon RAM..
Was fehlt, ist auch eine Möglichkeit, die Raumakkustik zu vermessen und damit einhergehend eine Korrektur des Live-Tons im Spiel/Film/etc.. Kann dann gerne in die Radeon Settings eingepflegt werden.
 
Ich denke man muss das mehr im allgemeinen Kontext sehen.

Mit der Xbox One und PS4 haben beide Konsolenhersteller separate Audio-Beschleuniger integriert. Wie beim Amiga 500 damals hat man wohl darauf gesetzt, dass die Software besseres Audio bekäme, wenn die Entwickler nicht mehr Ressourcen der CPU verteilen müssten, bei denen im Zweifel immer die Grafik "gewinnt". AMDs Kalkül war wohl, dass mit sehr ähnlicher HW auf den Grafikkarten und den APUs sich diese Entwicklung übertragen lässt. Das hat aber nicht wirklich stattgefunden.

Die Creative Chips waren sicherlich nicht besser als die Tensilica DSPs, die AMD integriert hatte. Diese mussten wohl dem Sparzwang geopfert werden - oder Tensilica hat zu wenig für die Softwareentwicklung investiert - oder AMD musste nach der Cadence Übernahme auf Tensilica fürs nächste Design verzichten - oder, oder...
Man hat auf Libs für die allgemeinen CUs gesetzt. Das ist letztlich aber auch eher philosophisch, der Tensilica wäre sicherlich effizienter als die Convolution via Shadereinheiten.

Für TrueAudio gab es wohl kaum Softwareunterstützung vom Hersteller, erst mit TAN hatte AMD dort gepushed. TrueAudio war noch bevor AMD wieder mehr in Developer Support investierte.
Auch nVidia hat im Rahmen des VR-Hypes vor zwei Jahren ein VR-Works für Audio angekündigt, außer eigenen Demos gab es aber bislang nichts.
Zumindest bei AMD ist das Ganze seit längerem auf GitHub und offen, sowie insbesondere mit X86 Fallback im Angebot, d.h. man kann getrost das Projekt bzw. eine Engine auf solche Libs aufbauen, es werden beide Pfade abgebildet. Theoretisch müsste nVidia auch nur die Treiber anpassen, es sollte möglich sein sofern das Async Compute nicht zu viele Schwierigkeiten bereitet.

Das alte EAX ist allerdings für den Raumklang nicht mit True Audio bzw. den Convolution Berechnungen zu vergleichen. Das eine gab "nur" die Möglichkeit in Abhängigkeit von der Kamera- bzw. Hörerposition vorgefertigte Sounds und Filter für die Räumlichkeit anzuwenden. Bei den neuen Verfahren wird anhand des 3D Modells die Soundkulisse annähernd von den Tonquellen kommend korrekt berechnet. Das bedeutet, dass jedes einzelne klingende Objekt eine eigene Schallberechnung erfährt und dafür die reflektierenden Objekte definiert werden müssen. Das ist für die Sounddesigner eine ganz andere Aufgabe. Es geht nicht mehr darum einen passenden Ton je Schallquelle und Ambient-Sound für die Hörerposition zu faken, sondern die Eigenschaften von Oberflächen im Editor so einzustellen, dass hinterher eine glaubwürdige Soundkulisse entsteht. Das lässt sich nunmal mit steigender Komplexität von beweglichen Schallquellen nicht mehr faken. Ein Paradigmenwechsel, der letztlich auch nur Schrittweise erfolgen kann.
Vielleicht lässt sich das in den Engines zudem für GPUs mit dem Grafikrendering optimieren. Die 3d-Daten, die an die GPU übertragen werden, sollten bis vor der Tesselation und dem Culling die gleichen sein.

Um das verständlich zu machen und besser einzuordnen zu können hat nVidia mal wieder das bessere Consumer-Demovideo. AMD hat das bessere Developer-Demovideo.
 
Zuletzt bearbeitet:
Gerade ein Shooter wie Doom (...) würde eine sehr viel deutlichere Wahrnehmung ermöglichen.
Das glaube ich eigentlich nicht. Ein behäbiges Schleichspiel wird tatsächlich die bessere Wahl von AMD gewesen sein. Das Gehör der meisten Spieler gerät anders als der Sehsinn doch sehr schnell an seine Grenzen. Wenn man in einem schnellen Schießspiel mit vielen Bildeindrücken konfrontiert wird, tritt der Gehörsinn weitgehend zurück und es kommt gar nicht mehr auf die akurate Berechnungen dutzender verschiedener Tonquellen mit Reflexionen, Absorptionen und allem drun und dran an. Damit die verschiedenen akustischen Sinneseindrücke auszuklabüstern wäre das menschliche Gehirn vollkommen überfordert. Das war in unser evolutionären Entwicklung in den letzten Jahrtausenden schlicht und einfach nicht gefordert. Außerdem fehlt es den meisten Spielern (noch) an geeigneten Ausgabegeräten. Dies mag die geringe Priorität bei den Entwicklern erklären. Theoretisch ist TrueAudio selbstverständlich faszinierend, aber in der Praxis gleicht es oft dem sprichwörtlichen "Perlen vor die Säue werfen". Anders sähe es natürlich aus, wenn der Familienhund mitbeschallt werden soll, dann wäre es für den DSP keine verschwendete Rechenleistung mehr.
 
Das glaube ich eigentlich nicht. Ein behäbiges Schleichspiel wird tatsächlich die bessere Wahl von AMD gewesen sein.....
Ich muss zugeben ich kenne das letzte Thief nicht, sondern nur das Original und den zweiten Teil. Bei einem Schleich-Spiel lassen sich aber wegen der Langsamkeit und der relativen Lautlosigkeit der Abläufe IMHO kaum die Effekte einer echten Berechnung während des Spielens erfahren, es ist prinzipbedingt zu wenig Dynamik im Ablauf, alles Akustische müsste übertrieben werden. Das gleiche kann vielleicht mit weniger Aufwand mit EAX erzielt werden, ich denke in diese Richtung ging auch damals die Kritik.

Bei einer Rakete oder einem Feuerball, die den Gang hinab schießen und explodieren, und dabei von der Umgebung abhängig unterschiedliche Echos erzeugen, würde ich mir durchaus mehr Aha-Effekt erwarten, z.B. auch der Unterschied wenn das riesige Stahl-Shott offen steht oder geschlossen wird. Es müssten bei schnellen Objekten auch Doppler-Effekte in Abhängigkeit der Positionen möglich sein. Das ist leider alles noch unerschlossenes Terrain, mir würde es als Konsument zumindest gefallen und sicherlich auch auffallen.

Wie in dem Hardwareluxx-Artikel hervorgeht benötigte es scheinbar bei Thief schon den A/B Vergleich mittels An/Aus in der gleiche Szene, damit man den Nutzen bemerkt. Das scheint mir etwas gewesen zu sein, das nur Nerds machen bzw. bemerken würden... Geld fließt allerdings hauptsächlich für die Bedürfnisse des Mainstream der anvisierten Zielgruppe, dann muss es schon unüberhörbar sein.
 
Zuletzt bearbeitet:
Zurück
Oben Unten