App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News True Audio Next in Steam Audio
- Ersteller E555user
- Erstellt am
User-News
Von E555user
Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.In einem Blog-Artikel der Steam-Community geht hervor, dass in der aktuellen Steam Audio 2.0 beta 13 nun der Support für AMDs True Audio Next (TAN) implementiert wurde. Dabei handelt es sich um Methoden zur Berechnung von Raumklangeffekten. Die True Audio Next Bibliotheken unterstützen sowohl die GPU-seitige als auch die CPU-seitige Berechnung der sog. Convolution. Mit TAN steht dem Entwickler frei bei geeigneter Hardware Compute Units für die Convolution zu reservieren um damit wesentlich mehr Tonquellen bzw. Objekte für die Echtzeitausgabe berechnen zu lassen.
Nachdem diese Technologien in der Vergangenheit kaum Einzug in die Games-Entwicklung gefunden haben wird korrekter 3D-Sound mit VR wieder wichtiger, das zugehörige Whitepaper von 2016 AMD TrueAudio Next – The right next step for audio on VR von Carl Wakeland nimmt Bezug dazu. Dieses ist im Rahmen von einem Artikel auf GPUopen.com zu True Audio Next verlinkt.
True Audio Next hat die dedizierte True Audio Hardware auf den GPUs und in den APUs mit Beginn der Polaris-Architektur abgelöst. In wie fern die ältere True Audio Hardware ebenso profitieren kann geht aus den Artikeln nicht hervor. Im Steam-Blog wird der aktuelle Support wie folgt angegeben:
System Requirements
Somit wird mit der Radeon Pro Duo und den Fury Vertretern zumindest die Fiji Generation bereits unterstützt. Ob dabei nun der dedizierte ASIC für True Audio genutzt wird, oder aber ebenso die Compute Units nach dem True Audio Next Konzept bleibt dabei im unklaren.
--- Update ---
Wie es der Zufall so will gab es rund 1h nach meiner News auch entsprechende Artikel bei heise und Computerbase. So ganz scheint man True Audio bei den sog. Online Journalisten nicht verstanden zu haben, umso erbärmlicher sind - wie so oft - die Leserkommentare zum Thema. Es driftet eigentlich nur ab in die Frage ob Benchmarkbalken länger werden oder nicht.
Die Frage ob und wie eine realistischere Soundkulisse in Echtzeit mit planbaren Ressourcen für einen Coder möglich wird steht dort gar nicht zur Debatte, auch nicht, dass es eine OpenSource Software ist. Dabei ging es doch letztlich nur um reservierte Ressourcen für einen realistischeren Ton.
Immerhin gab es im CB-Forum einen Link auf einen alten Hardwareluxx Artikel, der einen feinen Absatz und richtige Wertung zum Thema enthält:
So gesehen ist es wohl schade, dass ausgerechnet ein Schleich-Spiel damals als Einführungsbeispiel zu True Audio dienen musste. Gerade ein Shooter wie Doom mit vielen engen, aber auch weitläufigen Leveln bzw. Caves und dem ganzen akustischen Gebrüll würde eine sehr viel deutlichere Wahrnehmung ermöglichen.
Retrospektiv erklärt das vielleicht die mangelnde Nutzung der Technik in der Vergangenheit, letztlich liegt es nun wohl an den SteamVR Entwicklungen eine Bahn für bessere Akustik zu brechen.
(in wie weit das schon für PSVR umgesetzt wird kann ich nicht beurteilen)
--- Update ---
Nachtrag - auf GPUopen.com gibt es seit 09. Februar einen kurzen Artikel von besagtem Carl Wakeland zu diesem Update bei Steam Audio. Hervorgehoben wird darin nochmals die extrem kurze Latenz bei der Berechnung der Convolution auf der GPU im Vergleich zu CPU.
Nachdem diese Technologien in der Vergangenheit kaum Einzug in die Games-Entwicklung gefunden haben wird korrekter 3D-Sound mit VR wieder wichtiger, das zugehörige Whitepaper von 2016 AMD TrueAudio Next – The right next step for audio on VR von Carl Wakeland nimmt Bezug dazu. Dieses ist im Rahmen von einem Artikel auf GPUopen.com zu True Audio Next verlinkt.
True Audio Next hat die dedizierte True Audio Hardware auf den GPUs und in den APUs mit Beginn der Polaris-Architektur abgelöst. In wie fern die ältere True Audio Hardware ebenso profitieren kann geht aus den Artikeln nicht hervor. Im Steam-Blog wird der aktuelle Support wie folgt angegeben:
System Requirements
Supported GPUs | Operating System | GPU Drivers |
Radeon™ RX 470 Series Radeon™ RX 480 Series Radeon™ RX 570 Series Radeon™ RX 580 Series Radeon™ R9 Fury Radeon™ R9 Fury X Radeon™ Pro Duo Radeon™ RX Vega 56 Radeon™ RX Vega 64 | Windows 10, 64-bit | Current Radeon™ Adrenalin Edition drivers http://support.amd.com/en-us/download |
Somit wird mit der Radeon Pro Duo und den Fury Vertretern zumindest die Fiji Generation bereits unterstützt. Ob dabei nun der dedizierte ASIC für True Audio genutzt wird, oder aber ebenso die Compute Units nach dem True Audio Next Konzept bleibt dabei im unklaren.
--- Update ---
Wie es der Zufall so will gab es rund 1h nach meiner News auch entsprechende Artikel bei heise und Computerbase. So ganz scheint man True Audio bei den sog. Online Journalisten nicht verstanden zu haben, umso erbärmlicher sind - wie so oft - die Leserkommentare zum Thema. Es driftet eigentlich nur ab in die Frage ob Benchmarkbalken länger werden oder nicht.
Die Frage ob und wie eine realistischere Soundkulisse in Echtzeit mit planbaren Ressourcen für einen Coder möglich wird steht dort gar nicht zur Debatte, auch nicht, dass es eine OpenSource Software ist. Dabei ging es doch letztlich nur um reservierte Ressourcen für einen realistischeren Ton.
Immerhin gab es im CB-Forum einen Link auf einen alten Hardwareluxx Artikel, der einen feinen Absatz und richtige Wertung zum Thema enthält:
Noch einmal: Den Effekt von TrueAudio und in diesem Fall der realistischeren Berechnung der Echos können wir nicht messen, wir müssen uns also auf unsere Ohren verlassen. Wer im Besitz einer der oben genannten Karten ist, der sollte TrueAudio in jedem Fall einmal ausprobieren. Gerade große Gebäude mit großflächigen Stein-Oberflächen sorgten bei uns in Thief für ein völlig neues Klangerlebnis - ohne dies nun überbewerten zu wollen.
So gesehen ist es wohl schade, dass ausgerechnet ein Schleich-Spiel damals als Einführungsbeispiel zu True Audio dienen musste. Gerade ein Shooter wie Doom mit vielen engen, aber auch weitläufigen Leveln bzw. Caves und dem ganzen akustischen Gebrüll würde eine sehr viel deutlichere Wahrnehmung ermöglichen.
Retrospektiv erklärt das vielleicht die mangelnde Nutzung der Technik in der Vergangenheit, letztlich liegt es nun wohl an den SteamVR Entwicklungen eine Bahn für bessere Akustik zu brechen.
(in wie weit das schon für PSVR umgesetzt wird kann ich nicht beurteilen)
--- Update ---
Nachtrag - auf GPUopen.com gibt es seit 09. Februar einen kurzen Artikel von besagtem Carl Wakeland zu diesem Update bei Steam Audio. Hervorgehoben wird darin nochmals die extrem kurze Latenz bei der Berechnung der Convolution auf der GPU im Vergleich zu CPU.
Zuletzt bearbeitet:
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.760
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
So ganz scheint man True Audio bei den sog. Online Journalisten nicht verstanden zu haben, umso erbärmlicher sind - wie so oft - die Leserkommentare zum Thema. Es driftet eigentlich nur ab in die Frage ob Benchmarkbalken länger werden oder nicht.
So ist das nunmal in der (gar nicht mehr so) heilen Welt mancher Intel/nVidia Fanatiker. Die haben nunmal Angst um jedes FPS, das sie ggü. AMD verlieren. Und das zurecht.. Wer kriegt Async Compute (AC) noch immer nicht sinnvoll auf die Reihe? AMD GPUs werden da keinen Nachteil haben, da hier massiv Compute Leistung brach liegt und mit funktionierendem AC die Geometrieleistung so gut wie gar nicht tangiert wird (Ohrenschmankerl: FIFA im Westfalenstadion mit 80000 korrekt berechneten Fans im Nacken ). Auch diverse FPS Spiele werden da profitieren (z.B. 64 Spieler Maps mit einigem Krach-Bumm drumherum).
Zum Topic:
Habe mich schon gewundert, warum es um TrueAudio so still wurde. Gut, dass sich da noch was tut. Vielleicht setzt man sich da noch mal mit Creative zusammen und bastelt passend dazu ein Sound Addon Board, so zum komplettieren der Radeon Plattform. Momentan fehlt allerdings wieder der Radeon RAM..
Was fehlt, ist auch eine Möglichkeit, die Raumakkustik zu vermessen und damit einhergehend eine Korrektur des Live-Tons im Spiel/Film/etc.. Kann dann gerne in die Radeon Settings eingepflegt werden.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Ich denke man muss das mehr im allgemeinen Kontext sehen.
Mit der Xbox One und PS4 haben beide Konsolenhersteller separate Audio-Beschleuniger integriert. Wie beim Amiga 500 damals hat man wohl darauf gesetzt, dass die Software besseres Audio bekäme, wenn die Entwickler nicht mehr Ressourcen der CPU verteilen müssten, bei denen im Zweifel immer die Grafik "gewinnt". AMDs Kalkül war wohl, dass mit sehr ähnlicher HW auf den Grafikkarten und den APUs sich diese Entwicklung übertragen lässt. Das hat aber nicht wirklich stattgefunden.
Die Creative Chips waren sicherlich nicht besser als die Tensilica DSPs, die AMD integriert hatte. Diese mussten wohl dem Sparzwang geopfert werden - oder Tensilica hat zu wenig für die Softwareentwicklung investiert - oder AMD musste nach der Cadence Übernahme auf Tensilica fürs nächste Design verzichten - oder, oder...
Man hat auf Libs für die allgemeinen CUs gesetzt. Das ist letztlich aber auch eher philosophisch, der Tensilica wäre sicherlich effizienter als die Convolution via Shadereinheiten.
Für TrueAudio gab es wohl kaum Softwareunterstützung vom Hersteller, erst mit TAN hatte AMD dort gepushed. TrueAudio war noch bevor AMD wieder mehr in Developer Support investierte.
Auch nVidia hat im Rahmen des VR-Hypes vor zwei Jahren ein VR-Works für Audio angekündigt, außer eigenen Demos gab es aber bislang nichts.
Zumindest bei AMD ist das Ganze seit längerem auf GitHub und offen, sowie insbesondere mit X86 Fallback im Angebot, d.h. man kann getrost das Projekt bzw. eine Engine auf solche Libs aufbauen, es werden beide Pfade abgebildet. Theoretisch müsste nVidia auch nur die Treiber anpassen, es sollte möglich sein sofern das Async Compute nicht zu viele Schwierigkeiten bereitet.
Das alte EAX ist allerdings für den Raumklang nicht mit True Audio bzw. den Convolution Berechnungen zu vergleichen. Das eine gab "nur" die Möglichkeit in Abhängigkeit von der Kamera- bzw. Hörerposition vorgefertigte Sounds und Filter für die Räumlichkeit anzuwenden. Bei den neuen Verfahren wird anhand des 3D Modells die Soundkulisse annähernd von den Tonquellen kommend korrekt berechnet. Das bedeutet, dass jedes einzelne klingende Objekt eine eigene Schallberechnung erfährt und dafür die reflektierenden Objekte definiert werden müssen. Das ist für die Sounddesigner eine ganz andere Aufgabe. Es geht nicht mehr darum einen passenden Ton je Schallquelle und Ambient-Sound für die Hörerposition zu faken, sondern die Eigenschaften von Oberflächen im Editor so einzustellen, dass hinterher eine glaubwürdige Soundkulisse entsteht. Das lässt sich nunmal mit steigender Komplexität von beweglichen Schallquellen nicht mehr faken. Ein Paradigmenwechsel, der letztlich auch nur Schrittweise erfolgen kann.
Vielleicht lässt sich das in den Engines zudem für GPUs mit dem Grafikrendering optimieren. Die 3d-Daten, die an die GPU übertragen werden, sollten bis vor der Tesselation und dem Culling die gleichen sein.
Um das verständlich zu machen und besser einzuordnen zu können hat nVidia mal wieder das bessere Consumer-Demovideo. AMD hat das bessere Developer-Demovideo.
Mit der Xbox One und PS4 haben beide Konsolenhersteller separate Audio-Beschleuniger integriert. Wie beim Amiga 500 damals hat man wohl darauf gesetzt, dass die Software besseres Audio bekäme, wenn die Entwickler nicht mehr Ressourcen der CPU verteilen müssten, bei denen im Zweifel immer die Grafik "gewinnt". AMDs Kalkül war wohl, dass mit sehr ähnlicher HW auf den Grafikkarten und den APUs sich diese Entwicklung übertragen lässt. Das hat aber nicht wirklich stattgefunden.
Die Creative Chips waren sicherlich nicht besser als die Tensilica DSPs, die AMD integriert hatte. Diese mussten wohl dem Sparzwang geopfert werden - oder Tensilica hat zu wenig für die Softwareentwicklung investiert - oder AMD musste nach der Cadence Übernahme auf Tensilica fürs nächste Design verzichten - oder, oder...
Man hat auf Libs für die allgemeinen CUs gesetzt. Das ist letztlich aber auch eher philosophisch, der Tensilica wäre sicherlich effizienter als die Convolution via Shadereinheiten.
Für TrueAudio gab es wohl kaum Softwareunterstützung vom Hersteller, erst mit TAN hatte AMD dort gepushed. TrueAudio war noch bevor AMD wieder mehr in Developer Support investierte.
Auch nVidia hat im Rahmen des VR-Hypes vor zwei Jahren ein VR-Works für Audio angekündigt, außer eigenen Demos gab es aber bislang nichts.
Zumindest bei AMD ist das Ganze seit längerem auf GitHub und offen, sowie insbesondere mit X86 Fallback im Angebot, d.h. man kann getrost das Projekt bzw. eine Engine auf solche Libs aufbauen, es werden beide Pfade abgebildet. Theoretisch müsste nVidia auch nur die Treiber anpassen, es sollte möglich sein sofern das Async Compute nicht zu viele Schwierigkeiten bereitet.
Das alte EAX ist allerdings für den Raumklang nicht mit True Audio bzw. den Convolution Berechnungen zu vergleichen. Das eine gab "nur" die Möglichkeit in Abhängigkeit von der Kamera- bzw. Hörerposition vorgefertigte Sounds und Filter für die Räumlichkeit anzuwenden. Bei den neuen Verfahren wird anhand des 3D Modells die Soundkulisse annähernd von den Tonquellen kommend korrekt berechnet. Das bedeutet, dass jedes einzelne klingende Objekt eine eigene Schallberechnung erfährt und dafür die reflektierenden Objekte definiert werden müssen. Das ist für die Sounddesigner eine ganz andere Aufgabe. Es geht nicht mehr darum einen passenden Ton je Schallquelle und Ambient-Sound für die Hörerposition zu faken, sondern die Eigenschaften von Oberflächen im Editor so einzustellen, dass hinterher eine glaubwürdige Soundkulisse entsteht. Das lässt sich nunmal mit steigender Komplexität von beweglichen Schallquellen nicht mehr faken. Ein Paradigmenwechsel, der letztlich auch nur Schrittweise erfolgen kann.
Vielleicht lässt sich das in den Engines zudem für GPUs mit dem Grafikrendering optimieren. Die 3d-Daten, die an die GPU übertragen werden, sollten bis vor der Tesselation und dem Culling die gleichen sein.
Um das verständlich zu machen und besser einzuordnen zu können hat nVidia mal wieder das bessere Consumer-Demovideo. AMD hat das bessere Developer-Demovideo.
Zuletzt bearbeitet:
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Das glaube ich eigentlich nicht. Ein behäbiges Schleichspiel wird tatsächlich die bessere Wahl von AMD gewesen sein. Das Gehör der meisten Spieler gerät anders als der Sehsinn doch sehr schnell an seine Grenzen. Wenn man in einem schnellen Schießspiel mit vielen Bildeindrücken konfrontiert wird, tritt der Gehörsinn weitgehend zurück und es kommt gar nicht mehr auf die akurate Berechnungen dutzender verschiedener Tonquellen mit Reflexionen, Absorptionen und allem drun und dran an. Damit die verschiedenen akustischen Sinneseindrücke auszuklabüstern wäre das menschliche Gehirn vollkommen überfordert. Das war in unser evolutionären Entwicklung in den letzten Jahrtausenden schlicht und einfach nicht gefordert. Außerdem fehlt es den meisten Spielern (noch) an geeigneten Ausgabegeräten. Dies mag die geringe Priorität bei den Entwicklern erklären. Theoretisch ist TrueAudio selbstverständlich faszinierend, aber in der Praxis gleicht es oft dem sprichwörtlichen "Perlen vor die Säue werfen". Anders sähe es natürlich aus, wenn der Familienhund mitbeschallt werden soll, dann wäre es für den DSP keine verschwendete Rechenleistung mehr.Gerade ein Shooter wie Doom (...) würde eine sehr viel deutlichere Wahrnehmung ermöglichen.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Ich muss zugeben ich kenne das letzte Thief nicht, sondern nur das Original und den zweiten Teil. Bei einem Schleich-Spiel lassen sich aber wegen der Langsamkeit und der relativen Lautlosigkeit der Abläufe IMHO kaum die Effekte einer echten Berechnung während des Spielens erfahren, es ist prinzipbedingt zu wenig Dynamik im Ablauf, alles Akustische müsste übertrieben werden. Das gleiche kann vielleicht mit weniger Aufwand mit EAX erzielt werden, ich denke in diese Richtung ging auch damals die Kritik.Das glaube ich eigentlich nicht. Ein behäbiges Schleichspiel wird tatsächlich die bessere Wahl von AMD gewesen sein.....
Bei einer Rakete oder einem Feuerball, die den Gang hinab schießen und explodieren, und dabei von der Umgebung abhängig unterschiedliche Echos erzeugen, würde ich mir durchaus mehr Aha-Effekt erwarten, z.B. auch der Unterschied wenn das riesige Stahl-Shott offen steht oder geschlossen wird. Es müssten bei schnellen Objekten auch Doppler-Effekte in Abhängigkeit der Positionen möglich sein. Das ist leider alles noch unerschlossenes Terrain, mir würde es als Konsument zumindest gefallen und sicherlich auch auffallen.
Wie in dem Hardwareluxx-Artikel hervorgeht benötigte es scheinbar bei Thief schon den A/B Vergleich mittels An/Aus in der gleiche Szene, damit man den Nutzen bemerkt. Das scheint mir etwas gewesen zu sein, das nur Nerds machen bzw. bemerken würden... Geld fließt allerdings hauptsächlich für die Bedürfnisse des Mainstream der anvisierten Zielgruppe, dann muss es schon unüberhörbar sein.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 3
- Aufrufe
- 879