Holophonie

Holophonie

Die Wellenfeldsynthese (WFS) ist ein räumliches Audiowiedergabeverfahren mit dem Ziel, virtuelle akustische Umgebungen zu schaffen. Die Synthese erzeugt Wellenfronten, die von einem virtuellen Punkt ausgehen. Dessen akustische Lokalisation ist nicht von der Zuhörerposition und auch nicht, wie bei den konventionellen Mehrkanalverfahren, von psychoakustischen Effekten wie der Phantomschallquellenbildung abhängig.

WFS Rekonstruktion der Wellenfront, als Animation bei Weblinks

Inhaltsverzeichnis

Physikalische Grundlagen

Die Synthese basiert auf dem Huygens-Prinzip, das beschreibt, dass jede Wellenfront auch als Überlagerung von Elementarwellen betrachtet werden kann. Deshalb lässt sich aus solchen Elementarwellen auch jede beliebige Wellenfront synthetisieren.

Um Schallwellen zu erzeugen steuert eine Computersynthese dabei jeden der einzelnen Lautsprecher – angeordnet in Reihen rings um den Zuhörer – genau in dem Moment an, zu dem eine virtuelle Wellenfront seinen Raumpunkt durchlaufen würde. Professor Berkhout erfand dieses Verfahren 1988 an der Technischen Universität Delft.[1]

Mathematische Basis ist das Kirchhoff-Helmholtz-Integral, das beschreibt, dass der Schalldruck in jedem Punkt innerhalb eines quellfreien Volumens bestimmt ist, wenn Schalldruck und Schallschnelle in allen Punkten seiner Oberfläche determiniert sind.

\boldsymbol{P}(w,z)=\iint_{dA}{G(w,z\vert{z\,'}})\frac \partial {\partial n}P(w,z\,')- P(w,z\,')\frac \partial {\partial n}{G(w,z\vert{z\,'}})dz\,'

Deshalb kann jedes Schallfeld rekonstruiert werden, wenn Schalldruck und Schallschnelle auf allen Punkten der Oberfläche des Volumens rekonstruiert werden. Ein solcher räumlicher Ansatz beschreibt das Prinzip der Holofonie. Dabei müsste die gesamte Oberfläche des Volumens, also alle Begrenzungsflächen des Wiedergaberaumes, dicht an dicht mit Monopolen und Dipolen zur Schallerzeugung bestückt werden, alle einzeln angesteuert mit ihrem jeweiligen Signal. Darüber hinaus müsste der Raum schalltot sein, um die Bedingung des quellfreien Volumens zu erfüllen. Das ist ein praktisch nicht zu realisierender Ansatz, weshalb vereinfachte, praktikable Verfahren gefunden werden mussten. Gemäß Rayleigh II ist der Schalldruck in jedem Punkt eines Halbraumes determiniert, wenn der Schalldruck in jedem Punkt einer Ebene bekannt ist. Weil unsere akustische Wahrnehmung in der Azimutebene am genauesten ist, wird das Verfahren bis heute allgemein auf eine einzelne Lautsprecherreihe rings um den Zuhörer reduziert.

Der Ausgangspunkt der synthetisierten Wellenfront kann dann jeder beliebige Punkt innerhalb der horizontalen Ebene der Lautsprecher sein. Er repräsentiert die virtuelle akustische Quelle, die sich in ihrem Verhalten kaum von einer realen akustischen Quelle an ihrer Position unterscheidet. Sie scheint sich nicht mehr mitzubewegen, wenn sich der Zuhörer im Abhörraum bewegt. Konvexe oder auch konkave Wellenfronten können erzeugt werden, die virtuelle Schallquelle kann sich auch innerhalb der Lautsprecheranordnung befinden und sie wird sogar „umgehbar“.

Vorzüge des Verfahrens

Mithilfe von Pegel- und Zeitinformationen, gespeichert in der Impulsantwort des Aufnahmeraumes oder für den modellbasierten Ansatz in einem Spiegelschallquellen- Modell kann mit der Wellenfeldsynthese ein Schallfeld mit sehr stabiler Position der Schallquellen erzeugt werden. Grundsätzlich wäre es nach dem Ansatz der Holofonie sogar möglich, das Schallfeld des Aufnahmeraumes physikalisch weitgehend wiederherzustellen, so dass sich eine Veränderung der Zuhörerposition im Wiedergaberaum akustisch genauso auswirken würde wie eine entsprechende Ortsveränderung im Aufnahmeraum. Schon mit den Lautsprecherzeilen wird das Schallfeld "durchschreitbar".

Von der Moving Picture Expert Group wurde der Objektorientierte Übertragungsstandard MPEG4 genormt, der eine getrennte Übertragung von Inhalt (dem trocken aufgenommenen Audiosignal) und Form (der Impulsantwort oder des Spiegelschallquellenmodells) ermöglicht. Jede virtuelle Schallquelle benötigt dabei ihren eigenen (Mono) Audiokanal.

Das räumliche Schallfeld im Aufnahmeraum besteht aus der direkten Welle der Schallquelle und einem räumlich verteilten Muster von Spiegelschallquellen. Sie entstehen dadurch, dass die direkte Welle von allen Oberflächen des Aufnahmeraumes reflektiert wird. Ihre räumliche Verteilung auf einige wenige Lautsprecherpositionen zu reduzieren, wie das bei allen konventionellen, kanalgebundenen Verfahren der Fall ist, muss zwangsläufig einen signifikanten Verlust an Rauminformation zur Folge haben. Viel exakter kann diese räumliche Verteilung auf der Wiedergabeseite synthetisiert werden. Darüber hinaus entstehen viele Probleme, die bei den kanalgebundenen Verfahren aufnahmeseitig kaum lösbar sind, bei den objektorientierten Verfahren erst gar nicht.

Auch bezüglich der konventionellen, kanalgebundenen Wiedergabe hat das Verfahren einen deutlichen Vorteil: „Virtual panning spots“ genannte virtuelle Schallquellen, die das Signal der zugehörigen Kanäle wiedergeben, können weit außerhalb des realen Wiedergaberaumes positioniert werden. Das verringert den Einfluss der Zuhörerposition, weil die relativen Änderungen in Einfallswinkel und Pegel deutlich geringer sind, als bei den nahe gelegenen realen Lautsprecherboxen. Das erweitert den sweet spot beträchtlich, er kann sich nun fast über den gesamten Wiedergaberaum erstrecken. Das Verfahren der Wellenfeldsynthese ist also nicht nur kompatibel, es verbessert auch die Reproduktion für die konventionellen Übertragungsverfahren deutlich.

Verbleibende Probleme

Der am deutlichsten wahrnehmbare Unterschied zum Originalschallfeld ist die Reduktion des reproduzierten Schallfeldes auf die horizontale Ebene der Lautsprecherreihen. Sie ist deshalb besonders auffällig, weil durch die notwendige akustische Bedämpfung des Wiedergaberaumes kaum Spiegelschallquellen außerhalb dieser Ebene entstehen. Jedoch wäre ohne diese akustische Bedämpfung die Bedingung des quellfreien Volumens aus dem mathematischen Ansatz verletzt.

Störend ist auch der „Truncation- Effekt“. Weil die Wellenfront nicht von einer einzelnen Schallquelle sondern durch die Überlagerung aller Wellenfronten der Einzelstrahler gebildet wird, entsteht ein plötzlicher Druckwechsel wenn am Ende der Lautsprecheranordnung keine weiteren Strahler mehr ihren Beitrag liefern. Diese „Schattenwelle“ kann abgeschwächt werden, wenn schon die äußeren Lautsprecher in ihrem Pegel reduziert werden. Für virtuelle Schallquellen innerhalb der Lautsprecheranordnung eilt diese Druckänderung jedoch der eigentlichen Wellenfront voraus, wodurch sie deutlich hörbar wird.

Da bei der WFS versucht wird, einen anderen Raum zu simulieren als der vorhandene, muss die Akustik des Wiedergaberaumes unterdrückt werden. Die eine Möglichkeit dazu ist, die Wände entsprechend absorbtiv zu gestalten. Die zweite Möglichkeit ist die Wiedergabe im Nahfeld. Dabei befinden sich die Lautsprecher sehr nahe an der Hörzone oder die Membranfläche muss sehr groß sein.

Ein weiteres Problem ist bis heute der hohe Aufwand. Eine große Anzahl einzelner Schallwandler muss sehr eng benachbart aufgebaut werden. Anderenfalls werden räumliche Aliasing-Effekte hörbar. Sie entstehen, weil nicht eine unbegrenzte Anzahl von Elementarwellen erzeugt werden kann, so wie es der mathematische Ansatz beschreibt. Durch die Diskretisierung entstehen innerhalb des Wiedergabebereiches positionsabhängige schmalbandige Einbrüche im Frequenzgang. Ihre Frequenz ist vom Winkel der virtuellen Schallquelle und vom Winkel des Zuhörers gegen die erzeugende Lautsprecherfront abhängig:

f_\mathrm{alias} = \frac{c}{\Delta x\mid \sin\Theta^{sec}- \sin\Theta^v\mid}

Für eine weitgehend aliasingfreie Wiedergabe im gesamten Hörbereich wäre danach ein Abstand der Einzelstrahler unter 2 cm notwendig. Aber glücklicherweise ist unser Ohr nicht besonders empfindlich für diesen Effekt, so dass er schon bei 10 bis 15 cm Strahlerabstand kaum noch störend ist. Andererseits begrenzt die Größe des Strahlerfeldes den Darstellungsbereich, außerhalb seiner Grenzen können keine virtuellen Schallquellen erzeugt werden. Deshalb scheint die Reduktion des Verfahrens auf die horizontale Ebene bis heute gerechtfertigt.

Forschung und Marktreife

Die neueren Verfahren zur WFS wurden ab 1988 zuerst an der TU Delft entwickelt. Im Rahmen des von der EU geförderten Projektes CARROUSO (Januar 2001 bis Juni 2003) forschten europaweit zehn Institute auf diesem Gebiet. Die beteiligten Forschungsinstitute waren IRCAM, IRT und Fraunhofer, die beteiligten Universitäten waren die TU Delft, die Universität Erlangen, die AU Thessaloniki und die EPFL Lausanne (Integrated System Laboratory), beteiligte Unternehmen Studer, France Telecom und Thales.

Für die horizontalen Lautsprecherreihen rings um den Zuhörer sind aber, auch wegen der Notwendigkeit den Wiedergaberaum akustisch zu bedämpfen, die Akzeptanzprobleme so groß, dass sich das Verfahren im Heimbereich nicht durchsetzen konnte. Für ein solches zweidimensionales Verfahren ist der Durchbruch in diesem Marktsegment kaum zu erwarten, auch weil mit Ambisonics eine vergleichbare dreidimensionale Lösung für den Heimbereich existiert. Auch zusätzliche WFS-Wandler an der Zimmerdecke oder die Einbeziehung eines 2,5-D-Syntheseoperators werden diese Situation kaum ändern. Ein dreidimensionaler Lösungsvorschlag, der die Akustik des Wiedergaberaumes in die Synthese einbezieht, ist zwar bekannt, aber wegen des hohen Aufwandes bis heute kaum realisierbar.[2] Andere Bemühungen zielen darauf ab, die Schallwandler unsichtbar in den Wiedergaberaum zu integrieren.

Bei der WFS werden üblicherweise Primärschall, frühe Reflexionen und der Nachhall getrennt bearbeitet. Bei einer allein auf der Impulsantwort basierenden Synthese gerät das Verfahren noch heute für bewegte Schallquellen an die Grenzen der verfügbaren Rechenleistung. Deshalb werden auch Kombinationen von modellbasiertem Verfahren für die direkte Wellenfront und die frühen schallstarken Reflexionen mit impulsantwortbasierter Erzeugung des für die Lokalisation der Schallquelle weniger wichtigen Nachhalls angewendet. Das verringert die benötigte Rechenleistung enorm.[3]

In den vergangenen Jahren wurden – vor allem im öffentlichen Bereich – verschiedene WFS-Systeme installiert. Für das zum Fraunhofer-IDMT gehörende IOSONO-Kino Linden Lichtspiele in Ilmenau, für die Bregenzer Festspiele und für die Seefestspiele Mörbisch, beim KI.KA in Erfurt sowie an verschiedenen Universitäten erzeugen die Lautsprecherreihen ein Schallfeld, in dem die Schallquelle unvergleichlich viel stabiler ortbar ist als in bei konventionellen Beschallungsanlagen. Das WFS-Klangsystem IOSONO wurde vom Fraunhofer-Institut für Digitale Medientechnologie (IDMT) im Umfeld der Technischen Universität Ilmenau für den Forschungsbereich entwickelt und wird unter dem Namen IOSONO von der IOSONO-GmbH vertrieben. International ist die Wellenfeldsynthese derzeit an mehreren Universitäten Forschungsgegenstand. Die rasante Entwicklung im Bereich der digitalen Signalprozessoren macht das Verfahren zukünftig selbst im Heimbereich zu einer möglichen Alternative zu den konventionellen, kanalbasierten Verfahren, zumal auch diese bei weiter steigender Kanalzahl mit zunehmenden Akzeptanzproblemen konfrontiert sind.

Die TU Berlin hat zusammen mit dem WDR am 29. Juli 2008 ein Konzert aus dem Kölner Dom live in WFS in ihren Hörsaal 104 übertragen. Das Auditorium mit 650 Sitzplätzen ist mit der weltweit bisher größten Beschallungsanlage nach dem Prinzip der Wellenfeldsynthese ausgestattet. Ein aus insgesamt 2.700 Lautsprechern bestehendes Band umläuft dazu den Hörsaal etwa auf Ohrhöhe der Zuhörer; hinzu kommen Frontbeschallung sowie Deckenlautsprecher für Höheninformationen. Angesteuert werden die Lautsprecher über digitale Datenleitungen mit 832 unabhängigen Signalen, die ihrerseits von einem Cluster aus 16 Rechnern generiert werden.

Literatur

  • Jens Blauert: Räumliches Hören. S. Hirzel Verlag, Stuttgart 1974. ISBN 3-7776-0250-7
  • Jens Blauert: Räumliches Hören, 2. Nachschrift - Neue Ergebnisse und Trends seit 1982 bis 1997. S. Hirzel Verlag Stuttgart, 1997. ISBN 3-7776-0738-X
  • Glen M. Ballou: Handbook for Sound Engineers, Third Edition. Elsevier / Focal Press 2002. ISBN 0-240-80758-8

Einzelnachweise

  1. Berkhout, A.J. (1988) ‘A holographic approach to acoustic control’. Journal of the Audio Engineering Society, Vol.36, No.12, December 1988, pp.977-995.
  2. Jens Blauert: Räumliches Hören. S. Hirzel Verlag, Stuttgart 1974. ISBN 3-7776-0250-7
  3. William Francis Wolcott IV: Wave Field Synthesis with Real-time Control,Project Report, University of California Santa Barbara 2007

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Holophonie — L Holophonie est une forme particulière d enregistrement sonore qui est basée (entre autres) sur l hypothèse non prouvée, selon laquelle le système auditif fonctionne comme un interféromètre. Les caractéristiques sonores de l… …   Wikipédia en Français

  • Perception acoustique — Psychoacoustique La psychoacoustique est l étude des sensations auditives de l homme. Elle se situe donc à la frontière entre l acoustique, la physiologie et la psychologie. L acoustique étudiera la nature et les propriétés des ondes sonores qui… …   Wikipédia en Français

  • Psycho-acoustique — Psychoacoustique La psychoacoustique est l étude des sensations auditives de l homme. Elle se situe donc à la frontière entre l acoustique, la physiologie et la psychologie. L acoustique étudiera la nature et les propriétés des ondes sonores qui… …   Wikipédia en Français

  • Außenohrübertragungsfunktion — Die Artikel Ohrsignal und HRTF überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen Baustein erst nach… …   Deutsch Wikipedia

  • Head-Related Transfer Function — Die Artikel Ohrsignal und HRTF überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen Baustein erst nach… …   Deutsch Wikipedia

  • Kopfbezogene Übertragungsfunktion — Die Artikel Ohrsignal und HRTF überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte entferne diesen Baustein erst nach… …   Deutsch Wikipedia

  • Patrick Ascione — (né à Paris en 1953) est un compositeur français de musique électroacoustique et acousmatique. Patrick Ascione, 2010 Sommaire 1 Biographie …   Wikipédia en Français

  • Psychoacoustique — La psychoacoustique est l étude des sensations auditives de l homme. Elle se situe donc à la frontière entre l acoustique, la physiologie et la psychologie. L acoustique étudiera la nature et les propriétés des ondes sonores qui arrivent au… …   Wikipédia en Français

  • Patrick Ascione — is an electroacoustic music composer born October 22, 1953 in Paris, France, and currently living in France.Patrick Ascione began composing in 1976 and shortly after joined the team of the Groupe de musique expérimentale de Bourges (GMEB, France) …   Wikipedia

  • HRTF — Die Head Related Transfer Function wird meistens mit den Buchstaben HRTF bezeichnet und seltener auf Deutsch: Kopfbezogene Übertragungsfunktion (KobeÜF) oder Außenohrübertragungsfunktion genannt. Sie beschreibt die komplexe Filterwirkung von Kopf …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”