Kanalkapazität

Kanalkapazität

Die Kanalkapazität ist Teil der informationstheoretischen Beschreibung eines Übertragungskanals. Sie gibt an, wie hoch die Bitrate ist, welche über einen Übertragungskanal fehlerfrei übertragen werden kann.

Claude Shannon und Ralph Hartley zeigten in Form des Shannon-Hartley-Gesetzes, dass sich die theoretische Kanalkapazität durch geeignete Kodierung näherungsweise erreichen lässt.

Inhaltsverzeichnis

Definition

Allgemeiner Übertragungskanal

Die Kanalkapazität C für einen diskreten, gedächtnisfreien Kanal ist das Supremum aller fehlerfrei in einer Zeitspanne τ übertragbaren Symbole. Dabei wird zwischen dem Informationsgehalt der gesendeten Symbole X und der empfangenen Symbole Y unterschieden. Der Unterschied ergibt sich:

  1. durch Störungen welche am Übertragungskanal auf die Symbole einwirken und diese verfälschen,
  2. durch den Umstand, dass eine gesendete Information am Übertragungskanal verloren gehen kann.

Mathematisch lässt sich durch die Entropiefunktion I(·), welche die wechselseitige Information beschreibt, für diese beiden Fälle ausdrücken als:

I(X;Y) = H(X) − H(X | Y) = H(Y) − H(Y | X)

Die Kanalkapazität C lässt sich als jenes Maximum angeben:

C = \frac{1}{\tau} \max_{p(X)} I(X; Y)

Arten von Übertragungskanälen

Die Kanalkapazität ist abhängig von der Art des Übertragungskanals. Im folgenden wird für wichtige Modelle von Übertragungskanälen die Kanalkapazität dargestellt.

Binärer symmetrischer Kanal

Der binäre Übertragungskanal stellt einen wertdiskreten Übertragungskanal dar, somit ist dessen maximale Kanalkapazität auf ein Bit limitiert. Der Kanal kann nur die zwei Symbole (Zustände) annehmen welche mit 0 oder 1 bezeichnet werden. Somit kann die Kanalkapazität bei diesem Kanalmodell nur im Intervall 0 bis 1 liegen.

Die Kanalkapazität dieses binären symmetrischen Kanals, im Englischen auch als Binary Symmetric Channel (BSC) bezeichnet, ist:

 C = 1 - H(p) = 1 + p \cdot \log_2 p + ( 1 - p ) \cdot \log_2 (1 - p) ,

wobei H(p) die binäre Entropiefunktion darstellt:

H(p) = - ( p \cdot \log_2 p + ( 1 - p ) \cdot \log_2 (1 - p))

und p die Fehlerwahrscheinlichkeit ist.

Für die Extremwerte der Fehlerwahrscheinlichkeit von p = 1 oder p = 0 ist die Kapazität eins und somit maximal. Wobei im ersten Fall der Übertragskanal einen Inverter darstellt. Im Fall p = 0 liegt ein fehlerfreier binärer Übertragungskanal vor. Für p = 0,5 ist die Kanalkapazität C = 0, also minimal. In diesem Fall wird der BSC zu einer idealen Rauschquelle und keine Informationsübertragung kann erfolgen.

Binärer Auslöschungskanal

Auch der binäre Auslöschungskanal stellt einen wertdiskreten Übertragungskanal dar, dessen Kanalkapazität ist:

C = 1 − p

mit der Fehlerwahrscheinlichkeit p. Die Kanalkapazität ist bei diesem Kanal maximal für p = 0, wo keinerlei Auslöschung erfolgt. Sie ist minimal für p = 1 wo jegliche Information ausgelöscht wird und keinerlei Informationsübertragung möglich ist.

AWGN-Kanal

Der AWGN-Kanal stellt einen wertkontinuierlichen Übertragungskanal dar, welcher als Störgröße additives weißes gaußsches Rauschen (AWGN) aufweist. Aufgrund der wertkontinuierlichen Kanaleigenschaft können im Prinzip unendlich viele Symbole vorkommen, welche allerdings durch die Störgröße unter Umständen nicht mehr sicher voneinander unterschieden werden können. Die sich daraus ergebende Kanalkapazität C des AWGN-Kanals ist:

 C = \frac{1}{2} \cdot \log_2 \left( 1 + \frac{S}{N} \right)

Dabei ist der Ausdruck S/N das Signal-Rausch-Verhältnis, abgekürzt als SNR bezeichnet, zwischen der zu übertragenden Information und des am Kanal auftretenden, additiven weißen gaußschen Rauschens. Für eine maximale Kanalkapazität ist es notwendig, dass das SNR maximal wird. Im Grenzfall eines Kanals mit S/N → ∞ kann durch den Umstand einer unendlich großen Symbolmenge auch eine unendlich hohe Kanalkapazität erreicht werden - dieser Grenzfall ist allerdings praktisch durch immer vorhandene Störquellen nicht erreichbar.

Abgrenzung

Die Kanalkapazität stellt keine Übertragungsrate R dar, ausgedrückt in Bit pro Sekunde (Bit/s), da keinerlei Zeitbezug vorliegt. Um zur Übertragungsrate zu gelangen, werden in zeitlicher Abfolge unterschiedliche Symbole über den Kanal übertragen. Diese zeitliche Abfolge von unterschiedlichen Symbolen ergibt eine Symbolrate, welche von der Frequenz abhängt und belegt spektral eine bestimmte Bandbreite. Die Übertragungsrate R ergibt sich dann aus der Symbolrate und dem Wert wie viele Bits an Information pro Symbol transportiert wird. Der Wert wie viele Bits pro Symbol übertragen werden, hängt direkt von der Kanalkapazität und somit vom jeweiligen Kanal ab.

Literaturquellen

  • André Neubauer, Jürgen Freudenberger, Volker Kühn: Coding Theory. Algorithms, Architectures, and Applications. John Wiley & Son, Chichester 2007, ISBN 978-0-470-02861-2.

Wikimedia Foundation.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Kanalkapazität — I Kanalkapazität,   Begriff aus der Informationstheorie zur Bezeichnung der Informationsmenge, die durch einen Informationskanal (z. B. einen Nerv) übertragen werden kann. II Kanalkapazität,   die maximal mögliche Geschwindigkeit, mit der Daten… …   Universal-Lexikon

  • Kanalkapazität — kanalo pralaida statusas T sritis automatika atitikmenys: angl. channel capacity vok. Kanaldurchsatzleistung, f; Kanalkapazität, f rus. емкость канала, f; пропускная способность канала, f pranc. capacité de communication, f …   Automatikos terminų žodynas

  • Kanalkapazität — kanalo talpa statusas T sritis automatika atitikmenys: angl. channel capacity vok. Kanalkapazität, f rus. емкость канала, f pranc. capacité de canal, f …   Automatikos terminų žodynas

  • Kanalkapazität — Ka|nal|ka|pa|zi|tät die; , en: obere Grenze der Übertragungsgeschwindigkeit von Nachrichten, d. h. der maximale Informationswert, den ein Kanal (5, 6) speichern od. pro Zeiteinheit übertragen kann …   Das große Fremdwörterbuch

  • RangeMax — Unterscheidung zwischen SISO, SIMO, MISO und MIMO MIMO (Multiple Input Multiple Output) bezeichnet in der Nachrichtentechnik die Nutzung mehrerer Sende und Empfangsantennen zur drahtlosen Kommunikation. Dies ist die Grundlage für spezielle… …   Deutsch Wikipedia

  • MIMO (Nachrichtentechnik) — Unterscheidung zwischen SISO, SIMO, MISO und MIMO MIMO (Multiple Input Multiple Output) bezeichnet in der Nachrichtentechnik die Nutzung mehrerer Sende und Empfangsantennen zur drahtlosen Kommunikation. Dies ist die Grundlage für spezielle… …   Deutsch Wikipedia

  • Bit/s — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

  • Bit Rate — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

  • Bit pro Sekunde — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

  • Byte pro Sekunde — Die Datenübertragungsrate (auch Datentransferrate, Datenrate oder umgangssprachlich Verbindungsgeschwindigkeit, Übertragungsgeschwindigkeit, und nicht ganz zutreffend auch „Kapazität“, „Bandbreite“ genannt) bezeichnet die digitale Datenmenge, die …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”