Lehrsatz von Shannon-Hartley

In der Informationstheorie erzählt der Lehrsatz von Shannon-Hartley die maximale Rate, an der Information über einen Kommunikationskanal einer angegebenen Bandbreite in Gegenwart vom Geräusch übersandt werden kann. Es ist eine Anwendung des lauten Kanalcodierlehrsatzes zum archetypischen Fall eines dauernd-maligen analogen Kommunikationskanalthemas dem Geräusch von Gaussian. Der Lehrsatz gründet die Kanalkapazität von Shannon für solch eine Nachrichtenverbindung, ein gebundener der maximale Betrag von fehlerfreien Digitaldaten (d. h. Information), der mit einer angegebenen Bandbreite in Gegenwart von der Geräuscheinmischung übersandt werden kann, annehmend, dass die Signalmacht begrenzt wird, und dass der Geräuschprozess von Gaussian durch eine bekannte Macht oder Macht geisterhafte Dichte charakterisiert wird. Das Gesetz wird nach Claude Shannon und Ralph Hartley genannt.

Behauptung des Lehrsatzes

Das ganze mögliche Mehrniveau und mehrphasige Verschlüsselungstechniken denkend, setzt der Lehrsatz von Shannon-Hartley die Kanalkapazität C fest, bedeutend, dass das theoretische dichteste obere zur Informationsrate gebunden hat (Fehlers ausschließend, der Codes korrigiert) von sauberen (oder willkürlich niedrige Bit-Fehlerrate) Daten, die mit einer gegebenen durchschnittlichen Signalmacht S durch ein analoges Nachrichtenkanalthema dem zusätzlichen weißen Geräusch von Gaussian der Macht N gesandt werden können, ist:

:wo

:C ist die Kanalkapazität in Bit pro Sekunde;

:B ist die Bandbreite des Kanals im Hertz (passband Bandbreite im Falle eines abgestimmten Signals);

: S ist die Gesamtmacht des empfangenen Signals über die Bandbreite (im Falle eines abgestimmten Signals, häufig hat C angezeigt, d. h. hat Transportunternehmen abgestimmt), gemessen im Watt oder Volt;

: N ist das Gesamtgeräusch oder die Einmischungsmacht über die Bandbreite, die im Watt oder Volt gemessen ist; und

:S/N ist das Verhältnis des Signals zum Geräusch (SNR) oder das Verhältnis des Transportunternehmens zum Geräusch (CNR) des Nachrichtensignals zur Geräuscheinmischung von Gaussian ausgedrückt als ein geradliniges Macht-Verhältnis (nicht als logarithmische Dezibel).

Historische Entwicklung

Während des Endes der 1920er Jahre haben Harry Nyquist und Ralph Hartley eine Hand voll grundsätzliche Ideen entwickelt, die mit der Übertragung der Information besonders im Zusammenhang des Telegrafen als ein Kommunikationssystem verbunden sind. Zurzeit waren diese Konzepte starke Durchbrüche individuell, aber sie waren nicht ein Teil einer umfassenden Theorie. In den 1940er Jahren hat Claude Shannon das Konzept der Kanalkapazität, gestützt teilweise auf den Ideen von Nyquist und Hartley entwickelt, und hat dann eine ganze Theorie der Information und seiner Übertragung formuliert.

Rate von Nyquist

1927 hat Nyquist beschlossen, dass die Zahl von unabhängigen Pulsen, die durch einen Fernschreibkanal pro Einheitszeit gestellt werden konnten, auf zweimal die Bandbreite des Kanals beschränkt wird. In Symbolen,

:

wo f die Pulsfrequenz ist (in Pulsen pro Sekunde) und B die Bandbreite (im Hertz) ist. Die Menge 2B ist später gekommen, um die Rate von Nyquist genannt zu werden, und an der Begrenzungspulsrate 2B Pulse pro Sekunde als signalisierend an der Rate von Nyquist übersendend. Nyquist hat seine Ergebnisse 1928 als ein Teil seines Papiers "Bestimmte Themen in der Telegraf-Übertragungstheorie veröffentlicht."

Das Gesetz von Hartley

Während dieses desselben Jahres hat Hartley eine Weise formuliert, Information und seine Linienrate (auch bekannt als Daten Signalrate oder Gros bitrate einschließlich des Fehlerkorrekturcodes 'R' über einen Kommunikationskanal) zu messen. Diese Methode, die später als das Gesetz von Hartley bekannt ist, ist ein wichtiger Vorgänger für den hoch entwickelteren Begriff von Shannon der Kanalkapazität geworden.

Hartley hat behauptet, dass die maximale Zahl von verschiedenen Pulsen, die übersandt und zuverlässig über einen Kommunikationskanal erhalten werden können, durch die dynamische Reihe des Signalumfangs und der Präzision beschränkt wird, mit der der Empfänger Umfang-Niveaus unterscheiden kann. Spezifisch, wenn der Umfang des übersandten Signals auf die Reihe [-A... +A] Volt eingeschränkt wird, und die Präzision des Empfängers ±ΔV Volt ist, dann wird die maximale Zahl von verschiedenen Pulsen M durch gegeben

:

Durch die Einnahme der Information pro Puls im Bit/Puls, um der base-2-logarithm der Zahl von verschiedenen Nachrichten zu sein, hat M, die, Hartley gesandt werden konnte, ein Maß der Linienrate R als gebaut:

:

wo f die Pulsrate, auch bekannt als die Symbol-Rate, in Symbolen/Sekunde oder baud ist.

Hartley hat dann die obengenannte Quantifizierung mit der Beobachtung von Nyquist verbunden, dass die Zahl von unabhängigen Pulsen, die durch einen Kanal der Bandbreite B Hertz gestellt werden konnten, 2B Pulse pro Sekunde war, um sein quantitatives Maß für die erreichbare Linienrate zu erreichen.

Das Gesetz von Hartley wird manchmal als gerade eine Proportionalität zwischen der analogen Bandbreite, B im Hertz angesetzt, und was heute die Digitalbandbreite, R in bit/s genannt wird.

Andere Zeiten wird es in dieser mehr quantitativen Form als eine erreichbare Linienrate von R Bit pro Sekunde angesetzt:

:

Hartley hat genau nicht ausgearbeitet, wie die Zahl M sollte von der Geräuschstatistik des Kanals abhängen, oder wie die Kommunikation zuverlässig gemacht werden konnte, selbst wenn individuelle Symbol-Pulse zur M Niveaus nicht zuverlässig bemerkenswert sein konnten; mit der Geräuschstatistik von Gaussian mussten Systementwerfer einen sehr konservativen Wert der M wählen, um eine niedrige Fehlerrate zu erreichen.

Das Konzept einer fehlerfreien Kapazität hat Claude Shannon erwartet, der auf die Beobachtungen von Hartley über ein logarithmisches Maß der Information und die Beobachtungen von Nyquist über die Wirkung von Bandbreite-Beschränkungen gebaut hat.

Das Rate-Ergebnis von Hartley kann als die Kapazität einer fehlerlosen M ary Kanal 2B Symbole pro Sekunde angesehen werden. Einige Autoren kennzeichnen es als eine Kapazität. Aber solch ein fehlerloser Kanal ist eine Idealisierung, und das Ergebnis ist notwendigerweise weniger als die Kapazität von Shannon des lauten Kanals der Bandbreite B, der das Ergebnis von Hartley-Shannon ist, das später gefolgt ist.

Lauter Kanalcodierlehrsatz und Kapazität

Die Entwicklung von Claude Shannon der Informationstheorie während des Zweiten Weltkriegs hat den folgenden großen Schritt im Verstehen zur Verfügung gestellt, wie viel Information durch laute Kanäle zuverlässig mitgeteilt werden konnte. Auf das Fundament von Hartley bauend, beschreibt der laute Kanalcodierlehrsatz von Shannon (1948) die maximale mögliche Leistungsfähigkeit von fehlerkorrigierenden Methoden gegen Niveaus der Geräuscheinmischung und Datenbestechung. Der Beweis des Lehrsatzes zeigt, dass ein zufällig gebauter Fehler, Code korrigierend, im Wesentlichen so gut ist wie der bestmögliche Code; der Lehrsatz wird durch die Statistik solcher zufälligen Codes bewiesen.

Der Lehrsatz von Shannon zeigt, wie man eine Kanalkapazität aus einer statistischen Beschreibung eines Kanals schätzt und feststellt, dass gegeben ein lauter Kanal mit der Kapazität C und Information an einer Linienrate R, dann wenn übersandt

hat

:

dort besteht eine Codiertechnik, die der Wahrscheinlichkeit des Fehlers am Empfänger erlaubt, willkürlich klein gemacht zu werden. Das bedeutet, dass theoretisch es möglich ist, Information fast ohne Fehler bis zu fast einer Grenze von C Bit pro Sekunde zu übersenden.

Das gegenteilige ist auch wichtig. Wenn

:

die Wahrscheinlichkeit des Fehlers an den Empfänger-Zunahmen ohne bestimmten als die Rate wird vergrößert. So kann keine nützliche Information außer der Kanalkapazität übersandt werden. Der Lehrsatz richtet die seltene Situation nicht, in der Rate und Kapazität gleich sind.

Lehrsatz von Shannon-Hartley

Der Lehrsatz von Shannon-Hartley gründet, was diese Kanalkapazität für eine begrenzte Bandbreite dauernd-maliges Kanalthema dem Geräusch von Gaussian ist. Es verbindet das Ergebnis von Hartley mit dem Kanalhöchstlehrsatz von Shannon in einer Form, die zum Spezifizieren der M in der Linienrate-Formel von Hartley in Bezug auf ein Verhältnis des Signals zum Geräusch, aber des Erzielens der Zuverlässigkeit durch das Fehlerkorrektur-Codieren aber nicht durch zuverlässig unterscheidbare Pulsniveaus gleichwertig ist.

Wenn es solch ein Ding wie eine unendliche Bandbreite, geräuschfreier analoger Kanal gab, konnte man unbegrenzte Beträge von fehlerfreien Daten darüber pro Einheit der Zeit übersenden. Echte Kanäle sind jedoch Beschränkungen unterworfen, die sowohl durch die begrenzte Bandbreite als auch durch das Nichtnullgeräusch auferlegt sind.

So, wie betreffen Bandbreite und Geräusch die Rate, an welche Information kann über einen analogen Kanal übersandt werden?

Überraschend erlegen Bandbreite-Beschränkungen allein keine Kappe der maximalen Informationsrate auf. Das ist, weil es noch für das Signal möglich ist, eine unbestimmt Vielzahl von verschiedenen Spannungspegeln auf jedem Symbol-Puls mit jedem ein bisschen verschiedenen Niveau zu übernehmen, das eine verschiedene Bedeutung oder Bit-Folge wird zuteilt. Wenn wir sowohl Geräusch als auch Bandbreite-Beschränkungen jedoch verbinden, finden wir wirklich, dass es eine Grenze im Wert von der Information gibt, die durch ein Signal einer begrenzten Macht übertragen werden kann, selbst wenn kluge Mehrniveau-Verschlüsselungstechniken verwendet werden.

Im durch den Lehrsatz von Shannon-Hartley betrachteten Kanal werden Geräusch und Signal durch die Hinzufügung verbunden. D. h. der Empfänger misst ein Signal, das der Summe des Signals gleich ist, das die gewünschte Information und eine dauernde zufällige Variable verschlüsselt, die das Geräusch vertritt. Diese Hinzufügung schafft Unklarheit betreffs des Werts des ursprünglichen Signals. Wenn der Empfänger etwas Information über den Zufallsprozess hat, der das Geräusch erzeugt, kann man im Prinzip die Information im ursprünglichen Signal wieder erlangen, indem man alle möglichen Staaten des Geräuschprozesses denkt. Im Fall vom Lehrsatz von Shannon-Hartley, wie man annimmt, wird das Geräusch durch einen Prozess von Gaussian mit einer bekannten Abweichung erzeugt. Da die Abweichung eines Prozesses von Gaussian zu seiner Macht gleichwertig ist, ist es herkömmlich, um diese Abweichung die Geräuschmacht zu nennen.

Solch ein Kanal wird den Zusätzlichen Weißen Gaussian Geräuschkanal genannt, weil Geräusch von Gaussian zum Signal hinzugefügt wird; "weiß" bedeutet gleiche Beträge des Geräusches an allen Frequenzen innerhalb der Kanalbandbreite. Solches Geräusch kann sowohl aus zufälligen Energiequellen als auch aus dem Codier- und Maß-Fehler am Absender und Empfänger beziehungsweise entstehen. Seit Summen von unabhängigem Gaussian sind zufällige Variablen selbst Gaussian zufällige Variablen, das vereinfacht günstig Analyse, wenn man annimmt, dass solche Fehlerquellen auch Gaussian und Unabhängiger sind.

Implikationen des Lehrsatzes

Vergleich der Kapazität von Shannon zum Gesetz von Hartley

Die Kanalkapazität mit der Informationsrate aus dem Gesetz von Hartley vergleichend, können wir die wirksame Zahl von unterscheidbaren Niveaus M finden:

::

Die Quadratwurzel wandelt effektiv das Macht-Verhältnis zurück zu einem Stromspannungsverhältnis um, so ist die Zahl von Niveaus zum Verhältnis des Rms-Signalumfangs zur Geräuschstandardabweichung ungefähr proportional.

Diese Ähnlichkeit in der Form zwischen der Kapazität von Shannon und dem Gesetz von Hartley sollte nicht interpretiert werden, um zu bedeuten, dass M Pulsniveaus ohne jede Verwirrung wörtlich gesandt werden kann; mehr Niveaus sind erforderlich, um das überflüssige Codieren und die Fehlerkorrektur zu berücksichtigen, aber die Nettodatenrate, der mit dem Codieren genähert werden kann, ist zum Verwenden dieser M im Gesetz von Hartley gleichwertig.

Alternative Formen

Frequenzabhängiger (gefärbt Geräusch) Fall

In der einfachen Version oben sind das Signal und Geräusch völlig unkorreliert, in welchem Fall S + N die Gesamtmacht des empfangenen Signals und Geräusches zusammen ist. Eine Generalisation der obengenannten Gleichung für den Fall, wo das zusätzliche Geräusch nicht weiß ist (oder dass der S/N mit der Frequenz über die Bandbreite nicht unveränderlich ist) wird durch das Behandeln des Kanals als viele schmale, unabhängige Kanäle von Gaussian in der Parallele erhalten:

:wo:C ist die Kanalkapazität in Bit pro Sekunde;

:B ist die Bandbreite des Kanals im Hz;

: S ist (f) das Signalmacht-Spektrum

: N ist (f) das Geräuschmacht-Spektrum

: f ist Frequenz im Hz.

Zeichen: Der Lehrsatz wendet nur auf Gaussian stationäres Prozess-Geräusch an. Die Weise dieser Formel, frequenzabhängiges Geräusch einzuführen, kann alle dauernd-maligen Geräuschprozesse nicht beschreiben. Denken Sie zum Beispiel einen Geräuschprozess, der daraus besteht, eine zufällige Welle hinzuzufügen, deren Umfang 1 oder-1 an jedem Punkt rechtzeitig und einem Kanal ist, der solch eine Welle zum Quellsignal hinzufügt. Die Frequenzbestandteile solch einer Welle sind hoch abhängig. Obwohl solch ein Geräusch eine hohe Macht haben kann, ist es ziemlich leicht, ein dauerndes Signal mit viel weniger Macht zu übersenden, als man brauchen würde, wenn das zu Grunde liegende Geräusch eine Summe von unabhängigen Geräuschen in jedem Frequenzband wäre.

Annäherungen

Für große oder kleine und unveränderliche Verhältnisse des Signals zum Geräusch kann der Höchstformel näher gekommen werden:

  • Wenn S/N>> 1, dann

::

:where

:::

  • Ähnlich, wenn S/N

:In diese Annäherung des niedrigen Störabstands, Kapazität ist der Bandbreite unabhängig, wenn das Geräusch von geisterhaften Dichte-Watt pro Hertz weiß ist, in welchem Fall die Gesamtgeräuschmacht ist.

::

Beispiele

  1. Wenn der Störabstand 20 DB ist, und die verfügbare Bandbreite 4 Kilohertz ist, der für telefonische Mitteilungen, dann C = 4 Klotz (1 + 100) = 4 Klotz (101) = 26.63 kbit/s passend ist. Bemerken Sie, dass der Wert von S/N = 100 zum Störabstand von 20 DB gleichwertig ist.
  2. Wenn die Voraussetzung an 50 kbit/s übersenden soll, und eine Bandbreite von 1 MHz verwendet wird, dann wird der minimale erforderliche S/N durch 50 = 1000 Klotz (1+S/N) so S/N = 2 - 1 = 0.035, entsprechend einem Störabstand von-14.5 DB (10 X-Klotz (0.035)) gegeben.
  3. Wollen wir das Beispiel von W-CDMA (Breitbandcodeabteilung Vielfacher Zugang), die Bandbreite = 5 MHz nehmen, Sie wollen 12.2 kbit/s von Daten tragen (AMR Stimme), dann wird der erforderliche Störabstand durch 2 - 1 entsprechend einem Störabstand von-27.7 DB für einen einzelnen Kanal gegeben. Das zeigt, dass es möglich ist, Verwenden-Signale zu übersenden, die wirklich viel schwächer sind als das Nebengeräusch-Niveau, als in Ausbreitungsspektrum-Kommunikationen. Jedoch in W-CDMA wird sich der erforderliche Störabstand gestützt auf Designberechnungen ändern.
  4. Wie oben angegeben ist Kanalkapazität zur Bandbreite des Kanals und zum Logarithmus des Störabstands proportional. Das bedeutet, dass Kanalkapazität geradlinig entweder durch die Erhöhung der Bandbreite des Kanals gegeben eine feste Störabstand-Voraussetzung oder, mit der festen Bandbreite, durch das Verwenden höherwertiger Modulationen vergrößert werden kann, die einen sehr hohen Störabstand brauchen, um zu funktionieren. Als die Modulationsrate zunimmt, verbessert sich die geisterhafte Leistungsfähigkeit, aber auf Kosten der Störabstand-Voraussetzung. So gibt es einen Exponentialanstieg der Störabstand-Voraussetzung, wenn man 16QAM oder 64QAM annimmt (sieh: Quadratur-Umfang-Modulation); jedoch verbessert sich die geisterhafte Leistungsfähigkeit.

Siehe auch

Referenzen

Links


Grafschaft von Weber, Utah / Winterschlaf
Impressum & Datenschutz