Physische Information

In der Physik bezieht sich physische Information allgemein auf die Information, die in einem physischen System enthalten wird. Sein Gebrauch in der Quant-Mechanik (d. h. Quant-Information) ist zum Beispiel im Konzept der Quant-Verwicklung wichtig, um effektiv direkte oder kausale Beziehungen zwischen anscheinend verschiedenen oder räumlich getrennten Partikeln zu beschreiben.

Information selbst kann als "das lose definiert werden, was ein Ding von einem anderen unterscheiden kann".

Wie man

so sagen kann, ist die durch ein Ding aufgenommene Information die Identität des besonderen Dings selbst, d. h. aller seiner Eigenschaften, alles, was es verschieden von anderem (echt oder potenziell) Dinge macht.

Es ist eine ganze Beschreibung des Dings, aber gewissermaßen, der von jeder besonderen Sprache geschieden wird.

Wenn

man das Thema der Information klärt, sollte Sorge genommen werden, um zwischen den folgenden spezifischen Fällen zu unterscheiden:

  • Das Ausdruck-Beispiel der Information bezieht sich auf den spezifischen instantiation der Information (Identität, Form, Essenz), der mit dem Wesen eines besonderen Beispiels eines Dings vereinigt wird. (Das berücksichtigt die Verweisung, um Beispiele der Information zu trennen, die zufällig identische Muster teilen.)
  • Ein Halter der Information ist ein variables oder veränderliches Beispiel, das verschiedene Formen zu verschiedenen Zeiten (oder in verschiedenen Situationen) haben kann.
  • Eine Information ist eine besondere Tatsache über eine Identität oder Eigenschaften eines Dings, d. h., ein Teil seines Beispiels.
  • Ein Muster der Information (oder Form) ist das Muster oder der Inhalt eines Beispiels oder Information. Viele getrennte Information kann dieselbe Form teilen. Wir können sagen, dass jene Stücke vollkommen aufeinander bezogen werden oder sagen, dass sie Kopien von einander, als in Kopien eines Buches sind.
  • Eine Verkörperung der Information ist das Ding, dessen Essenz ein gegebenes Beispiel der Information ist.
  • Eine Darstellung der Information ist eine Verschlüsselung von einem Muster der Information innerhalb eines anderen Musters oder Beispiels.
  • Eine Interpretation der Information ist eine Entzifferung eines Musters der Information als seiend eine Darstellung eines anderen spezifischen Musters oder Tatsache.
  • Ein Thema der Information ist das Ding, das identifiziert oder durch ein gegebenes Beispiel oder Information beschrieben wird. (Am meisten allgemein konnte ein Ding, das ein Thema der Information ist, entweder Auszug oder Beton sein; entweder mathematisch oder physisch.)
  • Ein Betrag der Information ist eine Quantifizierung dessen, wie groß ein gegebenes Beispiel, Stück oder Muster der Information sind, oder wie viel eines Informationsinhalts eines gegebenen Systems (sein Beispiel) ein gegebenes Attribut, solcher hat als bekannte oder unbekannt. Beträge der Information werden in logarithmischen Einheiten am natürlichsten charakterisiert.

Der obengenannte Gebrauch ist klar alle, die begrifflich von einander verschieden sind. Jedoch beharren viele Menschen darauf, das Wort "Information" (allein) zu überladen, um anzuzeigen (oder zu implizieren), mehrere dieser Konzepte gleichzeitig.

(Da das zu Verwirrung führen kann, verwendet dieser Artikel ausführlichere Ausdrücke, wie diejenigen, die im kühnen oben gezeigt sind, wann auch immer die beabsichtigte Bedeutung durch den Zusammenhang nicht verständlich gemacht wird.)

Klassisch gegen die Quant-Information

Wie man

allgemein betrachtet, gibt das Beispiel der Information, die in einem physischen System enthalten wird, an

"der wahre" Staat dieses Systems. (In vielen praktischen Situationen kann ein wahrer Staat eines Systems größtenteils unbekannt sein, aber ein Realist würde darauf bestehen, dass ein physisches System trotzdem immer, im Prinzip, einen wahren Staat von einer Sorte — entweder klassisch oder Quant hat.)

Wenn

wir die Information besprechen, die in physischen Systemen gemäß der modernen Quant-Physik enthalten wird, müssen wir zwischen klassischer Information und Quant-Information unterscheiden. Quant-Information gibt den ganzen Quant-Zustandvektoren (oder gleichwertig, wavefunction) eines Systems an, wohingegen klassische Information, grob das Sprechen, nur einen bestimmten (reinen) Quant-Staat auswählt, wenn uns bereits ein vorangegebener Satz von unterscheidbaren (orthogonalen) Quant-Staaten gegeben wird, um davon zu wählen; solch ein Satz bildet eine Basis für den Vektorraum aller möglichen reinen Quant-Staaten (sieh reinen Staat). Quant-Information konnte so durch die Versorgung (1) eine Wahl einer solcher Basis ausgedrückt werden, dass der wirkliche Quant-Staat einem der Basisvektoren, zusammen mit (2) die klassische Information gleich ist, die angibt, welcher von diesen Basisvektoren der wirkliche ist. (Jedoch schließt die Quant-Information allein keine Spezifizierung der Basis tatsächlich ein, eine unzählbare Zahl von verschiedenen Basen wird jeden gegebenen Zustandvektoren einschließen.)

Bemerken Sie, dass der Betrag der klassischen Information in einem Quant-System den maximalen Betrag der Information gibt, die wirklich gemessen und aus diesem Quant-System für den Gebrauch durch (decoherent) klassische Außensysteme herausgezogen werden kann, da nur Basisstaaten von einander betrieblich unterscheidbar sind. Die Unmöglichkeit des Unterscheidens zwischen nichtorthogonalen Staaten ist ein grundsätzlicher Grundsatz der Quant-Mechanik, die zum Unklarheitsgrundsatz von Heisenberg gleichwertig ist. Wegen seines allgemeineren Dienstprogrammes wird sich der Rest dieses Artikels in erster Linie mit der klassischen Information befassen, obwohl Quant-Informationstheorie wirklich auch einige potenzielle Anwendungen hat (Quant-Computerwissenschaft, Quant-Geheimschrift, Quant teleportation), die zurzeit von beiden Theoretikern und experimentalists aktiv erforscht werden.

Die Quantitätsbestimmung klassischer physischer Information

Ein Betrag (der klassischen) physischen Information, kann als in der Informationstheorie wie folgt gemessen werden. Für ein System S, definiert abstrakt auf solche Art und Weise, dass es N unterscheidbare Staaten hat (orthogonale Quant-Staaten), die mit seiner Beschreibung im Einklang stehend sind, wie man sagen kann, ist der Betrag der Information I im Staat des Systems enthaltener (S) Klotz (N). Der Logarithmus wird für diese Definition ausgewählt, da es den Vorteil hat, dass dieses Maß des Informationsinhalts zusätzlich ist, wenn es unabhängige, Subsysteme ohne Beziehung verkettet; z.B, wenn Subsystem A N unterscheidbare Staaten hat (ich (A) = Klotz (N) Informationsinhalt) und ein unabhängiges Subsystem B M unterscheidbare Staaten hat (ich (B) = Klotz (M) Informationsinhalt), dann hat das verkettete System NM unterscheidbare Staaten und einen Informationsinhalt I (AB) = Klotz (NM) = Klotz (N) + Klotz (M) = ich (A) + ich (B). Wir nehmen an, dass Information von unseren täglichen Vereinigungen mit der Bedeutung des Wortes z.B zusätzlich ist, dass zwei Seiten eines Buches doppelt so viel Information als eine Seite enthalten können.

Die Basis des in dieser Definition verwendeten Logarithmus ist willkürlich, da es das Ergebnis durch nur eine multiplicative Konstante betrifft, die die Einheit der Information bestimmt, die einbezogen wird. Wenn der Klotz Basis 2 genommen wird, ist die Einheit der Information die binäre Ziffer oder das Bit (so genannt von John Tukey); wenn wir einen natürlichen Logarithmus statt dessen verwenden, könnten wir die resultierende Einheit den "nat" nennen. Im Umfang ist ein nat zum unveränderlichen k von Boltzmann oder dem idealen unveränderlichen GasR anscheinend identisch, obwohl diese besonderen Mengen gewöhnlich vorbestellt werden, um physische Information zu messen, die zufällig Wärmegewicht ist, und die in physischen Einheiten wie Joule pro kelvin oder kilocalories pro Maulwurf-kelvin ausgedrückt wird.

Physische Information und Wärmegewicht

Eine leichte Weise, die zu Grunde liegende Einheit zwischen physischem (als im thermodynamischen) Wärmegewicht und mit der Information theoretischem Wärmegewicht zu verstehen, ist wie folgt: Wärmegewicht ist einfach, dass ein Teil der (klassischen) physischen Information in einem System von Interesse enthalten hat (ob es ein komplettes physisches System, oder gerade ein Subsystem ist, das durch eine Reihe möglicher Nachrichten skizziert ist), wessen Identität (im Vergleich mit dem Betrag) (aus dem Gesichtswinkel von einem besonderen knower) unbekannt ist. Diese informelle Charakterisierung entspricht der formellen Definition des beides von Neumanns des Wärmegewichtes eines Mischquant-Staates (der gerade eine statistische Mischung von reinen Staaten ist; sieh Wärmegewicht von von Neumann), sowie die Definition von Claude Shannon des Wärmegewichtes eines Wahrscheinlichkeitsvertriebs über klassische Signalstaaten oder Nachrichten (sieh Informationswärmegewicht). Beiläufig gehört der Kredit für die Wärmegewicht-Formel von Shannon (obwohl nicht für seinen Gebrauch in einem Informationstheorie-Zusammenhang) wirklich Boltzmann, der es viel früher für den Gebrauch in seinem H-Lehrsatz der statistischen Mechanik abgeleitet hat. (Shannon selbst Verweisungen Boltzmann in seiner Monografie.)

Außerdem, selbst wenn der Staat eines Systems bekannt ist, können wir sagen, dass die Information im System noch effektiv Wärmegewicht ist, wenn diese Information effektiv incompressible ist, d. h. wenn es keine bekannten oder durchführbar bestimmbaren Korrelationen oder Redundanzen zwischen der verschiedenen Information innerhalb des Systems gibt. Bemerken Sie, dass diese Definition des Wärmegewichtes sogar als gleichwertig zum vorherigen angesehen werden kann (unbekannte Information), wenn wir eine Meta-Perspektive nehmen und sagen, dass für den Beobachter, um den Staat des Systems "zu wissen", B einfach bedeutet, dass es eine bestimmte Korrelation zwischen dem Staat des Beobachters A und dem Staat des Systems B gibt; diese Korrelation konnte so von einem Meta-Beobachter verwendet werden (d. h. wer auch immer die gesamte Situation bezüglich des Staates von A von Kenntnissen über B bespricht), seine eigene Beschreibung des gemeinsamen Systems AB zusammenzupressen.

Wegen dieser Verbindung mit der algorithmischen Informationstheorie, wie man sagen kann, ist Wärmegewicht, dass ein Teil einer Informationskapazität eines Systems, die," d. h. nicht verfügbar "verbraucht wird, um neue Information zu versorgen (selbst wenn der vorhandene Informationsinhalt zusammengepresst werden sollte). Der Rest einer Informationskapazität eines Systems (beiseite von seinem Wärmegewicht) könnte extropy genannt werden, und es vertritt den Teil der Informationskapazität des Systems, die verfügbar potenziell still ist, um kürzlich abgeleitete Information zu versorgen. Die Tatsache, dass physisches Wärmegewicht grundsätzlich "verwendete Lagerungskapazität" ist, ist eine direkte Sorge in der Technik von Rechensystemen; z.B muss ein Computer zuerst das Wärmegewicht von einem gegebenen physischen Subsystem entfernen (schließlich es zur Umgebung vertreibend, und Hitze ausstrahlend), in der Größenordnung von diesem Subsystem, das zu verwenden ist, um etwas kürzlich geschätzte Information zu versorgen.

Äußerste physische Information

Gemäß einer von B. Roy Frieden entwickelten Theorie, "kann physische Information" definiert werden, um der Verlust der Information von Fisher zu sein, die während der Beobachtung einer "physischen Wirkung" übernommen wird.

Frieden setzt fest, wenn die Wirkung ein inneres Informationsniveau J hat, und mit dem Informationsniveau I beobachtet wird, dann wird die physische Information definiert, um der Unterschied I &minus zu sein; J, der Frieden die Information Lagrangian nennt. Der so genannte Grundsatz von Frieden der äußersten physischen Information oder EPI setzt das extremalizing I &minus fest; J in Bezug auf die Schwankung der Systemwahrscheinlichkeitsumfänge kann richtiger Lagrangians für die meisten oder sogar alle physischen Theorien verwendet werden.

Siehe auch

Weiterführende Literatur

  • J. G. Hey, Hrsg., Feynman und Computation: Die Grenzen von Computern, Perseus, 1999 erforschend.
  • Harvey S. Leff und Andrew F. Rex, der Dämon von Maxwell 2: Wärmegewicht, Klassisch und Quant-Information, Computerwissenschaft, Institut für das Physik-Veröffentlichen, 2003.

Bundesliga / Midwestcon
Impressum & Datenschutz