Bit

Ein bisschen (eine Zusammenziehung der binären Ziffer) ist die grundlegende Einheit der Information in der Computerwissenschaft und dem Fernmeldewesen; es ist der Betrag der Information, die durch ein Digitalgerät oder anderes physisches System versorgt ist, das in einem von zwei möglichen verschiedenen Staaten besteht. Diese können die zwei stabilen Zustände einer Zehensandale, zwei Positionen eines elektrischen Schalters, zwei verschiedene Stromspannung oder aktuellen Niveaus sein, die durch einen Stromkreis, zwei verschiedene Niveaus der leichten Intensität, zwei Richtungen der Magnetisierung oder Polarisation, der Orientierung der umkehrbaren doppelten gestrandeten DNA usw. erlaubt sind.

In der Computerwissenschaft kann wenig auch als eine variable oder geschätzte Menge definiert werden, die nur zwei mögliche Werte haben kann. Diese zwei Werte werden häufig als binäre Ziffern interpretiert und werden gewöhnlich durch die numerischen Ziffern 0 und 1 angezeigt. Die zwei Werte können auch als logische Werte (wahr/falsch, ja/no), algebraische Zeichen interpretiert werden (+/−), Aktivierungsstaaten (Ein/Aus-) oder jedes andere zwei geschätzte Attribut. Die Ähnlichkeit zwischen diesen Werten und den physischen Staaten der zu Grunde liegenden Lagerung oder des Geräts ist eine Sache der Tagung, und verschiedene Anweisungen können sogar innerhalb desselben Geräts oder Programms verwendet werden. Die Länge einer Binärzahl kann seine "Bit-Länge" genannt werden.

In der Informationstheorie wird ein Bit normalerweise als die Unklarheit einer binären zufälligen Variable definiert, die 0 oder 1 mit der gleichen Wahrscheinlichkeit oder der Information ist, die gewonnen wird, wenn der Wert solch einer Variable bekannt wird.

In der Quant-Computerwissenschaft hat ein Quant gebissen, oder qubit ist ein Quant-System, das in der Überlagerung von Zwei-Bit-Werten, "wahr" und "falsch" bestehen kann.

Das Symbol für das Bit, als eine Einheit der Information, ist irgendein einfach "Bit" (empfohlen durch den ISO/IEC Standard 80000-13 (2008)) oder Kleinbuchstabe "b" (empfohlen durch den IEEE 1541-Standard (2002)).

Geschichte

Die Verschlüsselung von Daten durch getrennte Bit wurde in den geschlagenen Karten verwendet, die von Basile Bouchon und Jean-Baptiste Falcon (1732) erfunden sind, entwickelt von Joseph Marie Jacquard (1804), und später angenommen von Semen Korsakov, Charles Babbage, Hermann Hollerith und frühen Computerherstellern wie IBM. Eine andere Variante dieser Idee war der perforierte Lochstreifen. In allen jenen Systemen hat das Medium (Karte oder Band) begrifflich eine Reihe von Loch-Positionen getragen; jeder Position konnte entweder durch geschlagen werden oder nicht, so potenziell ein Bit der Information tragend. Die Verschlüsselung des Textes durch Bit wurde auch im Morsezeichen-Code (1844) und früh den Digitalkommunikationsmaschinen wie Fernschreiber und Aktienfernschreiber-Maschinen (1870) verwendet.

Ralph Hartley hat den Gebrauch eines logarithmischen Maßes der Information 1928 vorgeschlagen. Claude E. Shannon hat zuerst das Wortbit in seiner Samen-1948-Zeitung Eine Mathematische Theorie der Kommunikation verwendet. Er hat seinen Ursprung John W. Tukey zugeschrieben, der einen Glockenlaboratorium-Merkzettel am 9. Januar 1947 geschrieben hatte, in dem er "binäre Ziffer" zu einfach "dem Bit" zusammengezogen hat. Interessanterweise hatte Vannevar Bush 1936 über "Bit der Information" geschrieben, die auf den geschlagenen in den mechanischen Computern dieser Zeit verwendeten Karten versorgt werden konnte. Der erste programmierbare von Konrad Zuse gebaute Computer hat binäre Notation für Zahlen verwendet.

Darstellung

Übertragung und Verarbeitung

Bit können in vielen Formen durchgeführt werden. In den meisten modernen Rechengeräten wird wenig gewöhnlich durch eine elektrische Stromspannung oder Stromimpuls, oder durch den elektrischen Staat eines Zehensandale-Stromkreises vertreten.

Für Geräte mit der positiven Logik wird ein Ziffer-Wert von 1 (oder ein Wahrheitswert von wahren) durch eine positivere Stromspannung hinsichtlich der Darstellung 0 vertreten. Die spezifischen Stromspannungen sind für verschiedene Logikfamilien verschieden, und Schwankungen werden erlaubt zu berücksichtigen, dass Bestandteil alt wird und Geräuschimmunität. Zum Beispiel, in der Logik des Transistor-Transistors (TTL) und den vereinbaren Stromkreisen, schätzt Ziffer 0, und 1 an der Produktion eines Geräts werden durch nicht höher vertreten als 0.4 Volt und nicht tiefer als 2.6 Volt beziehungsweise; während TTL-Eingänge angegeben werden, um 0.8 Volt oder unten als 0 und 2.2 Volt oder oben als 1 anzuerkennen.

Lagerung

In den frühsten nichtelektronischen Informationsverarbeitungsgeräten, wie der Webstuhl von Jacquard oder der Analytische Motor von Babbage, wurde wenig häufig als die Position eines mechanischen Hebels oder Zahnrades, oder der Anwesenheit oder Abwesenheit eines Loches an einem spezifischen Punkt einer Papierkarte oder Bandes versorgt. Die ersten elektrischen Geräte für die getrennte Logik (wie Aufzug und Stopplicht kontrollieren Stromkreise, Telefonschalter und den Computer von Konrad Zuse), vertretene Bit als die Staaten von elektrischen Relais, die entweder "offen" oder "geschlossen" sein "konnten". Als Relais durch Vakuumtuben ersetzt wurden, in den 1940er Jahren anfangend, haben Computerbaumeister mit einer Vielfalt von Lagerungsmethoden wie Druck-Pulse experimentiert, die unten eine Quecksilberverzögerungslinie, Anklagen reisen, die auf der Innenoberfläche einer Kathodenstrahlröhre oder undurchsichtigen Punkten versorgt sind, die auf Glasscheiben durch Photosteindrucktechniken gedruckt sind.

In den 1950er Jahren und 1960er Jahren wurden diese Methoden durch magnetische Speichergeräte wie magnetisches Kerngedächtnis, magnetische Bänder, Trommeln und Platten größtenteils verdrängt, wo wenig durch die Widersprüchlichkeit der Magnetisierung eines bestimmten Gebiets eines eisenmagnetischen Films, oder durch eine Änderung in der Widersprüchlichkeit von einer Richtung bis den anderen vertreten wurde. Derselbe Grundsatz wurde später im magnetischen Luftblase-Gedächtnis entwickelt in den 1980er Jahren verwendet, und wird noch in verschiedenen magnetischen Streifen-Sachen wie U-Bahn-Karten und einige Kreditkarten gefunden.

Im modernen Halbleiter-Gedächtnis, wie dynamisches zufälliges Zugriffsgedächtnis oder Blitz-Gedächtnis, können die zwei Werte von wenig durch zwei Niveaus der elektrischen in einem Kondensator versorgten Anklage vertreten werden. In der programmierbaren Logikreihe und den bestimmten Typen des ROM-Speichers kann wenig durch die Anwesenheit oder Abwesenheit eines Leiten-Pfads an einem bestimmten Punkt eines Stromkreises vertreten werden. In optischen Scheiben wird wenig als die Anwesenheit oder Abwesenheit einer mikroskopischen Grube auf einer reflektierenden Oberfläche verschlüsselt. In eindimensionalen Strichcodes werden Bit als die Dicke verschlüsselt, schwarze und weiße Linien abwechseln zu lassen.

Informationskapazität und Informationskompression

Wenn die Informationskapazität eines Lagerungssystems oder eines Nachrichtenkanals in Bit oder Bit pro Sekunde präsentiert wird, bezieht sich das häufig auf binäre Ziffern, der eine Computerhardware-Kapazität ist, binären Code (0 oder 1, oder unten, Strom oder nicht, usw.) zu versorgen. Die Informationskapazität eines Lagerungssystems ist nur ein oberer, der zur wirklichen Menge der Information gebunden ist, versorgt darin. Wenn die zwei möglichen Werte von einem Bit der Lagerung nicht ebenso wahrscheinlich sind, wird dieses Bit der Lagerung weniger als ein Bit der Information enthalten. Tatsächlich, wenn der Wert völlig voraussagbar ist, dann wird das Lesen dieses Werts keine Auskunft überhaupt (Null entropic Bit, weil keine Entschlossenheit der Unklarheit und deshalb keine Information) geben. Wenn eine Computerdatei, die n Bit der Lagerung verwendet, nur M enthält

Wenn optimal zusammengepresst, nähert sich die resultierende Tragfähigkeit Informations- oder Informationswärmegewicht von Shannon.

Vielfache Bit

Es gibt mehrere Einheiten der Information, die als Vielfachen von Bit, wie Byte (8 Bit), Kilobit (entweder 1000 oder 2 = 1024 Bit), Megabyte (entweder oder 8×2 =), usw. definiert werden

Computer manipulieren gewöhnlich Bit in Gruppen einer festen Größe, herkömmlich genannt "Wörter". Die Zahl von Bit ändert sich kurzum mit dem Computermodell; normalerweise zwischen 8 bis 80 Bit; oder noch mehr in einigen Spezialmaschinen.

Der normale IEC der Internationalen Electrotechnical Kommission 60027 gibt an, dass das Symbol für die binäre Ziffer "Bit" sein sollte, und das in allen Vielfachen, wie "kbit" (für das Kilobit) verwendet werden sollte. Jedoch wird der Brief "b" (in der unteren Umschaltung) auch weit verwendet. Der Brief "B" (Großbuchstaben) ist sowohl das normale als auch übliche Symbol für das Byte.

Im Fernmeldewesen (einschließlich Computernetze) wechseln Daten über Raten werden gewöhnlich in Bit pro Sekunde (bit/s) oder seinen Vielfachen wie kbit/s gemessen. (Diese Einheit soll mit baud nicht verwirrt sein.)

Ein millibit ist eine (seltene) Einheit der Information, die tausendstem von ein bisschen gleich ist.

Bit-basierte Computerwissenschaft

Bestimmte bitwise Computerverarbeiter-Instruktionen (wie Bohrersatz) funktionieren am Niveau, Bit zu manipulieren, anstatt als eine Anhäufung von Bit interpretierte Daten zu manipulieren.

In den 1980er Jahren, als bitmapped Computeranzeigen populär geworden sind, haben einige Computer spezialisierte Bit-Block-Übertragung ("bitblt" oder "blit") Instruktionen zur Verfügung gestellt, die Bit zu setzen oder zu kopieren, die einem gegebenen rechteckigen Gebiet auf dem Schirm entsprochen haben.

In den meisten Computern und Programmiersprachen, auf wenn ein bisschen innerhalb einer Gruppe von Bit wie ein Byte oder Wort verwiesen werden soll, wird es gewöhnlich durch eine Zahl von 0 (nicht 1) aufwärts entsprechend seiner Position innerhalb des Bytes oder Wortes angegeben. Jedoch, 0 kann sich entweder auf das bedeutendste Bit oder auf das am wenigsten bedeutende Bit abhängig vom Zusammenhang beziehen, so muss die Tagung des Gebrauches bekannt sein.

Andere Informationseinheiten

Andere Einheiten der Information, die manchmal in der Informationstheorie verwendet ist, schließen die natürliche Ziffer ein auch hat einen nat oder Nisse genannt und hat als Klotz e ( 1.443) Bit definiert, wo e die Basis der natürlichen Logarithmen ist; und der dit, das Verbot oder Hartley, definiert als log10 ( 3.322) Bit. Umgekehrt entspricht das ein Bit der Information über ln 2 ( 0.693) nats, oder Klotz 2 ( 0.301) Hartleys. Einige Autoren definieren auch einen binit als eine willkürliche zu einer festen, aber unbestimmten Anzahl von Bit gleichwertige Informationseinheit.

Siehe auch

Links


Bier / Byte
Impressum & Datenschutz