Datenkompression

In Informatik und Informationstheorie, Datenkompression, dem Quellcodieren,

oder die Verminderung der Bit-Rate schließt Verschlüsselungsinformation mit weniger Bit ein als die ursprüngliche Darstellung. Kompression kann entweder lossy oder lossless sein. Kompression von Lossless reduziert Bit, indem sie identifiziert wird und statistische Überfülle beseitigt wird. Keine Information wird in der lossless Kompression verloren. Kompression von Lossy reduziert Bit, indem sie geringfügig wichtige Information identifiziert wird und sie entfernt wird.

Kompression ist nützlich, weil sie hilft, den Verbrauch von Mitteln wie Datenraum oder Übertragungskapazität zu reduzieren. Weil komprimierte Daten dekomprimiert werden müssen, um verwendet zu werden, erlegt diese Extraverarbeitung rechenbetonte oder andere Kosten durch die Dekompression auf. Zum Beispiel kann ein Kompressionsschema für das Video verlangen, dass teure Hardware für das Video schnell genug dekomprimiert wird, um angesehen zu werden, weil es, und die Auswahl dekomprimiert wird, das Video vollständig vor der Beobachtung zu dekomprimieren, kann davon ungünstig sein oder zusätzliche Lagerung verlangen. Das Design von Datenkompressionsschemas schließt Umtausche unter verschiedenen Faktoren, einschließlich des Grads der Kompression, des Betrags der Verzerrung eingeführt (z.B ein, wenn es lossy Datenkompression verwendet), und die rechenbetonten Mittel, die erforderlich sind, die Daten zusammenzupressen und unzusammenzupressen.

Lossless

Datenkompressionsalgorithmen von Lossless nutzen gewöhnlich statistische Überfülle aus, um Daten kürzer zu vertreten, ohne Information zu verlieren. Kompression von Lossless ist möglich, weil die meisten wirklichen Daten statistische Überfülle haben. Zum Beispiel kann ein Image Gebiete der Farbe haben, die mehrere Pixel nicht umstellen; anstatt "rotes Pixel zu codieren, kann rotes Pixel..." die Daten als "279 rote Pixel" verschlüsselt werden. Das ist ein einfaches Beispiel der Verschlüsselung der Lauf-Länge; es gibt viele Schemas, Größe durch das Beseitigen der Überfülle zu reduzieren.

Die Kompressionsmethoden von Lempel-Ziv (LZ) sind unter den populärsten Algorithmen für die lossless Lagerung. DEFLATIONIEREN SIE ist eine Schwankung auf LZ, der für die Dekompressionsgeschwindigkeit und das Kompressionsverhältnis optimiert wird, aber Kompression kann langsam sein. DEFLATIONIEREN SIE wird in PKZIP, gzip und PNG verwendet. LZW (Lempel-Ziv-Welch) wird in GIF Images verwendet. Auch beachtenswert sind der LZR (LZ-Renau) Methoden, die als die Basis der Schwirren-Methode dienen. LZ Methoden verwenden ein tabellenbasiertes Kompressionsmodell, wo gegen Tabelleneinträge wiederholte Reihen von Daten ausgewechselt wird. Für die meisten LZ Methoden wird dieser Tisch dynamisch von früheren Daten im Eingang erzeugt. Der Tisch selbst ist häufig verschlüsselter Huffman (z.B. SHRI, LZX).

Ein Strom das LZ-basierte Codieren des Schemas, das eine gute Leistung bringt, ist LZX, der im TAXI-Format des Microsofts verwendet ist.

Die sehr besten modernen lossless Kompressoren verwenden probabilistic Modelle wie Vorhersage durch das teilweise Zusammenbringen. Die Baue-Wheeler verwandeln sich kann auch als eine indirekte Form des statistischen Modellierens angesehen werden.

Die Klasse von Grammatik-basierten Codes wird kürzlich bemerkt, weil sie hoch wiederholenden Text, zum Beispiel, biologische Datenerfassung derselben oder verwandten Arten, riesige versioned Dokumentensammlung, Internetarchive usw. äußerst zusammenpressen können. Die grundlegende Aufgabe von Grammatik-basierten Codes baut eine Grammatik ohne Zusammenhänge, die eine einzelne Schnur ableitet.

Sequitur und Re-Pair sind praktische Grammatik-Kompressionsalgorithmen, welche öffentliche Codes verfügbar sind.

In einer weiteren Verbesserung dieser Techniken können statistische Vorhersagen mit einem Algorithmus genannt das arithmetische Codieren verbunden werden. Das arithmetische Codieren, das von Jorma Rissanen erfunden ist, und hat sich in eine praktische Methode durch Witten, Neal, und Cleary verwandelt, erreicht höhere Kompression zum besser bekannten Algorithmus von Huffman, und leiht sich besonders gut zu anpassungsfähigen Datenkompressionsaufgaben, wo die Vorhersagen stark kontextabhängig sind. Das arithmetische Codieren wird im bilevel Bildkompressionsstandard JBIG und der Dokumentenkompressionsstandard DjVu verwendet. Das Texteingabe-System, Dasher, ist ein umgekehrter arithmetischer Codierer.

Lossy

Datenkompression von Lossy wird mit der lossless Datenkompression gegenübergestellt. In diesen Schemas ist ein Verlust der Information annehmbar. Abhängig von Anwendung kann Detail von den Daten fallen gelassen sein, um Abstellraum zu sparen. Allgemein, lossy Datenkompressionsschemas werden durch die Forschung darüber geführt, wie Leute die fraglichen Daten wahrnehmen. Zum Beispiel ist das menschliche Auge zu feinen Schwankungen in der Klarheit empfindlicher, als es zu Schwankungen in der Farbe ist. JPEG Bildkompression arbeitet teilweise durch "das Abrunden" weniger - wichtige Sehinformation. Es gibt einen entsprechenden Umtausch zwischen der Information verloren und der Größe-Verminderung. Mehrere populäre Kompressionsformate nutzen diese perceptual Unterschiede, einschließlich derjenigen aus, die in Musik-Dateien, Images und Video verwendet sind.

Bildkompression von Lossy wird in Digitalkameras verwendet, um Lagerungskapazitäten mit der minimalen Degradierung der Bilderqualität zu vergrößern. Ähnlich verwenden DVDs den lossy MPEG-2 Video codec für die Videokompression.

In der lossy Audiokompression werden Methoden von psychoacoustics verwendet, um nichthörbar (oder weniger hörbar) Bestandteile des Signals umzuziehen. Die Kompression der menschlichen Rede wird häufig mit noch mehr spezialisierten Techniken durchgeführt, so dass "Rede-Kompression" oder "das Stimmencodieren" manchmal als eine getrennte Disziplin von der "Audiokompression" bemerkenswert sind. Verschiedenes Audio und Rede-Kompressionsstandards werden unter Audiocodecs verzeichnet. Stimmenkompression wird in der Internettelefonie zum Beispiel verwendet, während Audiokompression für das CD-Zerreißen verwendet wird und von Audiospielern decodiert wird.

Theorie

Der theoretische Hintergrund der Kompression wird durch die Informationstheorie zur Verfügung gestellt (der nah mit der algorithmischen Informationstheorie verbunden ist) für die lossless Kompression, und durch die Theorie der Rate-Verzerrung für die lossy Kompression. Diese Studienfächer wurden im Wesentlichen von Claude Shannon geschaffen, der grundsätzliche Papiere auf dem Thema gegen Ende der 1940er Jahre und Anfang der 1950er Jahre veröffentlicht hat. Das Codieren der Theorie ist auch verbunden. Die Idee von der Datenkompression wird mit der statistischen Schlussfolgerung tief verbunden.

Das Maschinenlernen

Es gibt eine nahe Verbindung zwischen Maschinenlernen und Kompression: Ein System, das die späteren Wahrscheinlichkeiten einer Folge gegeben seine komplette Geschichte voraussagt, kann für die optimale Datenkompression verwendet werden (durch das Verwenden des Arithmetik-Codierens auf dem Produktionsvertrieb), während ein optimaler Kompressor für die Vorhersage (durch die Entdeckung des Symbols dass Kompressen am besten, in Anbetracht der vorherigen Geschichte) verwendet werden kann. Diese Gleichwertigkeit ist als Rechtfertigung für die Datenkompression als ein Abrisspunkt für die "allgemeine Intelligenz" verwendet worden.

Daten differencing

Datenkompression kann als ein spezieller Fall von Daten differencing angesehen werden: Daten differencing bestehen daraus, einen Unterschied gegeben eine Quelle und ein Ziel zu erzeugen, mit dem Flicken des Produzierens eines Ziels gegeben eine Quelle und ein Unterschied, während Datenkompression daraus besteht, eine komprimierte Datei gegeben ein Ziel zu erzeugen, und besteht Dekompression daraus, ein Ziel gegeben nur eine komprimierte Datei zu erzeugen. So kann man Datenkompression als Daten differencing mit leeren Quelldaten, der komprimierten Datei entsprechend einem "Unterschied zu nichts" betrachten. Das ist dasselbe als das Betrachten absoluten Wärmegewichtes (entsprechend der Datenkompression) als ein spezieller Fall des Verhältniswärmegewichtes (entsprechend Daten differencing) ohne anfängliche Daten.

Wenn man die Verbindung betonen möchte, kann man die Begriff-Differenzialkompression verwenden, um sich auf Daten differencing zu beziehen.

Meinung und zurzeit unbenutztes Potenzial

Es wird geschätzt, dass die Summe der Information, die auf den Speichergeräten in der Welt versorgt wird, weiter mit vorhandenen Kompressionsalgorithmen durch einen restlichen durchschnittlichen Faktor 4.5 zusammengepresst werden konnte:1. Es wird geschätzt, dass die vereinigte technologische Kapazität der Welt, Information zu versorgen, 1,300 exabytes von Hardware-Ziffern 2007 zur Verfügung stellt, aber wenn der entsprechende Inhalt optimal zusammengepresst wird, vertritt das nur 295 exabytes der Information von Shannon.

Gebrauch

Audio-

Audiodatenkompression, im Unterschied zu die dynamische Reihe-Kompression, hat das Potenzial, um die Übertragungsbandbreite und Lagerungsvoraussetzungen von Audiodaten zu reduzieren. Audiokompressionsalgorithmen werden in der Software als Audiocodecs durchgeführt. Lossy, den Audiokompressionsalgorithmen höherer Kompression auf Kosten der Treue zur Verfügung stellen, werden in zahlreichen Audioanwendungen verwendet. Diese Algorithmen verlassen sich fast alle auf psychoacoustics, um weniger hörbare oder bedeutungsvolle Töne zu beseitigen, dadurch den Raum reduzierend, der erforderlich ist, sie zu versorgen oder zu übersenden.

Sowohl in lossy als auch in lossless Kompression wird Informationsüberfülle mit Methoden wie das Codieren reduziert, Muster-Anerkennung und geradlinige Vorhersage, um den Betrag der Information zu reduzieren, haben gepflegt, die unkomprimierten Daten zu vertreten.

Der annehmbare Umtausch zwischen dem Verlust der Audioqualität und der Übertragung oder der Lagerungsgröße hängt von der Anwendung ab. Zum Beispiel hält CD (CD) von einem 640 Mb etwa eine Stunde der unkomprimierten hohen Treue-Musik, weniger als 2 Stunden der Musik haben losslessly, oder 7 Stunden der Musik zusammengepresst, die im MP3-Format an einer mittleren Bit-Rate zusammengepresst ist. Ein Digitaltonaufnahmegerät kann normalerweise ungefähr 200 Stunden der klar verständlichen Rede in 640 Mb versorgen.

Audiokompression von Lossless erzeugt eine Darstellung von Digitaldaten, die zu einem genauen Digitalduplikat des ursprünglichen Audiostroms, verschieden vom Play-Back von lossy Kompressionstechniken wie Vorbis und MP3 dekomprimiert. Kompressionsverhältnisse sind ungefähr 50-60 % der ursprünglichen Größe, die denjenigen für die allgemeine lossless Datenkompression ähnlich ist. Kompression von Lossy hängt von der Qualität erforderlich ab, aber gibt normalerweise Dateien von 5 bis 20 % der Größe des unkomprimierten Originals nach. Kompression von Lossless ist unfähig, hohe Kompressionsverhältnisse wegen der Kompliziertheit von Welle-Formen und den schnellen Änderungen in gesunden Formen zu erreichen. Codecs wie FLAC, werden Sie Kürzer, und TTA verwenden geradlinige Vorhersage, um das Spektrum des Signals zu schätzen. Viele dieser Algorithmen verwenden Gehirnwindung mit dem Filter [-1 1], um das Spektrum ein bisschen weiß zu machen oder glatt zu machen, dadurch traditioneller lossless Kompression erlaubend, effizienter zu arbeiten. Der Prozess wird nach der Dekompression umgekehrt.

Wenn Audiodateien bearbeitet werden sollen entweder durch die weitere Kompression oder für das Redigieren, ist es wünschenswert, aus einem unveränderten Original (unkomprimiert oder losslessly zusammengepresst) zu arbeiten. Die Verarbeitung eines lossily hat Datei zu einem Zweck zusammengepresst gewöhnlich erzeugt ein Endresultat, das der Entwicklung derselben komprimierten Datei aus einem unkomprimierten Original untergeordnet ist. Zusätzlich zum gesunden Redigieren oder Mischen, lossless Audiokompression wird häufig für die archivalische Lagerung, oder als Originalkopien verwendet.

Mehrere lossless Audiokompressionsformate bestehen. Werden Sie kürzer war ein frühes Lossless-Format. Neuere schließen Free Lossless Audio Codec (FLAC), den Apple Lossless des Apfels, MPEG-4 ALS, die Windows-Medien des Microsofts 9 Audiolossless (WMA Lossless), das Audio des Affen, und TTA ein. Sieh Liste von lossless codecs für eine ganze Liste.

Einige Audioformate zeigen eine Kombination eines Lossy-Formats und einer lossless Korrektur; das erlaubt, die Korrektur abzuziehen, um eine lossy Datei leicht zu erhalten. Solche Formate schließen MPEG-4 SLS (Ersteigbar zu Lossless), WavPack und OptimFROG DualStream ein.

Andere Formate werden mit einem verschiedenen System vereinigt wie:

Lossy Audiokompression

Lossy Audiokompression wird in einer breiten Reihe von Anwendungen verwendet. Zusätzlich zu den direkten Anwendungen (mp3 Spieler oder Computer) werden digital zusammengepresste Audioströme in den meisten Video-DVDs verwendet; Digitalfernsehen; die Einteilung von Medien im Internet; Satelliten- und Kabelradio; und zunehmend in Landradiosendungen. Kompression von Lossy erreicht normalerweise viel größere Kompression als lossless Kompression (Daten von 5 Prozent bis 20 Prozent des ursprünglichen Stroms, aber nicht 50 Prozent bis 60 Prozent), durch die Verschrottung weniger - kritische Daten.

Die Neuerung der lossy Audiokompression sollte psychoacoustics verwenden, um anzuerkennen, dass nicht alle Daten in einem Audiostrom durch das menschliche Gehörsystem wahrgenommen werden können. Der grösste Teil der lossy Kompression reduziert perceptual Überfülle, indem sie zuerst Töne identifiziert wird, die perceptually irrelevant, d. h. Töne betrachtet werden, die sehr hart sind zu hören. Typische Beispiele schließen hohe Frequenzen oder Töne ein, die zur gleichen Zeit als lautere Töne vorkommen. Jene Töne werden mit der verminderten Genauigkeit codiert oder überhaupt nicht codiert.

Wegen der Natur von lossy Algorithmen leidet Audioqualität, wenn eine Datei dekomprimiert und (Digitalgenerationsverlust) wiederzusammengepresst wird. Das macht lossy Kompression unpassend, für das Zwischenglied zu versorgen, läuft auf Berufsaudiotechnikanwendungen, wie das gesunde Redigieren und die Mehrspur-Aufnahme hinaus. Jedoch sind sie bei Endbenutzern (besonders MP3) sehr populär, weil ein Megabyte Wert der ungefähr einer Minute der Musik an der entsprechenden Qualität versorgen kann.

Das Codieren von Methoden

Um das zu bestimmen, welche Information in einem Audiosignal irrelevant perceptually ist, verwandelt sich der grösste Teil des lossy Kompressionsalgorithmus-Gebrauches wie der modifizierte getrennte Kosinus verwandelt sich (MDCT), um sich umzuwandeln, Zeitabschnitt hat Wellenformen in ein umgestalten Gebiet probiert. Einmal umgestaltet, normalerweise ins Frequenzgebiet, können Teilfrequenzen zugeteilte Bit gemäß sein, wie hörbar sie sind. Die Hörbarkeit von geisterhaften Bestandteilen wird durch das erste Rechnen einer Verdeckenschwelle bestimmt, unter der es geschätzt wird, dass Töne außer den Grenzen der menschlichen Wahrnehmung sein werden.

Die Verdeckenschwelle wird mit der absoluten Schwelle des Hörens und den Grundsätzen der gleichzeitigen Maskierung — das Phänomen berechnet, worin ein Signal durch ein anderes Signal maskiert wird, das durch die Frequenz, und, in einigen Fällen, zeitliche Maskierung getrennt ist —, wo ein Signal durch ein anderes durch die Zeit getrenntes Signal maskiert wird. Konturen der gleichen Lautheit können auch verwendet werden, um die perceptual Wichtigkeit von verschiedenen Bestandteilen zu beschweren. Modelle der menschlichen mit dem Ohrgehirnkombination, die solche Effekten vereinigt, werden häufig psychoacoustic Modelle genannt.

Andere Typen von lossy Kompressoren, wie das mit der Rede verwendete geradlinige prophetische Codieren (LPC), sind quellbasierte Codierer. Diese Codierer verwenden ein Modell des Generators des Tons (wie die menschliche stimmliche Fläche mit LPC), um das Audiosignal weiß zu machen (d. h., sein Spektrum glatt zu machen), vor quantization. Von LPC kann auch als ein grundlegender perceptual das Codieren der Technik gedacht werden; die Rekonstruktion eines Audiosignals mit einem geradlinigen Propheten gestaltet das quantization Geräusch des Codierers ins Spektrum des Zielsignals, teilweise es maskierend.

Formate von Lossy werden häufig für den Vertrieb verwendet, interaktive oder Audioanwendungen (wie das Codieren der Rede für die Digitalübertragung in Mobiltelefon-Netzen) zu verströmen. In solchen Anwendungen müssen die Daten als die Datenflüsse dekomprimiert werden, aber nicht nachdem der komplette Datenstrom übersandt worden ist. Nicht der ganze Audiocodecs kann verwendet werden, um Anwendungen zu verströmen, und für solche Anwendungen hat ein codec vorgehabt zu strömen Daten werden gewöhnlich effektiv gewählt.

Latenz ergibt sich aus den Methoden, die verwendet sind, um die Daten zu verschlüsseln und zu decodieren. Ein codecs wird ein längeres Segment der Daten analysieren, um Leistungsfähigkeit zu optimieren, und dann sie gewissermaßen zu codieren, der ein größeres Segment von Daten auf einmal verlangt, um zu decodieren. (Häufig schaffen codecs Segmente genannt einen "Rahmen", um getrennte Datensegmente zu schaffen, um zu verschlüsseln und zu decodieren.) Die innewohnende Latenz des Codieralgorithmus kann kritisch sein; zum Beispiel, wenn es Zweiwegeübertragung von Daten, solcher als mit einem Telefongespräch gibt, können bedeutende Verzögerungen die wahrgenommene Qualität ernstlich erniedrigen.

Im Gegensatz zur Geschwindigkeit der Kompression, die zur Zahl von Operationen proportional ist, die durch den Algorithmus hier erforderlich sind, bezieht sich Latenz auf die Zahl von Proben, die analysiert werden müssen, bevor ein Block des Audios bearbeitet wird. Im minimalen Fall ist Latenz 0 Nullproben (z.B, wenn der Codierer/Decoder einfach die Anzahl von Bit vermindert, die verwendet sind, um das Signal zu quanteln). Zeitabschnitt-Algorithmen wie LPC haben auch häufig niedrige Latenz, folglich ihre Beliebtheit im Rede-Codieren für die Telefonie. In Algorithmen wie MP3, jedoch, muss eine Vielzahl von Proben analysiert werden, um ein psychoacoustic Modell im Frequenzgebiet durchzuführen, und Latenz auf der Ordnung von 23 Millisekunden (46 Millisekunden für die Zweiwegekommunikation) ist.

Rede-Verschlüsselung

Rede-Verschlüsselung ist eine wichtige Kategorie der Audiodatenkompression. Die perceptual Modelle haben gepflegt zu schätzen, was ein menschliches Ohr hören kann, sind von denjenigen allgemein etwas verschieden, die für die Musik verwendet sind. Die Reihe von Frequenzen musste die Töne einer menschlichen Stimme befördern sind normalerweise viel schmaler als das, das für die Musik erforderlich ist, und der Ton ist normalerweise weniger kompliziert. Infolgedessen kann Rede an der hohen Qualität mit einer relativ niedrigen Bit-Rate verschlüsselt werden.

Das wird im Allgemeinen durch eine Kombination von zwei Annäherungen vollbracht:

  • Nur Verschlüsselung klingt, der durch eine einzelne menschliche Stimme gemacht werden konnte.
  • Mehr von den Daten im Signal wegwerfend —, gerade genug bleibend, um eine "verständliche" Stimme aber nicht die volle Frequenzreihe des menschlichen Hörens wieder aufzubauen.

Vielleicht waren die frühsten Algorithmen, die in der Rede-Verschlüsselung (und Audiodatenkompression im Allgemeinen) verwendet sind, der A-Gesetzalgorithmus und der µ-law Algorithmus.

Geschichte

Ein Literaturkompendium für eine große Vielfalt von Audiocodiersystemen wurde in der IEEE Zeitschrift auf Ausgewählten Gebieten in Kommunikationen (JSAC), Februar 1988 veröffentlicht. Während es einige Papiere aus der Zeit vor dieser Zeit gab, hat diese Sammlung eine komplette Vielfalt von beendeten, arbeitenden Audiocodierern, fast sie alle dokumentiert, perceptual verwendend (d. h. maskierend), Techniken und eine Art Frequenzanalyse und Zurückende das geräuschlose Codieren. Mehrere dieser Papiere haben sich über die Schwierigkeit geäußert, gutes, sauberes Digitalaudio zu Forschungszwecken zu erhalten. Die meisten, wenn nicht waren alle, der Autoren in der JSAC Ausgabe auch im MPEG-1 Audiokomitee aktiv.

Die erste kommerzielle Sendungsautomation in der Welt Audiokompressionssystem wurde von Oskar Bonello, einem Technikprofessor an der Universität des Buenos Aires entwickelt. 1983 hat das Verwenden des psychoacoustic Grundsatzes der Maskierung von kritischen Bändern zuerst 1967 veröffentlicht, er hat angefangen, eine praktische Anwendung zu entwickeln, die auf dem kürzlich entwickelten Computer von IBM PC gestützt ist, und das Sendungsautomationssystem wurde 1987 unter dem Namen Audicom gestartet. 20 Jahre später verwendeten fast alle Radiostationen in der Welt ähnliche Technologie, die von mehreren Gesellschaften verfertigt ist.

Video

Videokompression verwendet moderne Codiertechniken, um Überfülle in Videodaten zu reduzieren. Die meisten Videokompressionsalgorithmen und codecs verbinden Raumbildkompression und zeitliche Bewegungsentschädigung. Videokompression ist eine praktische Durchführung des Quellcodierens in der Informationstheorie. In der Praxis verwendet der grösste Teil des Videos codecs auch Audiokompressionstechniken in der Parallele, um die getrennten aber verbundenen Datenströme zusammenzupressen.

Die Mehrheit von Videokompressionsalgorithmen verwendet lossy Kompression. Große Datenmengen können beseitigt werden, perceptually nicht zu unterscheidend seiend. Als in der ganzen lossy Kompression gibt es einen Umtausch zwischen der Videoqualität, den Kosten, die Kompression und Dekompression und Systemanforderungen zu bearbeiten. Hoch komprimiertes Video kann sichtbare oder ablenkende Kunsterzeugnisse präsentieren.

Videokompression funktioniert normalerweise auf quadratgeformten Gruppen von benachbarten Pixeln, häufig genannt Makroblöcke. Diese Pixel-Gruppen oder Blöcke von Pixeln werden von einem Rahmen bis das folgende verglichen, und die Videokompression sendet codec nur die Unterschiede innerhalb jener Blöcke. In Gebieten des Videos mit mehr Bewegung muss die Kompression mehr Daten verschlüsseln, um mit der größeren Zahl von Pixeln Schritt zu halten, die sich ändern. Allgemein während Explosionen, Flammen, Herden von Tieren, und in einigen Schwenk-Schüssen, führt das Hochfrequenzdetail zu Qualitätsabnahmen oder zu Zunahmen in der Variable bitrate.

Verschlüsselung der Theorie

Videodaten können als eine Reihe von noch Bildrahmen vertreten werden. Die Folge von Rahmen enthält räumliche und zeitliche Überfülle, die Videokompressionsalgorithmen versuchen, zu beseitigen oder in einer kleineren Größe zu codieren. Ähnlichkeiten können verschlüsselt werden, indem sie nur Unterschiede zwischen Rahmen, oder durch das Verwenden perceptual von Eigenschaften der menschlichen Vision versorgt wird. Zum Beispiel sind kleine Unterschiede in der Farbe schwieriger wahrzunehmen, als Änderungen in der Helligkeit sind. Kompressionsalgorithmen können eine Farbe über diese ähnlichen Gebiete im Durchschnitt betragen, um Raum zu reduzieren, der gewissermaßen denjenigen ähnlich ist, die in der JPEG Bildkompression verwendet sind. Einige dieser Methoden sind von Natur aus lossy, während andere die ganze relevante Information vor dem ursprünglichen, unkomprimierten Video bewahren können.

Eine der stärksten Techniken, um Video zusammenzupressen, ist Zwischenrahmenkompression. Zwischenrahmenkompression verwendet ein oder frühere oder spätere Rahmen in einer Folge, um den aktuellen Rahmen zusammenzupressen, während Intrarahmenkompression nur den aktuellen Rahmen verwendet, effektiv Bildkompression seiend.

Die meistens verwendete Methode arbeitet durch das Vergleichen jedes Rahmens im Video mit dem vorherigen. Wenn der Rahmen Gebiete enthält, wohin sich nichts bewegt hat, gibt das System einfach einen kurzen Befehl aus, der diesen Teil des vorherigen Rahmens Bit-für-Bit in den folgenden kopiert. Wenn Abteilungen der Rahmenbewegung auf eine einfache Weise, der Kompressor einen (ein bisschen längeren) Befehl ausstrahlt, der dem decompresser sagt, die Kopie auszuwechseln, rotieren zu lassen, zu erhellen, oder dunkel zu machen: ein längerer Befehl, aber noch viel kürzer als Intrarahmenkompression. Zwischenrahmenkompression arbeitet gut für Programme, die einfach vom Zuschauer abgespielt werden, aber Probleme verursachen können, wenn die Videofolge editiert werden muss.

Weil Zwischenrahmenkompression Daten von einem Rahmen bis einen anderen kopiert, wenn der ursprüngliche Rahmen einfach ausgeschnitten (oder in der Übertragung verloren wird), können die folgenden Rahmen nicht richtig wieder aufgebaut werden. Einige Videoformate, wie DV, Kompresse jeder Rahmen unabhängig mit der Intrarahmenkompression. Das Bilden von 'Kürzungen' im intrarahmenkomprimierten Video ist fast so leicht wie das Redigieren unkomprimierten Videos: Man findet den Anfang und das Ende jedes Rahmens, und kopiert einfach Bit-für-Bit jeden Rahmen, den man behalten will, und die Rahmen verwirft, die man nicht will. Ein anderer Unterschied zwischen Intrarahmen und Zwischenrahmenkompression ist, dass mit Intrarahmensystemen jeder Rahmen eine ähnliche Datenmenge verwendet. In den meisten Zwischenrahmensystemen wird bestimmten Rahmen (wie "Entwickle ich mich" in MPEG-2), nicht erlaubt, Daten von anderen Rahmen zu kopieren, und so viel mehr Daten zu verlangen, als andere Rahmen in der Nähe.

Es ist möglich, einen computergestützten Videoredakteur zu bauen, der verursachte Probleme entdeckt, wenn ich mich entwickle, werden editiert, während andere Rahmen sie brauchen. Das hat neueren Formaten wie HDV erlaubt, für das Redigieren verwendet zu werden. Jedoch fordert dieser Prozess viel mehr Rechenmacht, als das Redigieren des Intrarahmens Video mit derselben Bilderqualität zusammengepresst hat.

Heute wenden fast alle allgemein verwendeten Videokompressionsmethoden (z.B, diejenigen in Standards, die durch den ITU-T oder ISO genehmigt sind), einen getrennten Kosinus verwandelt sich (DCT) für die Raumüberfülle-Verminderung an. Andere Methoden, wie Fractal-Kompression, Verfolgung und den Gebrauch einer getrennten Elementarwelle verwandelt sich (DWT) vergleichend, sind das Thema von etwas Forschung gewesen, aber werden normalerweise in praktischen Produkten (abgesehen vom Gebrauch der Elementarwelle nicht verwendet, die als Codierer des stillen Images ohne Bewegungsentschädigung codiert). Das Interesse an der fractal Kompression scheint, wegen der neuen theoretischen Analyse abzunehmen, einen vergleichenden Mangel an der Wirksamkeit solcher Methoden zeigend.

Zeitachse

Der folgende Tisch ist eine teilweise Geschichte von internationalen Videokompressionsstandards.

Siehe auch

Außenverbindungen

,

Alkohol-Vergiftung / Geschichte der demokratischen Republik des Kongos
Impressum & Datenschutz