Eigenschaft-Förderung

In der Muster-Anerkennung und in der Bildverarbeitung ist Eigenschaft-Förderung eine spezielle Form der dimensionality Verminderung.

Wenn die Eingangsdaten zu einem Algorithmus zu groß sind, um bearbeitet zu werden, und, wie man verdächtigt, er (viel Daten, aber nicht viel Information) dann notorisch überflüssig ist, werden die Eingangsdaten in einen reduzierten Darstellungssatz von Eigenschaften (auch genannt Eigenschaft-Vektoren) umgestaltet. Das Umwandeln der Eingangsdaten in den Satz von Eigenschaften wird Eigenschaft-Förderung genannt. Wenn die herausgezogenen Eigenschaften sorgfältig gewählt werden, wird es erwartet, dass der Eigenschaft-Satz die relevante Information aus den Eingangsdaten herausziehen wird, um die gewünschte Aufgabe mit dieser reduzierten Darstellung statt des vollen Größe-Eingangs durchzuführen.

Allgemein

Eigenschaft-Förderung ist mit Vereinfachung des Betrags von Mitteln verbunden, die erforderlich sind, einen großen Satz von Daten genau zu beschreiben. Wenn es Analyse von komplizierten Daten durchführt, stammt eines der Hauptprobleme von der Zahl von beteiligten Variablen. Die Analyse mit einer Vielzahl von Variablen verlangt allgemein einen großen Betrag des Gedächtnisses und der Berechnungsmacht oder eines Klassifikationsalgorithmus, der die Lehrprobe überpasst und schlecht zu neuen Proben verallgemeinert. Eigenschaft-Förderung ist ein allgemeiner Begriff für Methoden, Kombinationen der Variablen zu bauen, um um diese Probleme herumzukommen, während sie noch die Daten mit der genügend Genauigkeit beschreibt.

Beste Ergebnisse werden erreicht, wenn ein Experte eine Reihe von der Anwendung abhängiger Eigenschaften baut. Dennoch, wenn keine solche Erfahrung verfügbare allgemeine dimensionality Verminderungstechniken ist, kann helfen. Diese schließen ein:

  • Hauptteilanalyse
  • Das halbbestimmte Einbetten
  • Mehrfaktor dimensionality die Verminderung
  • Mehrgeradliniger Subraum, der erfährt
  • Die nichtlineare dimensionality Verminderung
  • Isomap
  • Kern PCA
  • Mehrgeradliniger PCA
  • Latente semantische Analyse
  • Teilweise kleinste Quadrate
  • Unabhängige Teilanalyse

Bildverarbeitung

Es kann im Gebiet der Bildverarbeitung verwendet werden, die mit Verwenden-Algorithmen verbunden ist, um verschiedene gewünschte Teile oder Gestalten (Eigenschaften) eines digitalisierten Images oder Videostroms zu entdecken und zu isolieren. Es ist im Gebiet der optischen Charakter-Anerkennung besonders wichtig

Auf niedriger Stufe

  • Flankenerkennung
  • Eckentdeckung
  • Tropfen-Entdeckung
  • Kamm-Entdeckung
  • Eigenschaft der Skala-invariant gestaltet um

Krümmung

Bildbewegung

  • Bewegungsentdeckung. Gebiet gestützt, Differenzialannäherung. Optischer Fluss.

Gestalt gestützt

  • Thresholding
  • Tropfen-Förderung
  • Schablone, die zusammenpasst
  • Hough gestaltet um
  • Linien
  • Kreise/Ellipsen
  • Willkürliche Gestalten (hat Hough verallgemeinert, verwandeln sich)
  • Arbeiten mit jeder parametrierbaren Eigenschaft (Klassenvariablen, Traube-Entdeckung, usw.)

Flexible Methoden

  • Verformbare, parametrisierte Gestalten
  • Aktive Konturen (Schlangen)

Eigenschaft-Förderung in der Software

Viele Datenanalyse-Softwarepakete sorgen für Eigenschaft-Förderung und die Dimensionsverminderung. Allgemeine numerische Programmierumgebungen wie MATLAB, SciLab, NumPy und die R Sprache stellen einige der einfacheren Eigenschaft-Förderungstechniken (z.B Hauptteilanalyse) über eingebaute Befehle zur Verfügung. Spezifischere Algorithmen sind häufig als öffentlich verfügbare Schriften oder Dritterweiterungen verfügbar.

Siehe auch

  • Traube-Analyse
  • Die Verminderung von Dimensionality
  • Eigenschaft-Entdeckung
  • Eigenschaft-Auswahl
  • Daten, die abbauen
  • Verbundener Bestandteil, der etikettiert
  • Segmentation (Bildverarbeitung)

Links


Durchdringende Entwicklungsunordnung / George Romney
Impressum & Datenschutz