Das Selbstorganisieren der Karte

Ein Selbstorganisieren der Karte (SOM) oder Selbstorganisieren der Eigenschaft-Karte (SOFM) sind ein Typ des künstlichen Nervennetzes, das mit dem unbeaufsichtigten Lernen erzogen wird, einen niedrig-dimensionalen (normalerweise zweidimensional), discretized Darstellung des Eingangsraums der Lehrproben, genannt eine Karte zu erzeugen. Selbstorganisierende Karten sind von anderen künstlichen Nervennetzen im Sinn verschieden, dass sie eine Nachbarschaft-Funktion verwenden, die topologischen Eigenschaften des Eingangsraums zu bewahren.

Das macht SOMs nützlich, um sich niedrig-dimensionale Ansichten von hoch-dimensionalen Daten zu vergegenwärtigen, die mit dem mehrdimensionalen Schuppen verwandt sind. Das Modell wurde zuerst als ein künstliches Nervennetz vom finnischen Professor Teuvo Kohonen beschrieben, und wird manchmal eine Karte von Kohonen genannt.

Wie die meisten künstlichen Nervennetze funktionieren SOMs in zwei Weisen: Ausbildung und kartografisch darzustellen. Ausbildung baut die Karte mit Eingangsbeispielen. Es ist ein Wettbewerbsprozess, auch genannt Vektoren quantization. Automatisch kartografisch darzustellen, klassifiziert einen neuen Eingangsvektoren.

Eine selbstorganisierende Karte besteht aus Bestandteilen genannt Knoten oder Neurone. Vereinigt mit jedem Knoten ist ein Gewicht-Vektor derselben Dimension wie die Eingangsdatenvektoren und eine Position im Karte-Raum. Die übliche Einordnung von Knoten ist ein regelmäßiger Abstand in einem sechseckigen oder rechteckigen Bratrost. Die selbstorganisierende Karte beschreibt von einem höheren dimensionalen Eingangsraum bis einen niedrigeren dimensionalen Karte-Raum kartografisch darzustellen. Das Verfahren, für einen Vektoren vom Datenraum auf die Karte zu legen, soll zuerst den Knoten mit dem nächsten Gewicht-Vektoren zum vom Datenraum genommenen Vektoren finden. Sobald der nächste Knoten gelegen wird, wird er die Werte vom vom Datenraum genommenen Vektoren zugeteilt.

Während es typisch ist, um diesen Typ der mit feedforward Netzen so als zusammenhängenden Netzstruktur zu betrachten, wo die Knoten vergegenwärtigt werden wie beigefügt werden, ist dieser Typ der Architektur in der Einordnung und Motivation im Wesentlichen verschieden.

Nützliche Erweiterungen schließen das Verwenden toroidal Bratrost ein, wo entgegengesetzte Ränder verbunden werden und große Anzahl von Knoten verwendend. Es ist gezeigt worden, dass, während man Karten mit einer kleinen Zahl von Knoten selbstorganisiert, sich in einem Weg benehmen, der K-Mitteln ähnlich ist, ordnen größere selbstorganisierende Karten Daten in einem Weg um, der im Charakter im Wesentlichen topologisch ist.

Es ist auch üblich, die U-Matrix zu verwenden. Der U-Matrixwert eines besonderen Knotens ist die durchschnittliche Entfernung zwischen dem Knoten und seinen nächsten Nachbarn (bezüglich 9). In einem Quadratbratrost zum Beispiel könnten wir die nächsten 4 oder 8 Knoten (die Nachbarschaft von Von Neumann und Nachbarschaft von Moore beziehungsweise), oder sechs Knoten in einem sechseckigen Bratrost denken.

Große SOMs zeigen Eigenschaften, die auftauchend sind. In Karten, die aus Tausenden von Knoten bestehen, ist es möglich, Traube-Operationen auf der Karte selbst durchzuführen.

Das Lernen des Algorithmus

Die Absicht des Lernens in der selbstorganisierenden Karte ist, verschiedene Teile des Netzes zu veranlassen, ähnlich auf bestimmte Eingangsmuster zu antworten. Das wird dadurch teilweise motiviert, wie oder andere Sehgehörsinnesinformation in getrennten Teilen des Kortex im menschlichen Gehirn behandelt wird.

Die Gewichte der Neurone werden entweder zu kleinen zufälligen Werten initialisiert oder gleichmäßig vom durch die zwei größten Hauptteileigenvektoren abgemessenen Subraum probiert. Mit der letzten Alternative ist das Lernen viel schneller, weil die anfänglichen Gewichte bereits gute Annäherung von SOM Gewichten geben.

Das Netz muss eine Vielzahl von Beispiel-Vektoren gefüttert werden, die so nahe vertreten wie möglich, die Arten von während kartografisch darzustellen erwarteten Vektoren. Die Beispiele werden gewöhnlich mehrere Male als Wiederholungen verwaltet.

Die Ausbildung verwertet das Wettbewerbslernen. Wenn ein Lehrbeispiel zum Netz gefüttert wird, wird seine Euklidische Entfernung zu allen Gewicht-Vektoren geschätzt. Das Neuron mit dem dem Eingang am ähnlichsten Gewicht-Vektoren wird das am besten das Zusammenbringen der Einheit (BMU) genannt. Die Gewichte des BMU und der Neurone in der Nähe davon im SOM Gitter werden zum Eingangsvektoren angepasst. Der Umfang der Änderung nimmt mit der Zeit und mit der Entfernung vom BMU ab. Die Aktualisierungsformel für ein Neuron mit dem Gewicht-Vektoren Wv (t) ist

:Wv (t + 1) = Wv (t) + Θ (v, t) α (t) (D (t) - Wv (t)),

wo α (t) ein monotonically ist, der das Lernen des Koeffizienten vermindert, und D (t) der Eingangsvektor ist. Die Nachbarschaft-Funktion Θ (v, t) hängt von der Gitter-Entfernung zwischen dem BMU und Neuron v ab. In der einfachsten Form ist es ein für alle Neurone nahe genug zu BMU und Null für andere, aber eine Funktion von Gaussian ist eine allgemeine Wahl auch. Unabhängig von der funktionellen Form weicht die Nachbarschaft-Funktion mit der Zeit zurück. Am Anfang, wenn die Nachbarschaft breit ist, findet das Selbstorganisieren auf der globalen Skala statt. Als die Nachbarschaft zu gerade einigen Neuronen zurückgewichen ist, laufen die Gewichte zu lokalen Schätzungen zusammen.

Dieser Prozess wird für jeden Eingangsvektoren für (gewöhnlich groß) Zahl von Zyklen λ wiederholt. Das Netz wickelt ab, Produktionsknoten mit Gruppen oder Mustern in der Eingangsdatei zu vereinigen. Wenn diese Muster genannt werden können, können die Namen den verbundenen Knoten im erzogenen Netz beigefügt werden.

Während, kartografisch darzustellen, wird es ein einzelnes gewinnendes Neuron geben: Das Neuron, dessen Gewicht-Vektor am nächsten am Eingangsvektoren liegt. Das kann einfach durch das Rechnen der Euklidischen Entfernung zwischen Eingangsvektoren und Gewicht-Vektoren bestimmt werden.

Während das Darstellen Daten eingegeben hat, weil Vektoren in diesem Artikel betont worden sind, sollte es bemerkt werden, dass jede Art des Gegenstands, der digital vertreten werden kann, und der ein passendes Entfernungsmaß hat, das damit vereinigt ist, und in dem die notwendigen Operationen wegen der Ausbildung möglich sind, verwendet werden kann, um eine selbstorganisierende Karte zu bauen. Das schließt matrices, dauernde Funktionen oder sogar andere selbstorganisierende Karten ein.

Einleitende Definitionen

Denken Sie eine n×m Reihe von Knoten, von denen jeder einen Gewicht-Vektoren enthält und seiner Position in der Reihe bewusst ist. Jeder Gewicht-Vektor ist derselben Dimension wie der Eingangsvektor des Knotens. Die Gewichte können auf zufällige Werte am Anfang gesetzt werden.

Jetzt müssen wir eingeben, um die Karte zu füttern. (Die erzeugte Karte und der gegebene Eingang bestehen in getrennten Subräumen.) Wir werden drei Vektoren schaffen, um Farben zu vertreten. Farben können durch ihre roten, grünen und blauen Bestandteile vertreten werden. Folglich werden unsere Eingangsvektoren drei Bestandteile, jeden entsprechend einem Farbenraum haben. Die Eingangsvektoren werden sein:

:R =

:G =

:B =

Die Farbenlehrvektor-Dateien haben in SOM verwendet:

:threeColors = [255, 0, 0], [0, 255, 0], [0, 0, 255]

:eightColors = [0, 0, 0], [255, 0, 0], [0, 255, 0], [0, 0, 255], [255, 255, 0], [0, 255, 255], [255, 0, 255], [255, 255, 255]

Die Datenvektoren sollten vorzugsweise normalisiert werden (Vektor-Länge ist einer gleich) vor der Ausbildung der SOM.

Neurone (40 x 40 Quadratbratrost) werden für 250 Wiederholungen mit einer Lernrate von 0.1 Verwenden der normalisierten Blumendatei von Iris erzogen, die vier dimensionale Datenvektoren hat. Ein Farbenimage, das durch die ersten drei Dimensionen der vier dimensionalen SOM Gewicht-Vektoren (Spitze gebildet ist, verlassen), färben Sie Image des Umfangs der SOM Gewicht-Vektoren (Spitzenrecht), U-Matrix (Euklidische Entfernung zwischen Gewicht-Vektoren von benachbarten Zellen) des SOM (unten links) und der Bedeckung von Datenpunkten pseudo (rot:I. Setosa, grün:I. Versicolor und blau:I. Verginica) auf der U-Matrix, die auf der minimalen Euklidischen Entfernung zwischen Datenvektoren und SOM Gewicht-Vektoren (unterstes Recht) gestützt ist.

Variablen

Das sind die Variablen erforderlich, mit Vektoren im kühnen,

  • zeigt aktuelle Wiederholung an
  • ist die Grenze auf der Zeitwiederholung
  • ist der aktuelle Gewicht-Vektor
  • ist der Ziel Eingang
  • ist Selbstbeherrschung wegen der Entfernung von BMU, gewöhnlich genannt die Nachbarschaft-Funktion und
den
  • erfährt Selbstbeherrschung wegen der Zeit.

Algorithmus

  1. Randomize die Gewicht-Vektoren der Knoten der Karte
  2. Ergreifen Sie einen Eingangsvektoren
  3. Überqueren Sie jeden Knoten in der Karte
  4. Verwenden Sie Euklidische Entfernungsformel, um Ähnlichkeit zwischen dem Eingangsvektoren und dem Gewicht-Vektoren des Knotens der Karte zu finden
  5. Verfolgen Sie den Knoten, der die kleinste Entfernung erzeugt (dieser Knoten ist die beste zusammenpassende Einheit, BMU)
  6. Aktualisieren Sie die Knoten in der Nachbarschaft von BMU, indem Sie sie näher am Eingangsvektoren ziehen
  7. Wv (t + 1) = Wv (t) + Θ (t) α (t) (D (t) - Wv (t))
  8. Vergrößern Sie t und Wiederholung von 2 während

Interpretation

Es gibt zwei Weisen, einen SOM zu interpretieren. Weil in den Lehrphase-Gewichten der ganzen Nachbarschaft in derselben Richtung bewegt werden, neigen ähnliche Sachen dazu, angrenzende Neurone zu erregen. Deshalb bildet SOM eine semantische Karte, wo ähnliche Proben eng miteinander kartografisch dargestellt und einzeln unterschiedlich werden. Das kann durch eine U-Matrix (Euklidische Entfernung zwischen Gewicht-Vektoren von benachbarten Zellen) des SOM vergegenwärtigt werden.

Der andere Weg ist, an neuronal Gewichte als Zeigestöcke zum Eingangsraum zu denken. Sie bilden eine getrennte Annäherung des Vertriebs von Lehrproben. Mehr Neurone weisen zu Gebieten mit der hohen Lehrbeispielkonzentration und weniger hin, wo die Proben knapp sind.

SOM kann als eine nichtlineare Generalisation der Hauptteilanalyse (PCA) betrachtet werden. Es ist mit sowohl künstlichen als auch echten geophysikalischen Daten gezeigt worden, dass SOM im Vorteil gegenüber den herkömmlichen Eigenschaft-Förderungsmethoden wie Empirical Orthogonal Functions (EOF) oder PCA ist.

Ursprünglich wurde SOM als eine Lösung eines Optimierungsproblems nicht formuliert. Dennoch hat es mehrere Versuche gegeben, die Definition von SOM zu modifizieren und ein Optimierungsproblem zu formulieren, das ähnliche Ergebnisse gibt. Zum Beispiel verwenden Elastische Karten für die Annäherung von Hauptsammelleitungen

die mechanische Metapher der Elastizität und Analogie der Karte mit der elastischen Membran und dem Teller.

Alternativen

  • Die generative Landkarte (GTM) ist eine potenzielle Alternative zu SOMs. Im Sinn, dass ein GTM ausführlich verlangt vom Eingangsraum bis den Karte-Raum glatt und dauernd kartografisch darzustellen, ist es Topologie-Bewahrung. Jedoch, in einem praktischen Sinn, fehlt dieses Maß der topologischen Bewahrung.
  • Das Netz der Zeit anpassungsfähigen selbstorganisierenden Karte (TASOM) ist eine Erweiterung des grundlegenden SOM. Der TASOM verwendet anpassungsfähige Lernraten und Nachbarschaft-Funktionen. Es schließt auch einen kletternden Parameter ein, um das Netz invariant zum Schuppen, der Übersetzung und der Folge des Eingangsraums zu machen. Der TASOM und seine Varianten sind in mehreren Anwendungen einschließlich des anpassungsfähigen Sammelns, Mehrniveau thresholding verwendet worden, gab Raumannäherung und das aktive Kontur-Modellieren ein.. Außerdem, ein Binärer Baum TASOM oder BTASOM, einem binären natürlichen Baumbestehen ähnelnd Knoten TASOM Netze sind vorgeschlagen worden, wo die Zahl seiner Niveaus und die Zahl seiner Knoten mit seiner Umgebung anpassungsfähig sind.
  • Das Wachsen selbstorganisierender Karte (GSOM) ist eine wachsende Variante der selbstorganisierenden Karte. Der GSOM wurde entwickelt, um das Problem zu richten, eine passende Karte-Größe im SOM zu identifizieren. Es fängt mit einer minimalen Zahl von Knoten (gewöhnlich vier) an und baut neue Knoten an der auf einem heuristischen gestützten Grenze an. Durch das Verwenden eines Werts hat den Ausbreitungsfaktor genannt, der Datenanalytiker ist in der Lage, das Wachstum des GSOM zu kontrollieren.

Siehe auch

  • Nervenbenzin
  • Große Speicherlagerung und Wiederauffindung (LAMSTAR) Nervennetze
  • Hybride Kohonen SOM

Außenverbindungen


Weinsäure / Glaskatzenfisch
Impressum & Datenschutz