Vapnik-Chervonenkis Theorie

Vapnik-Chervonenkis Theorie (auch bekannt als VC Theorie) wurden während 1960-1990 von Vladimir Vapnik und Alexey Chervonenkis entwickelt. Die Theorie ist eine Form der rechenbetonten Lerntheorie, die versucht, den Lernprozess aus einem statistischen Gesichtspunkt zu erklären.

VC Theorie ist mit der statistischen Lerntheorie und mit empirischen Prozessen verbunden. Richard M. Dudley und Vladimir Vapnik selbst, unter anderen, wenden VC-Theorie auf empirische Prozesse an.

VC Theorie bedeckt mindestens vier Teile (wie erklärt, in Der Natur des Statistischen Lernens der Theorie):

  • Theorie der Konsistenz von Lernprozessen
  • Was ist (notwendig und genügend) Bedingungen für die Konsistenz eines auf dem empirischen Risikominimierungsgrundsatz gestützten Lernprozesses?
  • Nichtasymptotische Theorie der Rate der Konvergenz von Lernprozessen
  • Wie ist schnell die Rate der Konvergenz des Lernprozesses?
  • Theorie, die Generalisationsfähigkeit von Lernprozessen zu kontrollieren
  • Wie kann man die Rate der Konvergenz (die Generalisationsfähigkeit) vom Lernprozess kontrollieren?
  • Theorie, das Lernen von Maschinen zu bauen
  • Wie kann man Algorithmen bauen, die können die Generalisationsfähigkeit kontrollieren?

Außerdem sind VC Theorie und VC Dimension in der Theorie von empirischen Prozessen im Fall von durch VC Klassen mit einem Inhaltsverzeichnis versehenen Prozessen instrumental.

Der letzte Teil der VC Theorie hat einen wohl bekannten Lernalgorithmus eingeführt: die Unterstützungsvektor-Maschine.

VC Theorie enthält wichtige Konzepte wie die VC Dimension und Strukturrisikominimierung. Diese Theorie ist mit mathematischen Themen verbunden wie:

  • das Reproduzieren von Kernräumen von Hilbert
  • Regularization-Netze
  • Kerne
  • empirische Prozesse
  • Sieh Verweisungen in Artikeln: Richard M. Dudley, empirische Prozesse, Zerschmetterter Satz.

Juris Hartmanis / Stere
Impressum & Datenschutz