Bedingungszahl

Im Feld der numerischen Analyse misst die Bedingungszahl einer Funktion in Bezug auf ein Argument asymptotisch Grenzfall dessen, wie viel die Funktion im Verhältnis zu kleinen Änderungen im Argument ändern kann. Die "Funktion" ist die Lösung eines Problems, und die "Argumente" sind die Daten im Problem.

Wie man

sagt, ist ein Problem mit einer niedrigen Bedingungszahl gut bedingt, während, wie man sagt, ein Problem mit einer hohen Bedingungszahl schlecht-bedingt wird.

Die Bedingungszahl ist ein Eigentum des Problems. Paarweise angeordnet mit dem Problem sind jede Zahl von Algorithmen, die verwendet werden können, um das Problem zu beheben, d. h. die Lösung zu berechnen. Einige Algorithmen haben genannte rückwärts gerichtete Stabilität eines Eigentums. Im Allgemeinen, wie man erwarten kann, behebt ein rückwärts gerichteter stabiler Algorithmus gut bedingte Probleme genau. Numerische Analyse-Lehrbücher geben Formeln für die Bedingungszahlen von Problemen und identifizieren die rückwärts gerichteten stabilen Algorithmen.

Als eine allgemeine Faustregel, wenn die Bedingungszahl, dann können Sie bis zu Ziffern der Genauigkeit oben darauf verlieren, was gegen die numerische Methode wegen des Verlustes der Präzision von arithmetischen Methoden verloren würde. Jedoch gibt die Bedingungszahl den genauen Wert der maximalen Ungenauigkeit nicht, die im Algorithmus vorkommen kann. Es begrenzt es allgemein gerade mit einer Schätzung (dessen geschätzter Wert von der Wahl der Norm abhängt, die Ungenauigkeit zu messen).

Matrices

Zum Beispiel hat die Bedingungszahl mit der geradlinigen Gleichung verkehrt

Axt = b gibt einen gebundenen, wie ungenau die Lösung x nach der ungefähren Lösung sein wird. Bemerken Sie, dass das ist, bevor die Effekten der Runde - vom Fehler in Betracht gezogen werden; das Bedingen ist ein Eigentum der Matrix, nicht der Algorithmus oder Punkt-Genauigkeit des Computers schwimmen lassend, hat gepflegt, das entsprechende System zu lösen. Insbesondere man sollte an die Bedingungszahl als seiend (sehr grob) die Rate denken, an der sich die Lösung, x, in Bezug auf eine Änderung in b ändern wird. So, wenn die Bedingungszahl groß ist, kann sogar ein kleiner Fehler in b einen großen Fehler in x verursachen. Andererseits, wenn die Bedingungszahl dann klein ist, wird der Fehler in x nicht viel größer sein als der Fehler in b.

Die Bedingungszahl wird genauer definiert, um das maximale Verhältnis des Verhältnisfehlers in x zu sein, der durch den Verhältnisfehler in b geteilt ist.

Lassen Sie e der Fehler in b sein. Annehmend, dass A eine Quadratmatrix, der Fehler in der Lösung ist, ist Ab Ae. Das Verhältnis des Verhältnisfehlers in der Lösung des Verhältnisfehlers in b ist

:

Das wird in leicht umgestaltet

:Wie man

leicht sieht, ist der maximale Wert (für die Nichtnull b und e) das Produkt der zwei Maschinenbediener-Normen:

:

Dieselbe Definition wird für jede konsequente Norm, d. h. diejenige verwendet, die befriedigt

:

Wenn die Bedingungszahl genau ein ist, dann kann der Algorithmus eine Annäherung der Lösung mit einer willkürlichen Präzision finden. Jedoch bedeutet es nicht, dass der Algorithmus schnell zu dieser Lösung gerade zusammenlaufen wird, dass es willkürlich wegen der Ungenauigkeit auf den Quelldaten nicht abweichen wird (rückwärts gerichteter Fehler), vorausgesetzt, dass der durch den Algorithmus eingeführte Vorwärtsfehler ebenso wegen des Ansammelns von Zwischenrundungsfehlern nicht abweicht.

Die Bedingungszahl kann auch unendlich sein, in welchem Fall der Algorithmus keine Lösung des Problems, nicht sogar eine schwache Annäherung davon (und nicht sogar seine Größenordnung) mit keiner angemessenen und nachweisbaren Genauigkeit zuverlässig finden wird.

Natürlich hängt diese Definition von der Wahl der Norm ab:

  • Wenn die Norm (gewöhnlich bemerkt als) definiert im quadrataddierbaren Folge-Raum  ist (der auch die übliche Entfernung in einem dauernden und isotropischen kartesianischen Raum vergleicht), dann
:
  • : wo und maximale und minimale einzigartige Werte beziehungsweise sind.
  • : Folglich
  • :* Wenn dann normal
ist
  • :*:
  • :*: wo und maximal und (durch Module) eigenvalues beziehungsweise minimal sind.
  • :* Wenn dann einheitlich
ist:*:
  • : Diese Zahl entsteht so häufig in der numerischen geradlinigen Algebra, dass ihm ein Name, die Bedingungszahl einer Matrix gegeben wird.
  • Wenn die Norm (gewöhnlich bemerkt als) definiert im Folge-Raum  von allen begrenzten Folgen ist (der auch die nichtlineare Entfernung gemessen als das Maximum von Entfernungen vergleicht, die auf Vorsprüngen in die Grundsubräume gemessen sind, ohne zu verlangen, dass der Raum isotropisch oder sogar gerade geradlinig ist, aber nur, solche Norm dauernd, die auf allen Banachräumen definierbar ist), und dreieckig nichtsingulär (d. h.,) dann niedriger ist
:
  • : Die mit dieser Norm geschätzte Bedingungszahl ist allgemein größer als die mit quadrataddierbaren Folgen geschätzte Bedingungszahl, aber es kann leichter bewertet werden (und das ist häufig die einzige messbare Bedingungszahl, wenn das Problem zu lösen eine nichtlineare Algebra zum Beispiel einschließt, wenn es vernunftwidrig und transzendente Funktionen oder Zahlen mit numerischen Methoden näher kommt.)

Wenn die Bedingungszahl ein nah ist, wird die Matrix gut bedingt, was bedeutet, dass sein Gegenteil mit der guten Genauigkeit geschätzt werden kann. Wenn die Bedingungszahl groß ist, dann, wie man sagt, wird die Matrix schlecht-bedingt. Praktisch ist solch eine Matrix fast, und die Berechnung seines Gegenteils einzigartig, oder die Lösung eines geradlinigen Gleichungssystems ist für große numerische Fehler anfällig. Eine Matrix, die nicht invertible ist, hat die der Unendlichkeit gleiche Bedingungszahl.

Andere Zusammenhänge

Bedingungszahlen können für jede Funktion &fnof definiert werden; seine Daten von einem Gebiet (z.B eine M Tupel von reellen Zahlen x) in einen codomain [z.B ein N-Tupel von reellen Zahlen &fnof kartografisch darstellend; (x)], wo sowohl das Gebiet als auch codomain Banachräume sind. Sie drücken aus, wie empfindlich, dass Funktion zu kleinen Änderungen (oder kleinen Fehlern) in seinen Argumenten ist. Das ist im Festsetzen der Empfindlichkeit und potenziellen Genauigkeitsschwierigkeiten von zahlreichen rechenbetonten Problemen, zum Beispiel polynomische Wurzelentdeckung oder Computerwissenschaft eigenvalues entscheidend.

Die Bedingungszahl ƒ an einem Punkt x (spezifisch, seine Verhältnisbedingungszahl) wird dann definiert, um das maximale Verhältnis der Bruchänderung in &fnof zu sein; (x) zu jeder Bruchänderung in x, in der Grenze, wo die Änderung δx in x unendlich klein klein wird:

:

\sup_ {\Vert \delta x \Vert \leq \varepsilon}

\left [\frac {\left\Vert f (x + \delta x) - f (x) \right\Vert} {\Vert f (x) \Vert}

/ \frac {\Vert \delta x \Vert} {\Vert x \Vert }\

\right], </Mathematik>

wo eine Norm auf dem domain/codomain &fnof ist; (x).

Wenn &fnof; ist differentiable, das ist gleichwertig zu:

:

wo J die Matrix von Jacobian von partiellen Ableitungen &fnof anzeigt; und ist die veranlasste Norm auf der Matrix.

Links


Chromatin / Cheddarkäse-Käse
Impressum & Datenschutz