Mathematische Optimierung

In der Mathematik, rechenbetonten Wissenschaft oder Verwaltungswissenschaft, beziehen sich mathematische Optimierung (wechselweise, Optimierung oder mathematische Programmierung) auf die Auswahl an einem besten Element von einem Satz von verfügbaren Alternativen.

Im einfachsten Fall besteht ein Optimierungsproblem aus der Maximierung oder Minderung einer echten Funktion durch die systematische Auswahl von Eingangswerten aus einem erlaubten Satz und die Computerwissenschaft des Werts der Funktion. Die Generalisation der Optimierungstheorie und Techniken zu anderen Formulierungen umfasst ein großes Gebiet der angewandten Mathematik. Mehr allgemein schließt Optimierung Entdeckung "am besten verfügbare" Werte etwas objektiver Funktion gegeben ein definiertes Gebiet, einschließlich einer Vielfalt von verschiedenen Typen von objektiven Funktionen und verschiedenen Typen von Gebieten ein.

Optimierungsprobleme

Ein Optimierungsproblem kann folgendermaßen vertreten werden

:Given: eine Funktion f: Ein R von einem Satz zu den reellen Zahlen

:Sought: ein Element x in Einem solchem dass f (x)  f (x) für den ganzen x in ("Minimierung") oder solch dass f (x)  f (x) für den ganzen x in ("Maximierung").

Solch eine Formulierung wird ein Optimierungsproblem oder ein mathematisches Programmierproblem genannt (ein Begriff, der nicht direkt mit der Computerprogrammierung verbunden ist, aber noch im Gebrauch zum Beispiel in der geradlinigen Programmierung - sieh Geschichte unten). Viele wirkliche und theoretische Probleme können in diesem allgemeinen Fachwerk modelliert werden. Probleme haben das Verwenden dieser Technik in den Feldern der Physik formuliert, und Computervision kann die Technik als Energieminimierung, das Sprechen des Werts der Funktion f als das Darstellen der Energie des Systems kennzeichnen, das wird modelliert.

Gewöhnlich ist A eine Teilmenge des Euklidischen Raums R, häufig angegeben durch eine Reihe von Einschränkungen, Gleichheiten oder Ungleichheit, die die Mitglieder von A befriedigen müssen. Das Gebiet f wird den Suchraum oder die Auswahl, genannt

während die Elemente von A Kandidat-Lösungen oder mögliche Lösungen genannt werden.

Die Funktion f, wird verschiedenartig, eine objektive Funktion genannt, kosten Sie Funktion (Minimierung), Dienstprogramm-Funktion (Maximierung), oder, in bestimmten Feldern, Energiefunktion oder funktioneller Energie. Eine mögliche Lösung, die minimiert (oder maximiert, wenn das die Absicht ist), die objektive Funktion wird eine optimale Lösung genannt.

Durch die Tagung wird die Standardform eines Optimierungsproblems in Bezug auf die Minimierung festgesetzt. Allgemein, wenn sowohl die objektive Funktion als auch das ausführbare Gebiet in einem Minimierungsproblem nicht konvex sind, kann es mehrere lokale Minima geben, wo ein lokales Minimum x als ein Punkt definiert wird, für den dort ein δ &gt besteht; 0 so dass für den ganzen solchen x dass

:

der Ausdruck

:

hält; das heißt, auf einem Gebiet um x sind alle Funktionswerte größer oder gleich dem Wert an diesem Punkt. Lokale Maxima werden ähnlich definiert.

Eine Vielzahl von Algorithmen, die vorgeschlagen sind, um nichtkonvexe Probleme - einschließlich der Mehrheit von gewerblich verfügbarem solvers zu beheben - ist dazu nicht fähig, eine Unterscheidung zwischen lokalen optimalen Lösungen und strengen optimalen Lösungen zu machen, und wird den ersteren als wirkliche Lösungen des ursprünglichen Problems behandeln. Der Zweig der angewandten Mathematik und numerischen Analyse, die mit der Entwicklung von deterministischen Algorithmen beschäftigt ist, die dazu fähig sind, Konvergenz in der endlichen Zeit zur wirklichen optimalen Lösung eines nichtkonvexen Problems zu versichern, wird globale Optimierung genannt.

Notation

Optimierungsprobleme werden häufig mit der speziellen Notation ausgedrückt. Hier sind einige Beispiele.

Minimaler und maximaler Wert einer Funktion

Denken Sie die folgende Notation:

:

Das zeigt den minimalen Wert der objektiven Funktion an, wenn es x vom Satz von reellen Zahlen wählt. Der minimale Wert ist in diesem Fall, daran vorkommend.

Ähnlich die Notation

:

bittet um den maximalen Wert der objektiven Funktion 2x, wo x jede reelle Zahl sein kann. In diesem Fall gibt es kein solches Maximum, wie die objektive Funktion unbegrenzt ist, so ist die Antwort "Unendlichkeit" oder "unbestimmt".

Optimale Eingangsargumente

Denken Sie die folgende Notation::

oder gleichwertig

:

Das vertritt den Wert (oder die Werte) vom Argument x im Zwischenraum, der minimiert (oder minimieren Sie), die objektive Funktion x + 1 (ist der wirkliche minimale Wert dieser Funktion nicht, worum das Problem bittet). In diesem Fall ist die Antwort x =-1, da x = 0 unausführbar ist, d. h. dem ausführbaren Satz nicht gehört.

Ähnlich

:oder gleichwertig:

vertritt das Paar (oder Paare), der maximiert (oder maximieren Sie) der Wert der objektiven Funktion, mit der zusätzlichen Einschränkung, dass x im Zwischenraum liegen (wieder ist der wirkliche maximale Wert des Ausdrucks nicht von Bedeutung). In diesem Fall sind die Lösungen die Paare der Form (5, 2kπ) und (5, (2k+1) π), wo sich k über alle ganzen Zahlen erstreckt.

Minute von Arg und arg max werden manchmal auch argmin und argmax geschrieben, und treten für Argument des Minimums und Argument des Maximums ein.

Geschichte

Fermat und Lagrange haben Rechnungsbasierte Formeln gefunden, um Optima zu identifizieren, während Newton und Gauss wiederholende Methoden vorgeschlagen haben, für an ein Optimum heranzugehen. Historisch war der erste Begriff für die Optimierung "geradlinige Programmierung", die wegen George B. Dantzigs war, obwohl viel von der Theorie von Leonid Kantorovich 1939 eingeführt worden war. Dantzig hat den Simplexalgorithmus 1947 veröffentlicht, und John von Neumann hat die Theorie der Dualität in demselben Jahr entwickelt.

Der Begriff Programmierung in diesem Zusammenhang bezieht sich auf die Computerprogrammierung nicht. Eher kommt der Begriff aus dem Gebrauch des Programms durch das USA-Militär, um sich auf die vorgeschlagene Ausbildung und Logistik-Listen zu beziehen, die die Probleme Dantzig studiert damals waren.

Später schließen wichtige Forscher in der mathematischen Optimierung den folgenden ein:

  • Öffentlicher Ausrufer von Richard
  • Ronald A. Howard
  • Narendra Karmarkar
  • William Karush
  • Leonid Khachiyan
  • Bernard Koopman
  • Harold Kuhn
  • Joseph Louis Lagrange
  • László Lovász
  • Arkadii Nemirovskii
  • Yurii Nesterov
  • Boris Polyak
  • Lev Pontryagin
  • James Renegar
  • R. Tyrrell Rockafellar
  • Cornelis Roos
  • Naum Z. Shor
  • Michael J. Todd
  • Albert Tucker

Hauptteilfelder

  • Konvexe Programmierung studiert den Fall, wenn die objektive Funktion (Minimierung) konvex oder (Maximierung) konkav ist und der Einschränkungssatz konvex ist. Das kann als ein besonderer Fall der nichtlinearen Programmierung oder als Generalisation der geradlinigen oder konvexen quadratischen Programmierung angesehen werden.
  • Geradlinige Programmierung (LP), ein Typ der konvexen Programmierung, studiert den Fall, in dem die objektive Funktion f geradlinig ist und der Satz von Einschränkungen mit nur geradlinige Gleichheiten und Ungleichheit angegeben wird. Solch ein Satz wird ein Polyeder oder einen polytope genannt, wenn er begrenzt wird.
  • Zweite Ordnungskegel-Programmierung (SOCP) ist ein konvexes Programm, und schließt bestimmte Typen von quadratischen Programmen ein.
  • Halbbestimmte Programmierung (SDP) ist ein Teilfeld der konvexen Optimierung, wo die zu Grunde liegenden Variablen halbbestimmter matrices sind. Es ist Generalisation der geradlinigen und konvexen quadratischen Programmierung.
  • Konische Programmierung ist eine allgemeine Form der konvexen Programmierung. LP, SOCP und SDP können alle als konische Programme mit dem passenden Typ des Kegels angesehen werden.
  • Geometrische Programmierung ist eine Technik, wodurch Ziel und Ungleichheitseinschränkungen ausgedrückt als posynomials und Gleichheitseinschränkungen als Monome in ein konvexes Programm umgestaltet werden können.
  • Programmierung der ganzen Zahl studiert geradlinige Programme, in denen einige oder alle Variablen gezwungen werden, Werte der ganzen Zahl zu übernehmen. Das ist nicht konvex, und im Allgemeinen viel schwieriger als regelmäßige geradlinige Programmierung.
  • Quadratische Programmierung erlaubt der objektiven Funktion, quadratische Begriffe zu haben, während der ausführbare Satz mit geradlinigen Gleichheiten und Ungleichheit angegeben werden muss. Für spezifische Formen des quadratischen Begriffes ist das ein Typ der konvexen Programmierung.
  • Bruchprogrammierung studiert Optimierung von Verhältnissen von zwei nichtlinearen Funktionen. Die spezielle Klasse von konkaven Bruchprogrammen kann in ein konvexes Optimierungsproblem umgestaltet werden.
  • Nichtlineare Programmierung studiert den allgemeinen Fall, in dem die objektive Funktion oder die Einschränkungen oder beide nichtlineare Teile enthalten. Das kann oder kann kein konvexes Programm sein. Im Allgemeinen, ob das Programm konvex ist, betrifft die Schwierigkeit, es zu lösen.
  • Stochastische Programmierung studiert den Fall, in dem einige der Einschränkungen oder Rahmen von zufälligen Variablen abhängen.
  • Robuste Programmierung, ist wie stochastische Programmierung, ein Versuch, Unklarheit in den Daten zu gewinnen, die dem Optimierungsproblem unterliegen. Das wird durch den Gebrauch von zufälligen Variablen nicht getan, aber statt dessen wird das Problem behoben, Ungenauigkeiten in den Eingangsdaten in Betracht ziehend.
  • Kombinatorische Optimierung ist mit Problemen beschäftigt, wo der Satz von möglichen Lösungen getrennt ist oder auf eine getrennte reduziert werden kann.
  • Unendlich-dimensionale Optimierung studiert den Fall, wenn der Satz von möglichen Lösungen eine Teilmenge eines unendlich-dimensionalen Raums wie ein Raum von Funktionen ist.
  • Heuristik und metaheuristics machen wenige oder keine Annahmen über das Problem, das wird optimiert. Gewöhnlich, Heuristik versichern nicht, dass jede optimale Lösung gefunden werden muss. Andererseits, Heuristik werden verwendet, um ungefähre Lösungen für viele komplizierte Optimierungsprobleme zu finden.
  • Einschränkungsbefriedigung studiert den Fall, in dem die objektive Funktion f unveränderlich ist (das wird in der künstlichen Intelligenz, besonders im automatisierten Denken verwendet).
  • Einschränkungsprogrammierung.
  • Abtrennende Programmierung wird verwendet, wo mindestens eine Einschränkung zufrieden sein muss, aber nicht alle. Es ist von besonderem Nutzen in der Terminplanung.

In mehreren Teilfeldern werden die Techniken in erster Linie für die Optimierung in dynamischen Zusammenhängen (d. h. Entscheidung entworfen, die mit der Zeit macht):

  • Die Rechnung von Schwankungen bemüht sich, ein Ziel zu optimieren, das über viele Punkte rechtzeitig durch das Betrachten definiert ist, wie sich die objektive Funktion ändert, wenn es ein Kleingeld im auserlesenen Pfad gibt.
  • Optimale Steuerungstheorie ist eine Generalisation der Rechnung von Schwankungen.
  • Dynamische Programmierung studiert den Fall, in dem die Optimierungsstrategie auf dem Aufspalten des Problems in kleinere Teilprobleme basiert. Die Gleichung, die die Beziehung zwischen diesen Teilproblemen beschreibt, wird die Gleichung des Öffentlichen Ausrufers genannt.
  • Die mathematische Programmierung mit Gleichgewicht-Einschränkungen besteht darin, wo die Einschränkungen abweichende Ungleichheit oder complementarities einschließen.

Mehrobjektive Optimierung

Das Hinzufügen mehr als eines Ziels zu einem Optimierungsproblem fügt Kompliziertheit hinzu. Zum Beispiel, um ein Strukturdesign zu optimieren, würde man ein Design wollen, das sowohl leicht als auch starr ist. Weil diese zwei Ziele kollidieren, besteht ein Umtausch. Es wird ein leichtestes Design, ein steifstes Design und eine unendliche Zahl von Designs geben, die etwas Kompromiss des Gewichts und der Steifkeit sind. Der Satz von Umtausch-Designs, die gemäß einem Kriterium nicht übertroffen werden können, ohne ein anderes Kriterium zu verletzen, ist als der Satz von Pareto bekannt. Die Kurve das geschaffene Plotten des Gewichts gegen die Steifkeit der besten Designs ist als die Grenze von Pareto bekannt.

Wie man

beurteilt, ist ein Design "optimaler Pareto" (gleichwertig, "Pareto effizient" oder im Satz von Pareto), wenn es durch kein anderes Design beherrscht wird: Wenn es schlechter ist als ein anderes Design in etwas Hinsicht und nicht besser in Rücksicht, dann wird es beherrscht und ist nicht optimaler Pareto.

Die Wahl unter "Pareto optimale" Lösungen, die "Lieblingslösung" zu bestimmen, wird an den Entscheidungsträger delegiert. Mit anderen Worten gibt das Definieren des Problems als mehrobjektive Optimierung Zeichen, dass etwas Information vermisst wird: Wünschenswerte Ziele werden gegeben, aber nicht ihre ausführliche Kombination. In einigen Fällen kann die fehlende Information durch interaktive Sitzungen mit dem Entscheidungsträger abgeleitet werden.

Mehrmodale Optimierung

Optimierungsprobleme sind häufig mehrmodal; das ist sie besitzen vielfache gute Lösungen. Sie konnten alle allgemein gut sein (derselbe Kostenfunktionswert), oder es konnte eine Mischung von allgemein guten und lokal guten Lösungen geben. Das Erreichen von allen (oder mindestens etwas) die vielfachen Lösungen ist die Absicht eines mehrmodalen optimizer.

Klassische Optimierungstechniken wegen ihrer wiederholenden Annäherung leisten hinreichend nicht, wenn sie verwendet werden, um vielfache Lösungen zu erhalten, da es nicht versichert wird, dass verschiedene Lösungen sogar mit verschiedenen Startpunkten in vielfachen Läufen des Algorithmus erhalten werden. Entwicklungsalgorithmen sind jedoch eine sehr populäre Annäherung, um vielfache Lösungen in einer mehrmodalen Optimierungsaufgabe zu erhalten. Sieh mehrmodale Entwicklungsoptimierung.

Klassifikation von kritischen Punkten und extrema

Durchführbarkeitsproblem

Das satisfiability Problem, auch genannt das Durchführbarkeitsproblem, ist gerade das Problem, jede mögliche Lösung überhaupt ohne Rücksicht auf den objektiven Wert zu finden. Das kann als der spezielle Fall der mathematischen Optimierung betrachtet werden, wo der objektive Wert dasselbe für jede Lösung ist, und so jede Lösung optimal ist.

Viele Optimierungsalgorithmen müssen von einem ausführbaren Punkt anfangen. Eine Weise, solch einen Punkt zu erhalten, soll die Durchführbarkeitsbedingungen mit einer lockeren Variable entspannen; mit genug lockerem ist jeder Startpunkt ausführbar. Dann minimieren Sie diese lockere Variable, bis locker ungültig oder negativ ist.

Existenz

Der äußerste Wertlehrsatz von Karl Weierstrass stellt fest, dass eine dauernde reellwertige Funktion auf einem Kompaktsatz seinen maximalen und minimalen Wert erreicht. Mehr allgemein erreicht eine niedrigere halbdauernde Funktion auf einem Kompaktsatz sein Minimum; eine obere halbdauernde Funktion auf einem Kompaktsatz erreicht sein Maximum.

Notwendige Bedingungen für optimality

Einer der Lehrsätze von Fermat stellt fest, dass Optima von zwanglosen Problemen an stationären Punkten gefunden werden, wo die erste Ableitung oder der Anstieg der objektiven Funktion Null sind (sieh den ersten abgeleiteten Test). Mehr allgemein können sie an kritischen Punkten gefunden werden, wo die erste Ableitung oder der Anstieg der objektiven Funktion Null sind oder, oder an der Grenze der Auswahl unbestimmt sind. Eine Gleichung (oder Satz von Gleichungen) das Angeben, dass die erste Ableitung (En) gleiche (s) Null an einem Innenoptimum eine 'Bedingung der ersten Ordnung' oder eine Reihe von Bedingungen der ersten Ordnung genannt wird.

Optima von Ungleichheitsgezwungenen Problemen werden stattdessen durch die Vermehrer-Methode von Lagrange gefunden. Diese Methode rechnet ein System der Ungleichheit hat die Karush-Kuhn-Tucker 'Bedingungen oder 'Ergänzungsschlaffheitsbedingungen genannt, die dann verwendet werden können, um das Optimum zu berechnen.

Genügend Bedingungen für optimality

Während der erste abgeleitete Test Punkte identifiziert, die extrema sein könnten, unterscheidet dieser Test keinen Punkt, der ein Minimum von demjenigen ist, das ein Maximum oder dasjenige ist, das keiner ist. Wenn die objektive Funktion zweimal differentiable ist, können diese Fälle durch die Überprüfung der zweiten Ableitung bemerkenswert sein, oder die Matrix der zweiten Ableitungen (hat die Jute-Matrix genannt) in zwanglosen Problemen, oder die Matrix der zweiten Ableitungen der objektiven Funktion und der Einschränkungen hat die begrenzte Jute in gezwungenen Problemen genannt. Die Bedingungen, die Maxima oder Minima unterscheiden, von anderen stationären Punkten werden 'Bedingungen der zweiten Ordnung genannt (sieh 'Den zweiten abgeleiteten Test'). Wenn eine Kandidat-Lösung die Bedingungen der ersten Ordnung befriedigt, dann ist die Befriedigung der Bedingungen der zweiten Ordnung ebenso genügend, um mindestens lokalen optimality zu gründen.

Empfindlichkeit und Kontinuität von Optima

Der Umschlag-Lehrsatz beschreibt, wie sich der Wert einer optimalen Lösung ändert, wenn sich ein zu Grunde liegender Parameter ändert. Der Prozess, diese Änderung zu schätzen, wird vergleichende Statik genannt.

Der maximale Lehrsatz von Claude Berge (1963) beschreibt die Kontinuität einer optimalen Lösung als eine Funktion von zu Grunde liegenden Rahmen.

Rechnung der Optimierung

Für zwanglose Probleme mit zweimal-differentiable Funktionen können einige kritische Punkte durch die Entdeckung der Punkte gefunden werden, wo der Anstieg der objektiven Funktion Null (d. h. die stationären Punkte) ist. Mehr allgemein bescheinigt ein Nullsubanstieg, dass ein lokales Minimum für Minimierungsprobleme mit konvexen Funktionen und anderem lokal Funktionen von Lipschitz gefunden worden ist.

Weiter können kritische Punkte mit der Bestimmtheit der Jute-Matrix klassifiziert werden: Wenn die Jute bestimmt an einem kritischen Punkt positiv ist, dann ist der Punkt ein lokales Minimum; wenn die Jute-Matrix bestimmt negativ ist, dann ist der Punkt ein lokales Maximum; schließlich, wenn unbestimmt, dann ist der Punkt eine Art Sattel-Punkt.

Gezwungene Probleme können häufig in zwanglose Probleme mit der Hilfe von Vermehrern von Lagrange umgestaltet werden. Entspannung von Lagrangian kann auch ungefähre Lösungen schwieriger gezwungener Probleme zur Verfügung stellen.

Wenn die objektive Funktion dann konvex ist, wird jedes lokale Minimum auch ein globales Minimum sein. Dort bestehen Sie effiziente numerische Techniken, um konvexe Funktionen wie Innenpunkt-Methoden zu minimieren.

Rechenbetonte Optimierungstechniken

Um Probleme zu beheben, können Forscher Algorithmen verwenden, die in einer begrenzten Zahl von Schritten oder wiederholenden Methoden enden, die zu einer Lösung (auf einer angegebenen Klasse von Problemen), oder Heuristik zusammenlaufen, die ungefähre Lösungen einiger Probleme zur Verfügung stellen kann (obwohl ihr wiederholt, braucht nicht zusammenzulaufen).

Optimierungsalgorithmen

Wiederholende Methoden

Die wiederholenden Methoden, die verwendet sind, um Probleme der nichtlinearen Programmierung zu beheben, unterscheiden sich gemäß, ob sie Jute, Anstiege bewerten, oder nur Werte fungieren. Während er Jute (H) und Anstiege bewertet, verbessert (G) die Rate der Konvergenz, solche Einschätzungen vergrößern die rechenbetonte Kompliziertheit (oder rechenbetonten Kosten) jeder Wiederholung. In einigen Fällen kann die rechenbetonte Kompliziertheit übermäßig hoch sein.

Ein Hauptkriterium für optimizers ist gerade die Zahl von erforderlichen Funktionseinschätzungen, wie das häufig bereits eine große rechenbetonte Anstrengung, gewöhnlich viel mehr Anstrengung ist als innerhalb des optimizer selbst, der hauptsächlich über die N Variablen funktionieren muss.

Die Ableitungen geben ausführlich berichtete Auskunft für solchen optimizers, aber sind noch härter zu rechnen, z.B dem Anstieg näher zu kommen, nimmt mindestens N+1 Funktionseinschätzungen. Für Annäherungen der 2. Ableitungen (gesammelt in der Jute-Matrix) ist die Zahl von Funktionseinschätzungen in der Ordnung von N ². Die Methode von Newton verlangt die 2. Ordnung derivates, so für jede Wiederholung ist die Zahl von Funktionsanrufen in der Ordnung von N ², aber für einen einfacheren reinen Anstieg optimizer es ist nur N. Jedoch braucht Anstieg optimizers gewöhnlich mehr Wiederholungen als der Algorithmus von Newton. Welcher beste wrt. Zahl von Funktionsanrufen ist, hängt vom Problem selbst ab.

  • Methoden, die Jute bewerten (oder kommen Jute, mit begrenzten Unterschieden näher):
  • Die Methode des Newtons
  • Folgende quadratische Programmierung: Eine Newton-basierte Methode für die klein-mittlere Skala hat Probleme beschränkt. Einige Versionen können groß-dimensionale Probleme behandeln.
  • Methoden, die Anstiege oder ungefähre Anstiege mit begrenzten Unterschieden (oder sogar Subanstiege) bewerten:
  • Quasinewton-Methoden: Wiederholende Methoden für mittler-große Probleme (z.B. N

</bezüglich> durchgeführt in LIONsolver

Anwendungen

Mechanik und Technik

Probleme in der starren Körperdynamik (in der besonderen artikulierten starren Körperdynamik) verlangen häufig mathematische Programmiertechniken, da Sie starre Körperdynamik als versuchend ansehen können, eine gewöhnliche Differenzialgleichung auf einer Einschränkungssammelleitung zu lösen; die Einschränkungen sind verschiedene nichtlineare geometrische Einschränkungen wie "diese zwei Punkte muss immer zusammenfallen" "muss diese Oberfläche nicht eindringen, muss irgendwelcher ander", oder "dieser Punkt immer irgendwo auf dieser Kurve lügen". Außerdem kann das Problem der Computerwissenschaft von Kontakt-Kräften durch das Beheben eines geradlinigen complementarity Problems getan werden, das auch als ein QP (quadratische Programmierung) Problem angesehen werden kann.

Viele Designprobleme können auch als Optimierungsprogramme ausgedrückt werden. Diese Anwendung wird Designoptimierung genannt. Eine Teilmenge ist die Technikoptimierung, und eine andere neue und wachsende Teilmenge dieses Feldes ist mehrdisziplinarische Designoptimierung, die, während nützlich, in vielen Problemen, insbesondere auf Raumfahrttechnikprobleme angewandt worden ist.

Volkswirtschaft

Volkswirtschaft wird nah genug mit der Optimierung von Agenten verbunden, dass eine einflussreiche Definition zusammenhängend Volkswirtschaft was Wissenschaft als die "Studie des menschlichen Verhaltens als eine Beziehung zwischen Enden und knappen Mitteln" mit dem alternativen Gebrauch beschreibt. Moderne Optimierungstheorie schließt traditionelle Optimierungstheorie ein sondern auch überlappt mit der Spieltheorie und der Studie des Wirtschaftsgleichgewichts. Die Zeitschrift von Wirtschaftsliteraturcodes klassifiziert mathematische Programmierung, Optimierungstechniken und verwandte Themen darunter.

In der Mikrovolkswirtschaft sind das Dienstprogramm-Maximierungsproblem und sein Doppelproblem, das Verbrauch-Minimierungsproblem, Wirtschaftsoptimierungsprobleme. Insofern als sie sich durchweg benehmen, wie man annimmt, maximieren Verbraucher ihr Dienstprogramm, während, wie man gewöhnlich annimmt, Unternehmen ihren Gewinn maximieren. Außerdem werden Agenten häufig als risikoabgeneigt seiend modelliert, dadurch es vorziehend, Gefahr zu vermeiden. Anlagenpreise werden auch mit der Optimierungstheorie modelliert, obwohl sich die zu Grunde liegende Mathematik auf die Optimierung von stochastischen Prozessen aber nicht auf die statische Optimierung verlässt. Handelstheorie verwendet auch Optimierung, um Handelsmuster zwischen Nationen zu erklären. Die Optimierung von Marktmappen ist ein Beispiel der mehrobjektiven Optimierung in der Volkswirtschaft.

Seit den 1970er Jahren haben Wirtschaftswissenschaftler dynamische Entscheidungen mit der Zeit mit der Steuerungstheorie modelliert. Zum Beispiel verwenden Mikrowirtschaftswissenschaftler dynamische Suchmodelle, um Arbeitsmarkt-Verhalten zu studieren. Eine entscheidende Unterscheidung ist zwischen deterministischen und stochastischen Modellen. Makrowirtschaftswissenschaftler bauen Modelle des dynamischen stochastischen allgemeinen Gleichgewichts (DSGE), die die Dynamik der ganzen Wirtschaft als das Ergebnis der voneinander abhängigen Optimierungsentscheidungen von Arbeitern, Verbrauchern, Kapitalanlegern und Regierungen beschreiben.

Operationsforschung

Ein anderes Feld, das Optimierungstechniken umfassend verwendet, ist Operationsforschung. Operationsforschung verwendet auch das stochastische Modellieren und die Simulation, um verbesserte Beschlussfassung zu unterstützen. Zunehmend verwendet Operationsforschung stochastische Programmierung, um dynamische Entscheidungen zu modellieren, die sich an Ereignisse anpassen; solche Probleme können mit der groß angelegten Optimierung und den stochastischen Optimierungsmethoden behoben werden.

Kontrolltechnik

Mathematische Optimierung wird in viel modernem Kontrolleur-Design verwendet. Kontrolleure auf höchster Ebene wie Prophetische Musterkontrolle (MPC) oder Real-Time Optimization (RTO) verwenden mathematische Optimierung. Diese Algorithmen laufen online und bestimmen wiederholt Werte für Entscheidungsvariablen, wie Choke-Öffnungen in einem Prozess-Werk, durch das wiederholende Lösen eines mathematischen Optimierungsproblems einschließlich Einschränkungen und eines Modells des zu kontrollierenden Systems.

Solvers

Siehe auch

  • Kurve, die passt
  • Brachistochrone
  • Absicht, zu programmieren
  • Wichtige Veröffentlichungen in der Optimierung
  • Kleinste Quadrate
  • Mathematische Optimierungsgesellschaft (früher mathematische Programmiergesellschaft)
  • Prozessoptimierung
  • Abweichende Rechnung

Referenzen

Weiterführende Literatur

Umfassend

Studentenniveau

Absolventenniveau

  • J. E. Dennis der Jüngere. und Robert B. Schnabel, Eine Ansicht von der zwanglosen Optimierung (Seiten 1-72);
  • Donald Goldfarb und Michael J. Todd, Geradlinige Programmierung (Seiten 73-170);
  • Philip E. Gill, Walter Murray, Michael A. Saunders und Margaret H. Wright, Gezwungene nichtlineare Programmierung (Seiten 171-210);
  • Ravindra K. Ahuja, Thomas L. Magnanti und James B. Orlin, Netzflüsse (Seiten 211-369);
  • W. R. Pulleyblank, Polyedrischer combinatorics (Seiten 371-446);
  • George L. Nemhauser und Laurence A. Wolsey, Programmierung der Ganzen Zahl (Seiten 447-527);
  • Claude Lemaréchal, Optimierung von Nondifferentiable (Seiten 529-572);
  • Roger J-B Wets, Stochastische Programmierung (Seiten 573-629);
  • A. H. G. Rinnooy Kan und G. T. Timmer, Globale Optimierung (Seiten 631-662);
  • P. L. Yu, das Vielfache Kriterium-Entscheidungsbilden: fünf grundlegende Konzepte (Seiten 663-699).

Dauernde Optimierung

Kombinatorische Optimierung

  • R. K. Ahuja, Thomas L. Magnanti und James B. Orlin (1993). Netzflüsse: Theorie, Algorithmen und Anwendungen. Internationale Standardbuchnummer von Prentice-Hall, Inc 0 13 617549 X.
  • William J. Cook, William H. Cunningham, William R. Pulleyblank, Alexander Schrijver; kombinatorische Optimierung; John Wiley & Sons; 1 Ausgabe (am 12. November 1997); internationale Standardbuchnummer 0 471 55894 X.
.
  • Jon Lee; eine Vorspeise in der Kombinatorischen Optimierung; Universität von Cambridge Presse; 2004; internationale Standardbuchnummer 0-521-01012-8.
  • Christos H. Papadimitriou und Kenneth Steiglitz Combinatorial Optimization: Algorithmen und Kompliziertheit; Dover Pubns; (Paperback, Ungekürzte Ausgabe, Juli 1998) internationale Standardbuchnummer 0-486-40258-4.

Zeitschriften

Außenverbindungen

Solvers:

Bibliotheken:

  • Die NÖRGLER-Bibliothek ist eine Sammlung von numerischen Routinen, die von Numerical Algorithms Group für vielfache Programmiersprachen entwickelt sind (einschließlich C, C ++, Fortran, Visuell Grundlegend, Java und C#) und Pakete (zum Beispiel, MATLAB, Ragen Sie R, und LabVIEW Hervor), der mehrere Routinen sowohl für die lokale als auch für globale Optimierung enthält.
  • ALGLIB Optimierungsroutinen der Offenen Quelle (zwanglose und bestimmt beschränkte Optimierung). C ++, C#, Delphi, Visuell Grundlegend.
  • IOptLib (Recherchierende Optimierungsbibliothek) - eine freie, Bibliothek der offenen Quelle für Optimierungsalgorithmen (ANSI C).
  • HAFER (Optimierungsalgorithmus-Werkzeug) - eine Reihe von Standardoptimierungsalgorithmen und Probleme in Java.
  • Java Parallel Optimization Package (JPOP) Eine offene Quelle javanisches Paket, das die parallele Einschätzung von Funktionen, Anstiegen und Jute erlaubt.
  • OOL (Offene Optimierungsbibliothek) - Optimierungsroutinen in C.
  • FuncLib Offene Quelle nichtlineare Optimierungsbibliothek in C# mit der Unterstützung für nichtlineare Einschränkungen und automatische Unterscheidung.
  • JOptimizer Offene Quelle javanische Bibliothek für die konvexe Optimierung.

Universitätsuniversität London / James Ussher
Impressum & Datenschutz