Mathematische Logik

Mathematische Logik (auch bekannt als symbolische Logik) sind ein Teilfeld der Mathematik mit nahen Verbindungen zu den Fundamenten der Mathematik, theoretischen Informatik und philosophischen Logik. Das Feld schließt sowohl die mathematische Studie der Logik als auch die Anwendungen der formalen Logik zu anderen Gebieten der Mathematik ein. Die Vereinheitlichen-Themen in der mathematischen Logik schließen die Studie der ausdrucksvollen Macht von formellen Systemen und der deduktiven Macht von formellen Probesystemen ein.

Mathematische Logik wird häufig in die Felder der Mengenlehre, Mustertheorie, recursion Theorie und Probetheorie geteilt. Diese Gebiete teilen grundlegende Ergebnisse auf der Logik, besonders Logik der ersten Ordnung und definability. In der Informatik (besonders in der ACM Klassifikation) umfasst mathematische Logik zusätzliche in diesem Artikel nicht ausführlich berichtete Themen; sieh Logik in der Informatik für diejenigen.

Seit seinem Beginn hat mathematische Logik sowohl beigetragen, und ist durch, die Studie von Fundamenten der Mathematik motiviert worden. Diese Studie hat gegen Ende des 19. Jahrhunderts mit der Entwicklung des axiomatischen Fachwerks für die Geometrie, Arithmetik und Analyse begonnen. Am Anfang des 20. Jahrhunderts wurde es durch das Programm von David Hilbert gestaltet, um die Konsistenz von foundational Theorien zu beweisen. Ergebnisse von Kurt Gödel, Gerhard Gentzen, und haben andere teilweise Entschlossenheit gegenüber dem Programm zur Verfügung gestellt, und haben die am Beweis der Konsistenz beteiligten Probleme geklärt. Die Arbeit in der Mengenlehre hat gezeigt, dass fast die ganze gewöhnliche Mathematik in Bezug auf Sätze formalisiert werden kann, obwohl es einige Lehrsätze gibt, die in allgemeinen Axiom-Systemen für die Mengenlehre nicht bewiesen werden können. Die zeitgenössische Arbeit in den Fundamenten der Mathematik konzentriert sich häufig darauf zu gründen, welche Teile der Mathematik in besonderen formellen Systemen formalisiert werden können, anstatt zu versuchen, Theorien zu finden, in denen die ganze Mathematik entwickelt werden kann.

Geschichte

Mathematische Logik ist Mitte des 19. Jahrhunderts als ein Teilfeld der der traditionellen Studie der Logik unabhängigen Mathematik erschienen (Ferreirós 2001, p. 443). Vor diesem Erscheinen wurde Logik mit der Redekunst, durch den Syllogismus, und mit der Philosophie studiert. Die erste Hälfte des 20. Jahrhunderts hat eine Explosion von grundsätzlichen Ergebnissen gesehen, die durch die kräftige Debatte über die Fundamente der Mathematik begleitet sind.

Frühe Geschichte

Theorien der Logik wurden in vielen Kulturen in der Geschichte, einschließlich Chinas, Indiens, Griechenlands und der islamischen Welt entwickelt. Im 18. Jahrhundert Europa, Versuche, die Operationen der formalen Logik auf eine symbolische oder algebraische Weise zu behandeln, waren von philosophischen Mathematikern einschließlich Leibniz und Lamberts gemacht worden, aber ihre Arbeiten sind isoliert und wenig bekannt geblieben.

Das 19. Jahrhundert

In der Mitte des neunzehnten Jahrhunderts, George Booles und dann hat Augustus De Morgan systematische mathematische Behandlungen der Logik präsentiert. Ihre Arbeit, auf Arbeit von algebraists wie George Peacock bauend, hat die traditionelle Aristotelische Doktrin der Logik in ein genügend Fachwerk für die Studie von Fundamenten der Mathematik erweitert (Katz 1998, p. 686).

Charles Sanders Peirce hat nach der Arbeit von Boole gebaut, um ein logisches System für Beziehungen und quantifiers zu entwickeln, den er in mehreren Zeitungen von 1870 bis 1885 veröffentlicht hat.

Gottlob Frege hat einer unabhängigen Entwicklung der Logik mit quantifiers in seinem Begriffsschrift, veröffentlicht 1879, eine Arbeit allgemein betrachtet als Markierung eines Wendepunkts in der Geschichte der Logik geboten. Die Arbeit von Frege ist dunkel jedoch geblieben, bis Bertrand Russell begonnen hat, sie in der Nähe von der Jahrhundertwende zu fördern. Die zweidimensionale Notation, die Frege entwickelt hat, wurde nie weit angenommen und ist in zeitgenössischen Texten unbenutzt.

Von 1890 bis 1905 stirbt Ernst Schröder veröffentlicht Vorlesungen über Algebra der Logik in drei Volumina. Diese Arbeit hat zusammengefasst und hat die Arbeit von Boole, De Morgan und Peirce erweitert, und war eine umfassende Verweisung auf die symbolische Logik, wie es am Ende des 19. Jahrhunderts verstanden wurde.

Theorien von Foundational

Einige Sorgen, dass auf Mathematik auf keinem richtigen Fundament gebaut worden war, haben zur Entwicklung von axiomatischen Systemen für grundsätzliche Gebiete der Mathematik wie Arithmetik, Analyse und Geometrie geführt.

In der Logik bezieht sich der Begriff Arithmetik auf die Theorie der natürlichen Zahlen. Giuseppe Peano (1888) hat eine Reihe von Axiomen für die Arithmetik veröffentlicht, die gekommen ist, um seinen Namen (Axiome von Peano), mit einer Schwankung des logischen Systems von Boole und Schröder zu tragen, aber quantifiers beitragend. Peano hat die Arbeit von Frege zurzeit nicht gewusst. Um dieselbe Zeit hat Richard Dedekind gezeigt, dass die natürlichen Zahlen durch ihre Induktionseigenschaften einzigartig charakterisiert werden. Dedekind (1888) hat eine verschiedene Charakterisierung vorgeschlagen, die am formellen logischen Charakter der Axiome von Peano Mangel gehabt hat. Die Arbeit von Dedekind hat jedoch Lehrsätze bewiesen, die im System von Peano, einschließlich der Einzigartigkeit des Satzes von natürlichen Zahlen (bis zum Isomorphismus) und die rekursiven Definitionen der Hinzufügung und Multiplikation von der Nachfolger-Funktion und mathematischen Induktion unzugänglich sind.

Mitte des 19. Jahrhunderts sind Fehler in den Axiomen von Euklid für die Geometrie bekannt geworden (Katz 1998, p. 774). Zusätzlich zur Unabhängigkeit des parallelen Postulates, das von Nikolai Lobachevsky 1826 (Lobachevsky 1840) gegründet ist, haben Mathematiker entdeckt, dass bestimmte von Euklid als selbstverständlich betrachtete Lehrsätze von seinen Axiomen nicht tatsächlich nachweisbar waren. Unter diesen ist der Lehrsatz, dass eine Linie mindestens zwei Punkte enthält, oder das desselben Radius kreist, dessen Zentren durch diesen Radius getrennt werden, muss sich schneiden. Hilbert (1899) hat einen ganzen Satz von Axiomen für die Geometrie entwickelt, auf vorherige Arbeit von Pasch (1882) bauend. Der Erfolg in der axiomatizing Geometrie hat Hilbert angeregt, ganzen axiomatizations anderer Gebiete der Mathematik, wie die natürlichen Zahlen und die echte Linie zu suchen. Das würde sich erweisen, ein Hauptgebiet der Forschung in der ersten Hälfte des 20. Jahrhunderts zu sein.

Das 19. Jahrhundert hat große Fortschritte in der Theorie der echten Analyse, einschließlich Theorien der Konvergenz von Funktionen und Reihe von Fourier gesehen. Mathematiker wie Karl Weierstrass haben begonnen, Funktionen zu bauen, die Intuition, solcher als nirgends-differentiable dauernde Funktionen gestreckt haben. Vorherige Vorstellungen einer Funktion in der Regel für die Berechnung oder einen glatten Graphen, waren nicht mehr entsprechend. Weierstrass hat begonnen, den arithmetization der Analyse zu verteidigen, die zur axiomatize Analyse mit Eigenschaften der natürlichen Zahlen gesucht hat. Das moderne (ε, δ)-Definition der Grenze und dauernden Funktionen wurde bereits von Bolzano 1817 (Felscher 2000) entwickelt, aber ist relativ unbekannt geblieben.

Cauchy 1821 hat Kontinuität in Bezug auf infinitesimals definiert (sieh Cours d'Analyse, Seite 34). 1858 hat Dedekind eine Definition der reellen Zahlen in Bezug auf Kürzungen von Dedekind von rationalen Zahlen (Dedekind 1872), eine in zeitgenössischen Texten noch verwendete Definition vorgeschlagen.

Georg Cantor hat die grundsätzlichen Konzepte der unendlichen Mengenlehre entwickelt. Seine frühen Ergebnisse haben die Theorie von cardinality entwickelt und haben bewiesen, dass der reals und die natürlichen Zahlen verschiedenen cardinalities (Cantor 1874) haben. Im Laufe der nächsten zwanzig Jahre hat Cantor eine Theorie von transfiniten Zahlen in einer Reihe von Veröffentlichungen entwickelt. 1891 hat er einen neuen Beweis des uncountability der reellen Zahlen veröffentlicht, die das diagonale Argument eingeführt haben, und diese Methode verwendet haben, den Lehrsatz von Cantor zu beweisen, dass kein Satz denselben cardinality wie sein powerset haben kann. Cantor hat geglaubt, dass jeder Satz gut bestellt werden konnte, aber unfähig war, einen Beweis für dieses Ergebnis zu erzeugen, es als ein offenes Problem 1895 verlassend (Katz 1998, p. 807).

Das 20. Jahrhundert

In den frühen Jahrzehnten des 20. Jahrhunderts waren die Hauptgebiete der Studie Mengenlehre und formale Logik. Die Entdeckung von Paradoxen in der informellen Mengenlehre hat einige veranlasst sich zu fragen, ob Mathematik selbst inkonsequent ist, und nach Beweisen der Konsistenz zu suchen.

1900 hat Hilbert eine berühmte Liste von 23 Problemen für das nächste Jahrhundert aufgestellt. Die ersten zwei von diesen waren, die Kontinuum-Hypothese aufzulösen und die Konsistenz der elementaren Arithmetik beziehungsweise zu beweisen; das zehnte sollte eine Methode erzeugen, die entscheiden konnte, ob eine multivariate polynomische Gleichung über die ganzen Zahlen eine Lösung hat. Nachfolgende Arbeit, um diese Probleme aufzulösen, hat die Richtung der mathematischen Logik gestaltet, wie die Anstrengung getan hat, den Entscheidungsproblem von Hilbert, aufgestellt 1928 aufzulösen. Dieses Problem hat um ein Verfahren gebeten, das in Anbetracht einer formalisierten mathematischen Behauptung entscheiden würde, ob die Behauptung wahr oder falsch ist.

Mengenlehre und Paradoxe

Ernst Zermelo (1904) hat einen Beweis gegeben, dass jeder Satz, ein Ergebnis gut bestellt werden konnte, das Georg Cantor unfähig gewesen war zu erhalten. Um den Beweis zu erreichen, hat Zermelo das Axiom der Wahl eingeführt, die erhitzte Debatte und Forschung unter Mathematikern und den Pionieren der Mengenlehre gezogen hat. Die unmittelbare Kritik der Methode hat Zermelo dazu gebracht, eine zweite Ausstellung seines Ergebnisses zu veröffentlichen, direkt Kritiken seines Beweises (Zermelo 1908a) richtend. Dieses Papier hat zur allgemeinen Annahme des Axioms der Wahl in der Mathematik-Gemeinschaft geführt.

Die Skepsis über das Axiom der Wahl wurde durch kürzlich entdeckte Paradoxe in der naiven Mengenlehre verstärkt. Cesare Burali-Forti (1897) war erst, um ein Paradox festzusetzen: Das Paradox von Burali-Forti zeigt, dass die Sammlung aller Ordinalzahlen keinen Satz bilden kann. Sehr bald danach hat Bertrand Russell das Paradox von Russell 1901 und Jules Richard (1905) das Paradox von entdecktem Richard entdeckt.

Zermelo (1908b) hat den ersten Satz von Axiomen für die Mengenlehre zur Verfügung gestellt. Diese Axiome, zusammen mit dem zusätzlichen Axiom des von Abraham Fraenkel vorgeschlagenen Ersatzes, werden jetzt Zermelo-Fraenkel Mengenlehre (ZF) genannt. Die Axiome von Zermelo haben den Grundsatz der Beschränkung der Größe vereinigt, um das Paradox von Russell zu vermeiden.

1910 wurde das erste Volumen von Principia Mathematica durch Russell und Alfred North Whitehead veröffentlicht. Diese Samenarbeit hat die Theorie von Funktionen und cardinality in einem völlig formellen Fachwerk der Typ-Theorie entwickelt, die Russell und Whitehead entwickelt haben, um die Paradoxe zu vermeiden. Principia Mathematica wird als eine der einflussreichsten Arbeiten des 20. Jahrhunderts betrachtet, obwohl sich das Fachwerk der Typ-Theorie populär als eine foundational Theorie für die Mathematik nicht erwiesen hat (Ferreirós 2001, p. 445).

Fraenkel (1922) hat bewiesen, dass das Axiom der Wahl von den restlichen Axiomen der Mengenlehre von Zermelo mit urelements nicht bewiesen werden kann. Die spätere Arbeit von Paul Cohen (1966) hat gezeigt, dass die Hinzufügung von urelements nicht erforderlich ist, und das Axiom der Wahl in ZF unbeweisbar ist. Der Beweis von Cohen hat die Methode entwickelt zu zwingen, der jetzt ein wichtiges Werkzeug ist, um Unabhängigkeit zu gründen, läuft auf Mengenlehre hinaus.

Symbolische Logik

Leopold Löwenheim (1915) und Thoralf Skolem (1920) hat den Löwenheim-Skolem Lehrsatz erhalten, der sagt, dass Logik der ersten Ordnung den cardinalities von unendlichen Strukturen nicht kontrollieren kann. Skolem hat begriffen, dass dieser Lehrsatz für Formalisierungen der ersten Ordnung der Mengenlehre gelten würde, und dass es andeutet, dass jede solche Formalisierung ein zählbares Modell hat. Diese gegenintuitive Tatsache ist bekannt als das Paradox von Skolem geworden.

In seiner Doktorthese hat Kurt Gödel (1929) den Vollständigkeitslehrsatz bewiesen, der eine Ähnlichkeit zwischen Syntax und Semantik in der Logik der ersten Ordnung gründet. Gödel hat den Vollständigkeitslehrsatz verwendet, um den Kompaktheitslehrsatz zu beweisen, die finitary Natur der ersten Ordnung logische Folge demonstrierend. Diese Ergebnisse haben geholfen, Logik der ersten Ordnung als die dominierende von Mathematikern verwendete Logik zu gründen.

1931 hat Gödel Auf Formell Unentscheidbaren Vorschlägen von Principia Mathematica und Related Systems veröffentlicht, der die Unvollständigkeit (in einer verschiedenen Bedeutung des Wortes) von allen genug starken, wirksamen Theorien der ersten Ordnung bewiesen hat. Dieses Ergebnis, das als der Unvollständigkeitslehrsatz von Gödel bekannt ist, gründet strenge Beschränkungen auf axiomatische Fundamente für die Mathematik, einen starken Schlag zum Programm von Hilbert schlagend. Es hat die Unmöglichkeit gezeigt, einen Konsistenz-Beweis der Arithmetik innerhalb jeder formellen Theorie der Arithmetik zur Verfügung zu stellen. Hilbert hat jedoch die Wichtigkeit vom Unvollständigkeitslehrsatz für einige Zeit nicht anerkannt.

Der Lehrsatz von Gödel zeigt, dass ein Konsistenz-Beweis jedes genug starken, wirksamen Axiom-Systems im System selbst nicht erhalten werden kann, wenn das System, noch in einem schwächerem System entspricht. Das verlässt offen die Möglichkeit von Konsistenz-Beweisen, die innerhalb des Systems nicht formalisiert werden können, das sie denken. Gentzen (1936) hat die Konsistenz der Arithmetik mit einem finitistic System zusammen mit einem Grundsatz der transfiniten Induktion bewiesen. Das Ergebnis von Gentzen hat die Ideen von der Kürzungsbeseitigung und den probetheoretischen Ordnungszahlen eingeführt, die Schlüsselwerkzeuge in der Probetheorie geworden sind. Gödel (1958) hat einen verschiedenen Konsistenz-Beweis gegeben, der die Konsistenz der klassischen Arithmetik zu dieser der intutitionistic Arithmetik in höheren Typen reduziert.

Anfänge der anderen Zweige

Alfred Tarski hat die Grundlagen der Mustertheorie entwickelt.

1935 beginnend, hat eine Gruppe von prominenten Mathematikern unter dem Pseudonym Nicolas Bourbaki zusammengearbeitet, um eine Reihe von enzyklopädischen Mathematik-Texten zu veröffentlichen. Diese Texte, die in einem strengen und axiomatischen Stil geschrieben sind, haben strenge Präsentation und mit dem Satz theoretische Fundamente betont. Fachsprache, die durch diese Texte, wie die Wortbijektion, Einspritzung, und Surjektion, und die mit dem Satz theoretischen Fundamente die verwendeten Texte ins Leben gerufen ist, wurde überall in der Mathematik weit angenommen.

Die Studie der Berechenbarkeit ist gekommen, um als recursion Theorie bekannt zu sein, weil sich frühe Formalisierungen durch Gödel und Kleene auf rekursive Definitionen von Funktionen verlassen haben. Als diese Definitionen gleichwertig zum Formalisierungsbeteiligen von Turing Maschinen von Turing gezeigt wurden, ist es klar geworden, dass ein neues Konzept - die berechenbare Funktion - entdeckt worden war, und dass diese Definition robust genug war, um zahlreiche unabhängige Charakterisierungen zuzulassen. In seiner Arbeit an den Unvollständigkeitslehrsätzen 1931 hat Gödel an einem strengen Konzept eines wirksamen formellen Systems Mangel gehabt; er hat sofort begriffen, dass die neuen Definitionen der Berechenbarkeit für diesen Zweck verwendet werden konnten, ihm erlaubend, die Unvollständigkeitslehrsätze in der Allgemeinheit festzusetzen, die nur in der ursprünglichen Zeitung einbezogen werden konnte.

Zahlreiche Ergebnisse in der recursion Theorie wurden in den 1940er Jahren von Stephen Cole Kleene und Emil Leon Post erhalten. Kleene (1943) hat die Konzepte der Verhältnisberechenbarkeit eingeführt, die von Turing (1939), und die arithmetische Hierarchie ahnen lassen ist. Kleene hat später recursion Theorie zu höherwertigem functionals verallgemeinert. Kleene und Kreisel haben formelle Versionen der intuitionistic Mathematik besonders im Zusammenhang der Probetheorie studiert.

Teilfelder und Spielraum

Das Handbuch der Mathematischen Logik macht eine raue Abteilung der zeitgenössischen mathematischen Logik in vier Gebiete:

  1. Mengenlehre
  2. Mustertheorie
  3. Recursion-Theorie und
  4. Probetheorie und konstruktive Mathematik (betrachtet als Teile eines einzelnen Gebiets).

Jedes Gebiet hat einen verschiedenen Fokus, obwohl viele Techniken und Ergebnisse zwischen vielfachen Gebieten geteilt werden. Die Grenzlinien zwischen diesen Feldern und die Linien zwischen mathematischer Logik und anderen Feldern der Mathematik, sind nicht immer scharf. Der Unvollständigkeitslehrsatz von Gödel kennzeichnet nicht nur einen Meilenstein in der recursion Theorie und Probetheorie, aber hat auch zum Lehrsatz von Löb in der modalen Logik geführt. Die Methode zu zwingen wird in der Mengenlehre, Mustertheorie und recursion Theorie, sowie in der Studie der intuitionistic Mathematik verwendet.

Das mathematische Feld der Kategorie-Theorie verwendet viele formelle axiomatische Methoden, und schließt die Studie der kategorischen Logik ein, aber Kategorie-Theorie wird als kein Teilfeld der mathematischen Logik normalerweise betrachtet. Wegen seiner Anwendbarkeit in verschiedenen Feldern der Mathematik haben Mathematiker einschließlich Saunders Mac Lanes Kategorie-Theorie als ein foundational System für die Mathematik vorgeschlagen, die der Mengenlehre unabhängig ist. Diese Fundamente verwenden toposes, die verallgemeinerten Modellen der Mengenlehre ähneln, die klassische oder nichtklassische Logik verwenden kann.

Formelle logische Systeme

An seiner mathematischen Kernlogik befasst sich mit mathematischen Konzepten das ausgedrückte Verwenden formeller logischer Systeme. Diese Systeme, obwohl sie sich in vielen Details unterscheiden, teilen das allgemeine Eigentum, nur Ausdrücke auf einer festen formellen Sprache oder Unterschrift zu denken. Die Systeme der Satzlogik und Logik der ersten Ordnung sind am weitesten studiert heute wegen ihrer Anwendbarkeit auf Fundamente der Mathematik und wegen ihrer wünschenswerten probetheoretischen Eigenschaften. Stärkere klassische Logik wie Logik der zweiten Ordnung oder infinitary Logik wird auch zusammen mit der nichtklassischen Logik wie Intuitionistic-Logik studiert.

Logik der ersten Ordnung

Logik der ersten Ordnung ist ein besonderes formelles System der Logik. Seine Syntax schließt nur begrenzte Ausdrücke ebenso gebildete Formeln ein, während seine Semantik durch die Beschränkung des ganzen quantifiers zu einem festen Gebiet des Gesprächs charakterisiert wird.

Frühe Ergebnisse über die formale Logik haben Beschränkungen der Logik der ersten Ordnung gegründet. Der Löwenheim-Skolem Lehrsatz (1919) hat gezeigt, dass, wenn eine Reihe von Sätzen auf einer zählbaren Sprache der ersten Ordnung ein unendliches Modell dann hat, es mindestens ein Modell jedes unendlichen cardinality hat. Das zeigt, dass es für eine Reihe von Axiomen der ersten Ordnung unmöglich ist, die natürlichen Zahlen, die reellen Zahlen oder jede andere unendliche Struktur bis zum Isomorphismus zu charakterisieren. Da die Absicht von frühen Foundational-Studien war, axiomatische Theorien für alle Teile der Mathematik zu erzeugen, war diese Beschränkung besonders steif.

Der Vollständigkeitslehrsatz von Gödel (Gödel 1929) hat die Gleichwertigkeit zwischen semantischen und syntaktischen Definitionen der logischen Folge in der Logik der ersten Ordnung gegründet. Es zeigt, dass, wenn ein besonderer Satz in jedem Modell wahr ist, das einen besonderen Satz von Axiomen dann befriedigt, es einen begrenzten Abzug des Satzes von den Axiomen geben muss. Der Kompaktheitslehrsatz ist zuerst als ein Lemma im Beweis von Gödel des Vollständigkeitslehrsatzes erschienen, und es hat viele Jahre genommen, bevor Logiker seine Bedeutung ergriffen haben und begonnen haben, es alltäglich anzuwenden. Es sagt, dass eine Reihe von Sätzen ein Modell hat, wenn, und nur wenn jede begrenzte Teilmenge ein Modell, oder mit anderen Worten hat, dass ein inkonsequenter Satz von Formeln eine begrenzte inkonsequente Teilmenge haben muss. Die Vollständigkeits- und Kompaktheitslehrsätze berücksichtigen hoch entwickelte Analyse der logischen Folge in der Logik der ersten Ordnung und der Entwicklung der Mustertheorie, und sie sind ein Schlüsselgrund für die Bekanntheit der Logik der ersten Ordnung in der Mathematik.

Die Unvollständigkeitslehrsätze von Gödel (Gödel 1931) gründen zusätzliche Grenzen auf der ersten Ordnung axiomatizations. Der erste Unvollständigkeitslehrsatz stellt fest, dass für jedes genug starke, effektiv gegebene logische System dort eine Behauptung besteht, die wahr, aber innerhalb dieses Systems nicht nachweisbar ist. Hier wird ein logisches System effektiv gegeben, wenn es möglich ist, in Anbetracht einer Formel auf der Sprache des Systems zu entscheiden, ob die Formel ein Axiom ist. Ein logisches System ist genug stark, wenn es die Axiome von Peano ausdrücken kann. Wenn angewandt, auf die Logik der ersten Ordnung deutet der erste Unvollständigkeitslehrsatz an, dass jede genug starke, konsequente, wirksame Theorie der ersten Ordnung Modelle hat, die, eine stärkere Beschränkung nicht elementar gleichwertig sind als durch den Löwenheim-Skolem Lehrsatz gegründete diejenige. Der zweite Unvollständigkeitslehrsatz stellt fest, dass kein genug starkes, konsequentes, wirksames Axiom-System für die Arithmetik seine eigene Konsistenz beweisen kann, die interpretiert worden ist, um zu zeigen, dass das Programm von Hilbert nicht vollendet werden kann.

Andere klassische Logik

Viele Logik außer der Logik der ersten Ordnung wird studiert. Diese schließen infinitary Logik ein, die Formeln berücksichtigt, um einen unendlichen Betrag der Information und höherwertige Logik zur Verfügung zu stellen, die einen Teil der Mengenlehre direkt in ihrer Semantik einschließt.

Die am meisten gut studierte infinitary Logik ist. In dieser Logik kann quantifiers nur zu begrenzten Tiefen, als in der Logik der ersten Ordnung verschachtelt werden, aber Formeln können begrenzte oder zählbar unendliche Verbindungen und Trennungen innerhalb ihrer haben. So, zum Beispiel, ist es möglich zu sagen, dass ein Gegenstand eine ganze Zahl mit einer Formel von wie ist

:

Höherwertige Logik berücksichtigt Quantifizierung nicht nur Elemente des Gebiets des Gesprächs, aber Teilmengen des Gebiets des Gesprächs, der Sätze solcher Teilmengen und der anderen Gegenstände des höheren Typs. Die Semantik wird definiert, so dass, anstatt ein getrenntes Gebiet für jeden höheren Typ quantifier zu haben, um sich zu erstrecken, sich die quantifiers stattdessen über alle Gegenstände des passenden Typs erstrecken. Die Logik hat studiert, bevor die Entwicklung der Logik der ersten Ordnung, zum Beispiel der Logik von Frege, ähnliche mit dem Satz theoretische Aspekte hatte. Obwohl höherwertige Logik ausdrucksvoller ist, ganzen axiomatizations von Strukturen wie die natürlichen Zahlen erlaubend, befriedigen sie Entsprechungen der Vollständigkeits- und Kompaktheitslehrsätze von der Logik der ersten Ordnung nicht, und sind so der probetheoretischen Analyse weniger zugänglich.

Ein anderer Typ der Logik ist Logik des festen Punkts, die induktive Definitionen erlaubt, wie schreibt man für primitive rekursive Funktionen.

Man kann eine Erweiterung der Logik der ersten Ordnung - ein Begriff formell definieren, der die ganze Logik in dieser Abteilung umfasst, weil sie sich wie Logik der ersten Ordnung auf bestimmte grundsätzliche Weisen benehmen, aber umfasst die ganze Logik im Allgemeinen nicht, z.B umfasst es intuitionistic, modal oder Fuzzy-Logik nicht. Der Lehrsatz von Lindström deutet an, dass die einzige Erweiterung der Logik der ersten Ordnung, die sowohl den Kompaktheitslehrsatz als auch den Löwenheim-Skolem Lehrsatz Nach unten befriedigt, Logik der ersten Ordnung ist.

Nichtklassische und modale Logik

Modale Logik schließt zusätzliche modale Maschinenbediener wie ein Maschinenbediener ein, der feststellt, dass eine besondere Formel nicht nur wahr, aber notwendigerweise wahr ist. Obwohl modale Logik an die axiomatize Mathematik nicht häufig gewöhnt ist, ist sie verwendet worden, um die Eigenschaften der ersten Ordnung provability (Solovay 1976) und das mit dem Satz theoretische Zwingen (Hamkins und Löwe 2007) zu studieren.

Logik von Intuitionistic wurde von Heyting entwickelt, um das Programm von Brouwer von intuitionism zu studieren, in dem Brouwer selbst Formalisierung vermieden hat. Logik von Intuitionistic schließt spezifisch das Gesetz der ausgeschlossenen Mitte nicht ein, die feststellt, dass jeder Satz entweder wahr ist oder seine Ablehnung, ist wahr. Die Arbeit von Kleene mit der Probetheorie der intuitionistic Logik hat gezeigt, dass von konstruktiver Information intuitionistic Beweise erholt werden kann. Zum Beispiel ist jede nachweisbar ganze Funktion in der intuitionistic Arithmetik berechenbar; das ist in klassischen Theorien der Arithmetik wie Arithmetik von Peano nicht wahr.

Algebraische Logik

Algebraische Logik verwendet die Methoden der abstrakten Algebra, die Semantik der formellen Logik zu studieren. Ein grundsätzliches Beispiel ist der Gebrauch von Algebra von Boolean, um Wahrheitswerte in der klassischen Satzlogik und den Gebrauch von Algebra von Heyting zu vertreten, um Wahrheitswerte in der intuitionistic Satzlogik zu vertreten. Stärkere Logik, wie erste Ordnung höherwertige und Logiklogik, wird mit mehr komplizierten algebraischen Strukturen wie Cylindric-Algebra studiert.

Mengenlehre

Mengenlehre ist die Studie von Sätzen, die abstrakte Sammlungen von Gegenständen sind. Viele der grundlegenden Begriffe, wie Ordinalzahlen und Grundzahlen, wurden informell vom Kantoren entwickelt, bevor formelle axiomatizations der Mengenlehre entwickelt wurden. Der erste derartige axiomatization, wegen Zermelo (1908b), wurde ein bisschen erweitert, um Zermelo-Fraenkel Mengenlehre (ZF) zu werden, der jetzt die am weitesten verwendete foundational Theorie für die Mathematik ist.

Andere Formalisierungen der Mengenlehre, sind einschließlich der Mengenlehre von von Neumann-Bernays-Gödel (NBG), Mengenlehre der Morsezeichen-Kelley (MK) und New Foundations (NF) vorgeschlagen worden. Dieser sind ZF, NBG und MK im Beschreiben einer kumulativen Hierarchie von Sätzen ähnlich. Neue Fundamente nehmen eine verschiedene Annäherung; es erlaubt Gegenstände wie der Satz aller Sätze auf Kosten von Beschränkungen seiner Axiome der Satz-Existenz. Das System der Kripke-Platek Mengenlehre ist nah mit der verallgemeinerten recursion Theorie verbunden.

Zwei berühmte Behauptungen in der Mengenlehre sind das Axiom der Wahl und der Kontinuum-Hypothese. Das Axiom der Wahl, die zuerst von Zermelo (1904) festgesetzt ist, wurde unabhängig von ZF von Fraenkel (1922) bewiesen, aber ist gekommen, um von Mathematikern weit akzeptiert zu werden. Es stellt fest, dass gegeben eine Sammlung von nichtleeren Sätzen es einen einzelnen Satz C gibt, der genau ein Element von jedem Satz in der Sammlung enthält. Wie man sagt, "wählt" der Satz C ein Element aus jedem Satz in der Sammlung. Während die Fähigkeit, solch eine Wahl zu machen, offensichtlich von einigen betrachtet wird, da jeder Satz in der Sammlung nichtleer ist, macht der Mangel an einer allgemeinen, konkreten Regel, durch die die Wahl gemacht werden kann, das nichtkonstruktive Axiom. Stefan Banach und Alfred Tarski (1924) haben gezeigt, dass das Axiom der Wahl verwendet werden kann, um einen festen Ball in eine begrenzte Zahl von Stücken zu zersetzen, die dann ohne Schuppen umgeordnet werden können, um zwei feste Bälle der ursprünglichen Größe zu machen. Dieser Lehrsatz, der als das Paradox von Banach-Tarski bekannt ist, ist eines von vielen gegenintuitiven Ergebnissen des Axioms der Wahl.

Die Kontinuum-Hypothese, zuerst vorgeschlagen als eine Vermutung durch den Kantoren, wurde von David Hilbert als eines seiner 23 Probleme 1900 verzeichnet. Gödel hat gezeigt, dass die Kontinuum-Hypothese disproven von den Axiomen der Zermelo-Fraenkel Mengenlehre (mit oder ohne das Axiom der Wahl), durch das Entwickeln des constructible Weltalls der Mengenlehre nicht sein kann, in der die Kontinuum-Hypothese halten muss. 1963 hat Paul Cohen gezeigt, dass die Kontinuum-Hypothese von den Axiomen der Zermelo-Fraenkel Mengenlehre (Cohen 1966) nicht bewiesen werden kann. Dieses Unabhängigkeitsergebnis hat die Frage von Hilbert jedoch nicht völlig gesetzt, weil es möglich ist, dass neue Axiome für die Mengenlehre die Hypothese auflösen konnten. Die neue Arbeit entlang diesen Linien ist von W. Hugh Woodin geführt worden, obwohl seine Wichtigkeit (Woodin 2001) noch nicht klar ist.

Die zeitgenössische Forschung in der Mengenlehre schließt die Studie von großen Kardinälen und determinacy ein. Große Kardinäle sind Grundzahlen mit besonderen so starken Eigenschaften, dass die Existenz solcher Kardinäle in ZFC nicht bewiesen werden kann. Die Existenz des kleinsten großen Kardinals hat normalerweise, ein unzugänglicher Kardinal studiert, bereits bezieht die Konsistenz von ZFC ein. Ungeachtet der Tatsache dass große Kardinäle äußerst hohen cardinality haben, hat ihre Existenz viele Implikationen für die Struktur der echten Linie. Determinacy bezieht sich auf die mögliche Existenz des Gewinnens von Strategien für bestimmte Zwei-Spieler-Spiele (wie man sagt, werden die Spiele bestimmt). Die Existenz dieser Strategien bezieht Struktureigenschaften der echten Linie und anderen polnischen Räume ein.

Mustertheorie

Mustertheorie studiert die Modelle von verschiedenen formellen Theorien. Hier ist eine Theorie eine Reihe von Formeln in einer besonderen formalen Logik und Unterschrift, während ein Modell eine Struktur ist, die eine konkrete Interpretation der Theorie gibt. Mustertheorie ist nah mit der universalen Algebra und algebraischen Geometrie verbunden, obwohl sich die Methoden der Mustertheorie mehr auf logische Rücksichten konzentrieren als jene Felder.

Der Satz aller Modelle einer besonderen Theorie wird eine elementare Klasse genannt; klassische Mustertheorie bemüht sich, die Eigenschaften von Modellen in einer besonderen elementaren Klasse zu bestimmen oder zu bestimmen, ob bestimmte Klassen von Strukturen elementare Klassen bilden.

Die Methode der quantifier Beseitigung kann verwendet werden, um zu zeigen, dass definierbare Sätze in besonderen Theorien nicht zu kompliziert werden können. Tarski (1948) hat quantifier Beseitigung für echt geschlossene Felder, ein Ergebnis eingesetzt, das sich auch zeigt, die Theorie des Feldes von reellen Zahlen ist entscheidbar. (Er hat auch bemerkt, dass seine Methoden auf algebraisch geschlossene Felder der willkürlichen Eigenschaft ebenso anwendbar waren.) Ein modernes Teilfeld, das sich davon entwickelt, ist mit o-minimal Strukturen beschäftigt.

Der categoricity Lehrsatz von Morley, der von Michael D. Morley (1965) bewiesen ist, stellt fest, dass, wenn eine Theorie der ersten Ordnung auf einer zählbaren Sprache in einem unzählbaren cardinality, d. h. allen Modellen dieses cardinality kategorisch ist, isomorph sind, dann ist es im ganzen unzählbaren cardinalities kategorisch.

Eine triviale Folge der Kontinuum-Hypothese ist, dass eine ganze Theorie mit weniger als Kontinuum viele nichtisomorphe zählbare Modelle nur zählbar viele haben kann. Die Vermutung von Vaught, genannt nach Robert Lawson Vaught, sagt, dass das sogar unabhängig von der Kontinuum-Hypothese wahr ist. Viele spezielle Fälle dieser Vermutung sind gegründet worden.

Theorie von Recursion

Theorie von Recursion, auch genannt Berechenbarkeitstheorie, studiert die Eigenschaften von berechenbaren Funktionen und den Graden von Turing, die die unberechenbaren Funktionen in Sätze teilen, die dasselbe Niveau der Unberechenbarkeit haben. Theorie von Recursion schließt auch die Studie der verallgemeinerten Berechenbarkeit und definability ein. Theorie von Recursion ist von der Arbeit der Kirche von Alonzo und Alan Turings in den 1930er Jahren gewachsen, der von Kleene und Post in den 1940er Jahren außerordentlich erweitert wurde.

Klassische recursion Theorie konzentriert sich auf die Berechenbarkeit von Funktionen von den natürlichen Zahlen bis die natürlichen Zahlen. Die grundsätzlichen Ergebnisse gründen eine robuste, kanonische Klasse von berechenbaren Funktionen mit dem zahlreichen unabhängigen, gleichwertigen Charakterisierungsverwenden Maschinen von Turing, λ Rechnung und andere Systeme. Fortgeschrittenere Ergebnisse betreffen die Struktur der Grade von Turing und das Gitter rekursiv enumerable Sätze.

Verallgemeinerte recursion Theorie erweitert die Ideen von der recursion Theorie zur Berechnung, die nicht mehr notwendigerweise begrenzt ist. Es schließt die Studie der Berechenbarkeit in höheren Typen sowie Gebieten wie hyperarithmetische Theorie und α-recursion Theorie ein.

Die zeitgenössische Forschung in der recursion Theorie schließt die Studie von Anwendungen wie algorithmische Zufälligkeit, berechenbare Mustertheorie, und Rückmathematik, sowie neue Ergebnisse in der reinen recursion Theorie ein.

Algorithmisch unlösbare Probleme

Ein wichtiges Teilfeld der recursion Theorie studiert algorithmische Unlösbarkeit; ein Entscheidungsproblem oder Funktionsproblem sind algorithmisch unlösbar, wenn es keinen möglichen berechenbaren Algorithmus gibt, der die richtige Antwort für alle gesetzlichen Eingänge zum Problem zurückgibt. Die ersten Ergebnisse über die Unlösbarkeit, erhalten unabhängig von der Kirche und Turing 1936, haben gezeigt, dass Entscheidungsproblem algorithmisch unlösbar ist. Turing hat das durch das Herstellen der Unlösbarkeit des stockenden Problems, eines Ergebnisses mit sich weit erstreckenden Implikationen sowohl in der recursion Theorie als auch in Informatik bewiesen.

Es gibt viele bekannte Beispiele von unentscheidbaren Problemen von der gewöhnlichen Mathematik. Das Wortproblem für Gruppen wurde algorithmisch unlösbar von Pyotr Novikov 1955 und unabhängig von W. Boone 1959 bewiesen. Das beschäftigte Biber-Problem, das von Tibor Radó 1962 verursacht ist, ist ein anderes wohl bekanntes Beispiel.

Das zehnte Problem von Hilbert hat um einen Algorithmus gebeten, um zu bestimmen, ob eine multivariate polynomische Gleichung mit Koeffizienten der ganzen Zahl eine Lösung in den ganzen Zahlen hat. Teilweise Fortschritte wurden von Julia Robinson, Martin Davis und Hilary Putnam gemacht. Die algorithmische Unlösbarkeit des Problems wurde von Yuri Matiyasevich 1970 (Davis 1973) bewiesen.

Probetheorie und konstruktive Mathematik

Probetheorie ist die Studie von formellen Beweisen in verschiedenen logischen Abzug-Systemen. Diese Beweise werden als formelle mathematische Gegenstände vertreten, ihre Analyse durch mathematische Techniken erleichternd. Mehrere Abzug-Systeme, werden einschließlich Hilbert-artiger Abzug-Systeme, Systeme des natürlichen Abzugs und der folgenden von Gentzen entwickelten Rechnung allgemein betrachtet.

Die Studie der konstruktiven Mathematik, im Zusammenhang der mathematischen Logik, schließt die Studie von Systemen in der nichtklassischen Logik wie Intuitionistic-Logik, sowie die Studie von aussagenden Systemen ein. Ein früher Befürworter von predicativism war Hermann Weyl, der gezeigt hat, dass es möglich ist, einen großen Teil der echten Analyse mit nur aussagende Methoden (Weyl 1918) zu entwickeln.

Weil Beweise völlig finitary sind, wohingegen die Wahrheit in einer Struktur nicht ist, ist es für die Arbeit in der konstruktiven Mathematik üblich, provability zu betonen. Die Beziehung zwischen provability im klassischen (oder nichtkonstruktiv) Systeme und provability in intuitionistic (oder konstruktiv, beziehungsweise) Systeme ist von besonderem Interesse. Ergebnisse wie die Gödel-Gentzen negative Übersetzungsshow, die es möglich ist, einzubetten (oder zu übersetzen) klassische Logik in die intuitionistic Logik, einige Eigenschaften über intuitionistic Beweise erlaubend, zurück klassischen Beweisen übertragen zu werden.

Neue Entwicklungen in der Probetheorie schließen die Studie des Beweises ein, der durch Ulrich Kohlenbach und die Studie von probetheoretischen Ordnungszahlen durch Michael Rathjen abbaut.

Verbindungen mit der Informatik

Die Studie der Berechenbarkeitstheorie in der Informatik ist nah mit der Studie der Berechenbarkeit in der mathematischen Logik verbunden. Es gibt einen Unterschied der Betonung jedoch. Computerwissenschaftler konzentrieren sich häufig auf konkrete Programmiersprachen und ausführbare Berechenbarkeit, während sich Forscher in der mathematischen Logik häufig auf Berechenbarkeit als ein theoretisches Konzept und auf der Nichtberechenbarkeit konzentrieren.

Die Theorie der Semantik von Programmiersprachen ist mit der Mustertheorie verbunden, wie Programm-Überprüfung (insbesondere Musterüberprüfung) ist. Der Isomorphismus des Currys-Howard zwischen Beweisen und Programmen bezieht sich auf die Probetheorie, besonders intuitionistic Logik. Formelle Rechnungen wie die Lambda-Rechnung und combinatory Logik werden jetzt als idealisierte Programmiersprachen studiert.

Informatik trägt auch zu Mathematik durch das Entwickeln von Techniken für die automatische Überprüfung oder sogar Entdeckung von Beweisen, wie automatisierter Lehrsatz-Beweis und Logikprogrammierung bei.

Beschreibende Kompliziertheitstheorie verbindet Logik mit der rechenbetonten Kompliziertheit. Das erste bedeutende Ergebnis in diesem Gebiet, der Lehrsatz von Fagin (1974) hat festgestellt, dass NP genau der Satz von Sprachen expressible durch Sätze der existenziellen Logik der zweiten Ordnung ist.

Fundamente der Mathematik

Im 19. Jahrhundert sind sich Mathematiker logischer Lücken und Widersprüchlichkeiten in ihrem Feld bewusst geworden. Es wurde gezeigt, dass die Axiome von Euklid für die Geometrie, die seit Jahrhunderten als ein Beispiel der axiomatischen Methode unterrichtet worden war, unvollständig waren. Der Gebrauch von infinitesimals und die wirkliche Definition der Funktion, sind in der Analyse in Frage gekommen, weil pathologische Beispiele wie die nirgends-differentiable dauernde Funktion von Weierstrass entdeckt wurden.

Die Studie des Kantoren von willkürlichen unendlichen Sätzen hat auch Kritik gezogen. Leopold Kronecker hat berühmt festgestellt, dass "Gott die ganzen Zahlen gemacht hat; alle sind sonst die Arbeit des Mannes," eine Rückkehr zur Studie von begrenzten, konkreten Gegenständen in der Mathematik gutheißend. Obwohl das Argument von Kronecker durch constructivists im 20. Jahrhundert vorgetragen wurde, hat die mathematische Gemeinschaft sie als Ganzes zurückgewiesen. David Hilbert hat für die Studie des Unendliches gestritten, sagend, dass "Keiner uns vom Paradies vertreiben soll, das Kantor geschaffen hat."

Mathematiker haben begonnen, nach Axiom-Systemen zu suchen, die verwendet werden konnten, um große Teile der Mathematik zu formalisieren. Zusätzlich zur umziehenden Zweideutigkeit von vorher naiven Begriffen wie Funktion wurde es gehofft, dass dieser axiomatization Konsistenz-Beweise berücksichtigen würde. Im 19. Jahrhundert sollte die Hauptmethode, die Konsistenz von einer Reihe von Axiomen zu beweisen, ein Modell dafür zur Verfügung stellen. So, zum Beispiel, kann nicht-euklidische Geometrie konsequent durch das Definieren des Punkts bewiesen werden, um einen Punkt auf einem festen Bereich und Linie zu bedeuten, einen großen Kreis auf dem Bereich zu bedeuten. Die resultierende Struktur, ein Modell der elliptischen Geometrie, befriedigt die Axiome der Flugzeug-Geometrie außer dem parallelen Postulat.

Mit der Entwicklung der formalen Logik hat Hilbert gefragt, ob es möglich sein würde zu beweisen, dass ein Axiom-System durch das Analysieren der Struktur von möglichen Beweisen im System und die Vertretung durch diese Analyse entspricht, dass es unmöglich ist, einen Widerspruch zu beweisen. Diese Idee hat zur Studie der Probetheorie geführt. Außerdem hat Hilbert vorgeschlagen, dass die Analyse völlig konkret sein sollte, den Begriff finitary gebrauchend, um sich auf die Methoden zu beziehen, die er erlauben würde, aber nicht genau das Definieren von ihnen. Dieses Projekt, das als das Programm von Hilbert bekannt ist, wurde durch die Unvollständigkeitslehrsätze von Gödel ernstlich betroffen, die zeigen, dass die Konsistenz von formellen Theorien der Arithmetik mit Methoden formalizable in jenen Theorien nicht gegründet werden kann. Gentzen hat gezeigt, dass es möglich ist, einen Beweis der Konsistenz der Arithmetik in einem finitary mit Axiomen der transfiniten Induktion vermehrten System zu erzeugen, und die Techniken, die er entwickelt hat, um so zu tun, in der Probetheorie zukunftsträchtig waren.

Ein zweiter Faden in der Geschichte von Fundamenten der Mathematik schließt nichtklassische Logik und konstruktive Mathematik ein. Die Studie der konstruktiven Mathematik schließt viele verschiedene Programme mit verschiedenen Definitionen von konstruktiven ein. Am am meisten entgegenkommenden Ende werden Beweise in der ZF Mengenlehre, die das Axiom der Wahl nicht verwenden, konstruktiv von vielen Mathematikern genannt. Mehr beschränkte Versionen von constructivism beschränken sich zu natürlichen Zahlen, mit der Zahl theoretischen Funktionen und Sätzen von natürlichen Zahlen (der verwendet werden kann, um reelle Zahlen zu vertreten, die Studie der mathematischen Analyse erleichternd). Eine allgemeine Idee besteht darin, dass ein konkretes Mittel, die Werte der Funktion zu schätzen, bekannt sein muss, bevor, wie man sagen kann, die Funktion selbst besteht.

Am Anfang des 20. Jahrhunderts hat Luitzen Egbertus Jan Brouwer intuitionism als eine Philosophie der Mathematik gegründet. Diese Philosophie, schlecht verstanden zuerst, hat festgestellt, dass in der Größenordnung von einer mathematischen Behauptung, um einem Mathematiker wahr zu sein, dass Person zu intuit fähig sein muss, die Behauptung, dazu glauben nicht nur seine Wahrheit, aber verstehen den Grund für seine Wahrheit. Eine Folge dieser Definition der Wahrheit war die Verwerfung des Gesetzes der ausgeschlossenen Mitte, weil es Behauptungen gibt, die, gemäß Brouwer, wie man fordern konnte, nicht wahr waren, während ihre Ablehnungen auch wahr nicht gefordert werden konnten. Die Philosophie von Brouwer, war und die Ursache von bitteren Streiten unter prominenten Mathematikern einflussreich. Später würden Kleene und Kreisel formalisierte Versionen der intuitionistic Logik studieren (Brouwer hat Formalisierung zurückgewiesen, und hat seine Arbeit in unformalisierter natürlicher Sprache präsentiert). Mit dem Advent der BHK Interpretation und Modelle von Kripke ist intuitionism leichter geworden, sich mit der klassischen Mathematik zu versöhnen.

Siehe auch

  • Liste von mathematischen Logikthemen
  • Liste der Berechenbarkeit und Kompliziertheitsthemen
  • Liste von Mengenlehre-Themen
  • Liste von Theorien der ersten Ordnung
  • Kenntnisse-Darstellung
  • Metalogic
  • Logiksymbole

Referenzen

Studententexte

. . . .. . . . .
  • Shawn Hedman, Eine Vorspeise in der Logik: eine Einführung in Mustertheorie, Probetheorie, Berechenbarkeit, und Kompliziertheit, Presse der Universität Oxford, 2004, internationale Standardbuchnummer 0198529813. Deckel-Logik im Ende reation mit der Berechenbarkeitstheorie und Kompliziertheitstheorie

Absolvententexte

. . . . . .

Forschungsarbeiten, Monografien, Texte und Überblicke

.
  • nachgedruckt als ein Anhang in Martin Davis, Berechenbarkeit und Unlösbarkeit, Nachdruck von Dover 1982. JStor
  • . JSTOR
  • . JStor
. ...

Klassische Zeitungen, Texte und Sammlungen

  • , nachgedruckt in van Heijenoort 1976, Seiten 104-111.
  • . Englische Übersetzung des Titels: "Konsistenz und irrationale Zahlen".
  • Zwei englische Übersetzungen:
  • 1963 (1901). Aufsätze auf der Theorie von Zahlen. Beman, W. W., Hrsg. und trans. Dover.
  • 1996. In Von Kant zu Hilbert: Ein Quellbuch in den Fundamenten von Mathematik, 2 vols, Ewald, William B., Hrsg., Presse der Universität Oxford: 787-832.
  • (Deutsch), das in der englischen Übersetzung als "Der Begriff von 'bestimmten' und die Unabhängigkeit des Axioms der Wahl", van Heijenoort 1976, Seiten 284-289 nachgedruckt ist.
  • Frege Gottlob (1879), Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. Halle a. S.: Louis Nebert. Übersetzung: Konzeptschrift, eine formelle Sprache des reinen Gedankens hat auf diese der Arithmetik, durch S. Bauer-Mengelberg in Jean Van Heijenoort, Hrsg., 1967 modelliert. Von Frege bis Gödel: Ein Quellbuch in der Mathematischen Logik, 1879-1931. Universität von Harvard Presse.
  • Frege Gottlob (1884), Die Grundlagen der Arithmetik: eine logisch-mathematische Bastelraum von Untersuchung über Begriff der Zahl. Breslau:W. Koebner. Übersetzung:J. L. Austin, 1974. Die Fundamente der Arithmetik: Eine logico-mathematische Anfrage ins Konzept der Zahl, 2. Hrsg. Blackwell.
  • nachgedruckt in der englischen Übersetzung in den Gesammelten Arbeiten von Gentzen, M. E. Szabo, Hrsg., Nordholland, Amsterdam, 1969.
  • . Englische Übersetzung des Titels: "Vollständigkeit der logischen Rechnung".
  • . Englische Übersetzung des Titels: "Die Vollständigkeit der Axiome der Rechnung von logischen Funktionen".
  • sieh Auf Formell Unentscheidbaren Vorschlägen von Principia Mathematica und Related Systems für Details auf englischen Übersetzungen.
  • , nachgedruckt in der englischen Übersetzung in den Gesammelten Arbeiten von Gödel, vol II, Soloman Feferman u. a. Hrsg.-Presse der Universität Oxford, 1990.
  • , Englische 1902-Ausgabe (Die Fundamente der Geometrie) neu veröffentlichter 1980, Offenes Gericht, Chicago.
  • . Vortrag, der auf dem Internationalen Kongress von Mathematikern am 3. September 1928 gegeben ist. Veröffentlicht in der englischen Übersetzung als "Das Fundament der Elementaren Zahlentheorie", in Mancosu 1998, Seiten 266-273.
.
  • (Deutsch). Nachgedruckt in der englischen Übersetzung als "Geometrische Untersuchungen auf der Theorie von Parallelen Linien" in der Nicht-euklidischen Geometrie, Robert Bonola (Hrsg.). Dover, 1955. Internationale Standardbuchnummer 0486600270
  • (Deutsch). Übersetzt als "Auf Möglichkeiten in der Rechnung von Verwandten" in Jean van Heijenoort, 1967. Ein Quellbuch in der Mathematischen Logik, 1879-1931. Harvard Univ. Drücken Sie: 228-251.
..
  • (Italienisch), Exzerpt hat in englischem stranslation als "Die Grundsätze der Arithmetik nachgedruckt, die durch eine neue Methode", van Heijenoort 1976, Seiten 83 97 präsentiert ist.
  • (Französisch), das in der englischen Übersetzung als "Die Grundsätze der Mathematik und die Probleme von Sätzen", van Heijenoort 1976, Seiten 142-144 nachgedruckt ist.
.
  • (Deutsch), das in der englischen Übersetzung als "Beweis nachgedruckt ist, dass jeder Satz", van Heijenoort 1976, Seiten 139-141 gut bestellt werden kann.
  • (Deutsch), das in der englischen Übersetzung als "Ein neuer Beweis der Möglichkeit eines gut bestellenden", van Heijenoort 1976, Seiten 183-198 nachgedruckt ist.
.

Außenverbindungen


Am 15. März / Molekulare Nanotechnologie
Impressum & Datenschutz