Künstliche Intelligenz

Künstliche Intelligenz (AI) ist der Nachrichtendienst von Maschinen und der Zweig der Informatik, die zum Ziel hat, es zu schaffen. AI Lehrbücher definieren das Feld als "die Studie und das Design von intelligenten Agenten", wo ein intelligenter Agent ein System ist, das seine Umgebung wahrnimmt und Handlungen nimmt, die seine Erfolgschancen maximieren. John McCarthy, der den Begriff 1956 ins Leben gerufen hat, definiert ihn als "die Wissenschaft und Technik, intelligente Maschinen zu machen."

AI Forschung ist hoch technisch und, tief geteilte in Teilfelder spezialisiert, die häufig scheitern, mit einander zu kommunizieren. Etwas von der Abteilung ist wegen sozialer und kultureller Faktoren: Teilfelder sind um besondere Einrichtungen und die Arbeit von individuellen Forschern aufgewachsen. AI Forschung wird auch durch mehrere technische Probleme geteilt. Es gibt Teilfelder, die auf die Lösung spezifischer Probleme auf einer von mehreren möglichen Annäherungen auf dem Gebrauch sich weit unterscheidender Werkzeuge und zur Ausführung von besonderen Anwendungen eingestellt werden. Die Hauptprobleme von AI schließen solche Charakterzüge als das Denken, die Kenntnisse, die Planung, das Lernen, die Kommunikation, die Wahrnehmung und die Fähigkeit ein, Gegenstände zu bewegen und zu manipulieren. Allgemeine Intelligenz (oder "starker AI") ist noch unter den langfristigen Absichten des Feldes. Zurzeit populäre Annäherungen schließen statistische Methoden, rechenbetonte Intelligenz und traditionellen symbolischen AI ein. Es gibt riesige Menge von Werkzeugen, die in AI, einschließlich Versionen der Suche und mathematischen Optimierung, Logik, Methoden verwendet sind, die auf der Wahrscheinlichkeit und Volkswirtschaft und vielen anderen gestützt sind.

Das Feld wurde auf dem Anspruch gegründet, dass ein Haupteigentum von Menschen, Intelligenz — die Weisheit des Homo Sapiens — so genau beschrieben werden kann, dass es durch eine Maschine vorgetäuscht werden kann. Das bringt philosophische Themen über die Natur der Meinung und die Ethik auf, künstliche Wesen, Probleme zu schaffen, die durch das Mythos, die Fiktion und die Philosophie seit der Altertümlichkeit gerichtet worden sind. Künstliche Intelligenz ist das Thema des Optimismus gewesen, aber hat auch Rückschläge ertragen und ist heute ein wesentlicher Teil der Technologieindustrie geworden, das schwere Heben für viele der schwierigsten Probleme in der Informatik zur Verfügung stellend.

Geschichte

Das Denken von Maschinen und künstlichen Wesen erscheint in griechischen Mythen, wie Talos Kretas, der Bronzeroboter von Hephaestus und Galatea von Pygmalion. Menschliche Gleichheiten, die geglaubt sind, Intelligenz zu haben, wurden in jeder Hauptzivilisation gebaut: Belebte Kultimages wurden in Ägypten und Griechenland angebetet, und humanoid Automaten wurden von Yan Shi, Helden Alexandrias und Al-Jazari gebaut. Es wurde auch weit geglaubt, dass künstliche Wesen durch Jābir ibn Hayyān, Judah Loew und Paracelsus geschaffen worden waren. Vor den 19. und 20. Jahrhunderten waren künstliche Wesen ein gemeinsames Merkmal in der Fiktion, als in Frankenstein von Mary Shelley oder Karel Čapek's R.U.R geworden. (Die Universalen Roboter von Rossum). Pamela McCorduck behauptet, dass alle von diesen Beispiele eines alten Drangs sind, weil sie ihn, "beschreibt, die Götter zu schmieden". Geschichten dieser Wesen und ihrer Schicksale besprechen viele derselben Hoffnungen, Ängste und Moralsorgen, die durch die künstliche Intelligenz präsentiert werden.

Das mechanische oder "formelle" Denken ist von Philosophen und Mathematikern seit der Altertümlichkeit entwickelt worden. Die Studie der Logik hat direkt zur Erfindung des programmierbaren elektronischen Digitalcomputers geführt, der auf der Arbeit des Mathematikers Alan Turing und anderer gestützt ist. Die Theorie von Turing der Berechnung hat darauf hingewiesen, dass eine Maschine, durch das Schlurfen von Symbolen so einfach wie "0" und "1", jede denkbare (Vorstellbare) Tat des mathematischen Abzugs vortäuschen konnte. Das, zusammen mit gleichzeitigen Entdeckungen in Neurologie, Informationstheorie und Kybernetik, hat eine kleine Gruppe von Forschern angeregt zu beginnen, die Möglichkeit ernstlich zu denken, ein elektronisches Gehirn zu bauen.

Das Feld der AI Forschung wurde auf einer Konferenz auf dem Campus der Dartmouth Universität im Sommer 1956 gegründet. Die Anwesenden, einschließlich John McCarthys, Marvin Minskys, Allen Newells und Herbert Simons, sind die Führer der AI Forschung viele Jahrzehnte lang geworden. Sie und ihre Studenten haben Programme geschrieben, die, den meisten Menschen, einfach erstaunlich waren: Computer behoben Wortprobleme in der Algebra, logische Lehrsätze und sprechende Engländer beweisend. Bis zur Mitte der 1960er Jahre wurde die Forschung in den Vereinigten Staaten vom Verteidigungsministerium schwer gefördert, und Laboratorien waren um die Welt gegründet worden. Die Gründer von AI waren über die Zukunft des neuen Feldes tief optimistisch: Herbert Simon hat vorausgesagt, dass "Maschinen innerhalb von zwanzig Jahren fähig sein werden, jede Arbeit zu tun, die ein Mann" und abgestimmter Marvin Minsky tun kann, schreibend, dass "innerhalb einer Generation... das Problem, 'künstliche Intelligenz' zu schaffen, wesentlich behoben wird".

Sie hatten gescheitert, die Schwierigkeit von einigen der Probleme anzuerkennen, denen sie gegenübergestanden haben. 1974, als Antwort auf die Kritik von Herrn James Lighthill und andauerndem Druck vom US-Kongress bis Fonds produktivere Projekte, schneiden sowohl die amerikanischen als auch britischen Regierungen die ganze ungeleitete Forschungsforschung in AI ab. Die nächsten paar Jahre, als die Finanzierung für Projekte hart war zu finden, würden später den AI "Winter" genannt.

Am Anfang der 1980er Jahre wurde AI Forschung durch den kommerziellen Erfolg von Expertensystemen, eine Form des AI Programms wiederbelebt, das die Kenntnisse und analytischen Sachkenntnisse von einer oder menschlicheren Experten vorgetäuscht hat. Vor 1985 hatte der Markt für AI mehr als eine Milliarde Dollar erreicht. Zur gleichen Zeit hat Japans fünftes Generationscomputerprojekt die US-amerikanischen und britischen Regierungen angeregt, Finanzierung für die akademische Forschung im Feld wieder herzustellen. Jedoch, mit dem Zusammenbruch des Lispeln-Maschinenmarktes 1987 beginnend, ist AI wieder in die Ehrlosigkeit und eine zweite, längere Beständigkeit gefallen, die AI Winter begonnen hat.

In den 1990er Jahren und Anfang des 21. Jahrhunderts hat AI seine größten Erfolge, obgleich etwas hinter den Kulissen erreicht. Künstliche Intelligenz wird für Logistik, Datenbergwerk, medizinische Diagnose und viele andere Gebiete überall in der Technologieindustrie verwendet.

Der Erfolg war wegen mehrerer Faktoren: Die zunehmende rechenbetonte Macht von Computern (sieh das Gesetz von Moore), eine größere Betonung auf dem Lösen spezifischer Teilprobleme, der Entwicklung von neuen Banden zwischen AI und anderen Feldern, die an ähnlichen Problemen und einem neuen Engagement durch Forscher zu festen mathematischen Methoden und strengen wissenschaftlichen Standards arbeiten.

Am 11. Mai 1997, Tiefblau ist das erste Computerschachspielen-System geworden, um einen regierenden Schachweltmeister, Garry Kasparov zu prügeln. 2005 hat ein Roboter von Stanford die DARPA Großartige Herausforderung durch das Fahren autonom für 131 Meilen entlang einer überraschenden Wüste-Spur gewonnen.

Zwei Jahre später hat eine Mannschaft von CMU die DARPA Städtische Herausforderung gewonnen, als ihr Fahrzeug autonom 55 Meilen in einer Städtischen Umgebung befahren hat, während es an Verkehrsgefahren und allen Verkehrsgesetzen geklebt hat. Im Februar 2011, in einem Risiko! Quiz-Show-Ausstellungsmatch, das Frage-Antworten-System von IBM, Watson, hat das zwei größte Risiko vereitelt! Meister, Brad Rutter und Ken Jennings, durch einen bedeutenden Rand.

Die Spitzendefinition der Forschung der künstlichen Intelligenz ändert sich mit der Zeit. Eine pragmatische Definition ist: "AI Forschung besteht dass darin, welche Rechenwissenschaftler nicht wissen, wie man rentabel heute tut." Zum Beispiel 1956 wurde optische Charakter-Anerkennung (OCR) als AI betrachtet, aber heute kommen hoch entwickelte OCR-Software mit einem mit dem Zusammenhang empfindlichen Rechtschreibprüfprogramm und Grammatik-Kontrolleur-Software umsonst mit den meisten Bildscannern. Keiner würde länger bereits gelöste Rechenwissenschaftsprobleme wie OCR als "künstliche Intelligenz" heute betrachten.

Preisgünstige unterhaltende schachspielende Software ist für Block-Computer allgemein verfügbar. DARPA stellt nicht mehr bedeutende Finanzierung für das Schachspielen Rechensystementwicklung zur Verfügung. Der Kinect, der eine 3D-Körperbewegungsschnittstelle für Xbox 360 Gebrauch-Algorithmen zur Verfügung stellt, die aus der langen AI Forschung erschienen sind, aber wenige Verbraucher begreifen die Technologiequelle.

AI Anwendungen sind nicht mehr das exklusive Gebiet des amerikanischen Verteidigungsministeriums R&D, aber sind jetzt alltägliche Verbrauchersachen und billige intelligente Spielsachen.

Im allgemeinen Gebrauch scheint der Begriff "AI" nicht mehr, für behobene Standardrechenwissenschaft-Probleme zu gelten, die aus Jahren der AI Forschung ursprünglich erschienen sein können.

Probleme

Das allgemeine Problem, vorzutäuschen (oder zu schaffen), Intelligenz ist unten in mehrere spezifische Teilprobleme zerbrochen worden. Diese bestehen aus besonderen Charakterzügen oder Fähigkeiten, die Forscher gern ein intelligentes System zeigen würden. Die Charakterzüge, die unten beschrieben sind, haben den grössten Teil der Aufmerksamkeit erhalten.

Abzug, das Denken, Problem-Lösen

Frühe AI Forscher haben Algorithmen entwickelt, die das schrittweise Denken imitiert haben, dass Menschen verwenden, wenn sie Rätsel lösen oder logische Abzüge machen. Bis zum Ende der 1980er Jahre und der 90er Jahre hatte AI Forschung auch hoch erfolgreiche Methoden entwickelt, um sich mit unsicherer oder unvollständiger Information zu befassen, Konzepte von der Wahrscheinlichkeit und Volkswirtschaft verwendend.

Für schwierige Probleme können die meisten dieser Algorithmen enorme rechenbetonte Mittel - der grösste Teil der Erfahrung eine "kombinatorische Explosion" verlangen: Der Betrag des Gedächtnisses oder erforderliche Computerzeit wird astronomisch, wenn das Problem eine bestimmte Größe übertrifft. Die Suche nach effizienteren problemlösenden Algorithmen ist ein hoher Vorrang für die AI Forschung.

Menschen beheben die meisten ihrer Probleme mit schnellen, intuitiven Urteilen aber nicht dem bewussten, schrittweisen Abzug, den frühe AI Forschung im Stande gewesen ist zu modellieren. AI hat einige Fortschritte beim Nachahmen dieser Art "des subsymbolischen" Problem-Lösens gemacht: Aufgenommene Reagenz-Annäherungen betonen die Wichtigkeit von sensomotorischen Sachkenntnissen zum höheren Denken; Nervennettoforschung versucht, die Strukturen Innenmensch und Tierverstand vorzutäuschen, der diese Sachkenntnis verursacht; statistische Annäherungen an AI ahmen die probabilistic Natur der menschlichen Fähigkeit nach zu schätzen.

Kenntnisse-Darstellung

Kenntnisse-Darstellung und Wissensverarbeitung sind zur AI Forschung zentral. Wie man erwartet, lösen viele der Problem-Maschinen wird umfassende Kenntnisse über die Welt verlangen. Unter den Dingen, die AI vertreten muss, sind: Gegenstände, Eigenschaften, Kategorien und Beziehungen zwischen Gegenständen; Situationen, Ereignisse, Staaten und Zeit; Ursachen und Effekten; Kenntnisse über Kenntnisse (was wir darüber wissen, was andere Leute wissen); und viel anderer, weniger gut erforschte Gebiete. Eine Darstellung, "was besteht", ist eine Ontologie (ein Wort von der traditionellen Philosophie leihend), von denen die allgemeinsten obere Ontologie genannt werden.

Unter den schwierigsten Problemen in Kenntnissen Darstellung sind:

Verzug, der vernünftig urteilt und das Qualifikationsproblem: Viele der Dinge, die Leute wissen, nehmen die Form "Arbeitsannahmen an." Zum Beispiel, wenn ein Vogel im Gespräch heraufkommt, stellen Leute normalerweise ein Tier dar, das nach Größen geordnete Faust ist, singt und Fliegen. Keines dieser Dinge ist über alle Vögel wahr. John McCarthy hat dieses Problem 1969 als das Qualifikationsproblem identifiziert: Weil jeder gesunde Menschenverstand entscheidet, dass AI Forscher Wert darauf legen zu vertreten, neigt es dazu, eine riesige Zahl von Ausnahmen zu geben. Fast nichts ist einfach wahr oder in der Weise falsch, wie abstrakte Logik verlangt. AI Forschung hat mehrere Lösungen dieses Problems erforscht.

Die Breite von Kenntnissen des gesunden Menschenverstands: Die Zahl von Atomtatsachen, dass der Durchschnittsmensch weiß, ist astronomisch. Forschung plant, dass Versuch, eine ganze Kenntnisse-Basis von Kenntnissen des gesunden Menschenverstands (z.B, Cyc) zu bauen, enorme Beträge der mühsamen ontologischen Technik verlangen — müssen sie, mit der Hand, ein kompliziertes Konzept auf einmal gebaut werden. Eine Hauptabsicht ist, den Computer zu haben, verstehen genug Konzepte, um im Stande zu sein, durch das Lesen von Quellen wie das Internet zu erfahren, und so im Stande zu sein, zu seiner eigenen Ontologie beizutragen.

Die subsymbolische Form von einigen Kenntnissen des gesunden Menschenverstands: Viel davon, wem Leute wissen, wird als "Tatsachen" oder "Behauptungen" nicht vertreten, dass sie wörtlich ausdrücken konnten. Zum Beispiel wird ein Schachmaster eine besondere Schachposition vermeiden, weil es sich "zu ausgestellt fühlt" oder ein Kunstkritiker einen Blick auf eine Bildsäule nehmen und sofort begreifen kann, dass es eine Fälschung ist. Das sind Intuitionen oder Tendenzen, die im Gehirn nichtbewusst und subsymbolisch vertreten werden. Kenntnisse wie das informieren, unterstützen und stellen einen Zusammenhang für symbolische, bewusste Kenntnisse zur Verfügung. Als mit dem zusammenhängenden Problem des subsymbolischen Denkens wird es gehofft, dass AI, rechenbetonte Intelligenz aufgestellt hat, oder statistischer AI Weisen zur Verfügung stellen wird, diese Art von Kenntnissen zu vertreten.

Planung

Intelligente Agenten müssen im Stande sein, Ziele zu setzen und sie zu erreichen. Sie brauchen eine Weise, sich die Zukunft zu vergegenwärtigen (sie müssen eine Darstellung des Staates der Welt haben und im Stande sein, Vorhersagen darüber zu machen, wie ihre Handlungen es ändern werden), und im Stande sein, Wahlen zu machen, die das Dienstprogramm (oder "Wert") der verfügbaren Wahlen maximieren.

In klassischen Planungsproblemen kann der Agent annehmen, dass es das einzige Ding ist, das der Welt folgt, und es sicher sein kann, wie die Folgen seiner Handlungen sein können. Jedoch, wenn der Agent nicht der einzige Schauspieler ist, muss es regelmäßig feststellen, ob die Welt seine Vorhersagen vergleicht und es seinen Plan ändern muss, weil das notwendig wird, der Agent verlangend, unter der Unklarheit vernünftig zu urteilen.

Mehragent, der plant, verwendet die Zusammenarbeit und Konkurrenz von vielen Agenten, um ein gegebenes Ziel zu erreichen. Auftauchendes Verhalten wie das wird durch Entwicklungsalgorithmen und Schwarm-Intelligenz verwendet.

Das Lernen

Maschine, die erfährt, ist zur AI Forschung vom Anfang zentral gewesen. 1956, am ursprünglichen Dartmouth AI Sommerkonferenz, hat Ray Solomonoff einen Bericht über die unbeaufsichtigte probabilistic Maschine geschrieben, die erfährt: "Eine Induktive Inferenzmaschine".

Das unbeaufsichtigte Lernen ist die Fähigkeit, Muster in einem Strom des Eingangs zu finden. Das beaufsichtigte Lernen schließt sowohl Klassifikation als auch numerisches rückwärts Gehen ein. Klassifikation wird verwendet, um zu bestimmen, welche Kategorie etwas in, nach dem Sehen mehrerer Beispiele von Dingen von mehreren Kategorien gehört. Rückwärts Gehen ist der Versuch, eine Funktion zu erzeugen, die die Beziehung zwischen Eingängen und Produktionen beschreibt und voraussagt, wie sich die Produktionen ändern sollten, wie sich die Eingänge ändern. In der Verstärkung, die den Agenten erfährt, wird für gute Antworten belohnt und für schlechte bestraft. Diese können in Bezug auf die Entscheidungstheorie mit Konzepten wie Dienstprogramm analysiert werden. Die mathematische Analyse von Maschinenlernalgorithmen und ihre Leistung sind ein Zweig der theoretischen als rechenbetonte Lerntheorie bekannten Informatik.

Verarbeitung der natürlichen Sprache

Verarbeitung der natürlichen Sprache gibt Maschinen die Fähigkeit, die Sprachen zu lesen und zu verstehen, dass Menschen sprechen. Ein genug starkes System der Verarbeitung der natürlichen Sprache würde Benutzerschnittstellen der natürlichen Sprache und den Erwerb von Kenntnissen direkt von von den Menschen geschriebenen Quellen wie Internettexte ermöglichen. Einige aufrichtige Anwendungen der Verarbeitung der natürlichen Sprache schließen Informationsgewinnung (oder Textbergwerk) und maschinelle Übersetzung ein.

Eine übliche Methodik, Bedeutung aus der natürlichen Sprache in einer Prozession zu gehen und herauszuziehen, ist durch das semantische Indexieren. Zunahmen in in einer Prozession gehenden Geschwindigkeiten und der Fall in den Kosten der Datenlagerung lassen mit einem Inhaltsverzeichnis versehende große Volumina von Abstraktionen der Benutzer viel effizienter eingeben.

Bewegung und Manipulation

Das Feld der Robotertechnik ist nah mit AI verbunden. Intelligenz ist für Roboter erforderlich im Stande zu sein, solche Aufgaben wie Gegenstand-Manipulation und Navigation mit Teilproblemen der Lokalisierung zu behandeln (wissend, wo Sie sind), (das Lernen kartografisch darstellend, ist was um Sie), und Bewegungsplanung (sich wie belaufend, kommt man hierher).

Wahrnehmung

Maschinenwahrnehmung ist die Fähigkeit, Eingang von Sensoren (wie Kameras, Mikrofone, Echolot und andere exotischer) zu verwenden, um Aspekte der Welt abzuleiten. Computervision ist die Fähigkeit, Seheingang zu analysieren. Einige ausgewählte Teilprobleme sind Spracherkennung, Gesichtsanerkennung und Gegenstand-Anerkennung.

Soziale Intelligenz

Computerwissenschaft von Affective ist die Studie und Entwicklung von Systemen und Geräten, die anerkennen, interpretieren, bearbeiten, und Menschen vortäuschen können, betrifft. Es ist ein zwischendisziplinarisches Feldüberspannen Informatiken, Psychologie und Erkenntnistheorie. Während die Ursprünge des Feldes schon zu Lebzeiten von zu frühen philosophischen Anfragen ins Gefühl, den moderneren Zweig der Informatik verfolgt werden können, die mit dem 1995-Papier von Rosalind Picard auf der Affective-Computerwissenschaft hervorgebracht ist. Eine Motivation für die Forschung ist die Fähigkeit, Empathie vorzutäuschen. Die Maschine sollte den emotionalen Staat von Menschen interpretieren und sein Verhalten an sie anpassen, eine passende Antwort für jene Gefühle gebend.

Gefühl und soziale Sachkenntnisse spielen zwei Rollen für einen intelligenten Agenten. Erstens muss es im Stande sein, die Handlungen von anderen, durch das Verstehen ihrer Motive und emotionaler Staaten vorauszusagen. (Das schließt Elemente der Spieltheorie, Entscheidungstheorie, sowie der Fähigkeit ein, menschliche Gefühle und die perceptual Sachkenntnisse zu modellieren, Gefühle zu entdecken.) Außerdem, um Wechselwirkung des menschlichen Computers zu erleichtern, könnte eine intelligente Maschine im Stande sein wollen, Gefühle zu zeigen — — selbst wenn es sie selbst nicht wirklich erfährt — — um empfindlich zur emotionalen Dynamik der menschlichen Wechselwirkung zu scheinen.

Kreativität

Ein Teilfeld von AI richtet Kreativität sowohl theoretisch (von einer philosophischen als auch psychologischen Perspektive) und praktisch (über spezifische Durchführungen von Systemen, die Produktionen erzeugen, die kreativ, oder Systeme betrachtet werden können, die identifizieren und Kreativität bewerten). Zusammenhängende Gebiete der rechenbetonten Forschung sind Künstliche Intuition und Künstliche Einbildungskraft.

Allgemeine Intelligenz

Die meisten Forscher hoffen, dass ihre Arbeit schließlich in eine Maschine mit der allgemeinen Intelligenz (bekannt als starker AI) vereinigt wird, alle Sachkenntnisse oben und außerordentliche menschliche geistige Anlagen höchstens oder sie alle verbindend. Einige glauben, dass anthropomorphe Eigenschaften wie künstliches Bewusstsein oder ein künstliches Gehirn für solch ein Projekt erforderlich sein können.

Viele der Probleme werden oben als AI-complete betrachtet: Um ein Problem zu beheben, müssen Sie sie alle lösen. Zum Beispiel verlangt sogar eine aufrichtige, spezifische Aufgabe wie maschinelle Übersetzung, dass die Maschine dem Argument des Autors (Grund) folgt, weiß, was über (Kenntnisse) geredet wird, und bringen Sie treu die Absicht des Autors (soziale Intelligenz) wieder hervor. Wie man glaubt, ist maschinelle Übersetzung deshalb AI-complete: Es kann verlangen, dass starker AI getan wird, sowie Menschen können es tun.

Annäherungen

Es gibt nicht gegründete Vereinheitlichen-Theorie oder Paradigma, das AI Forschung führt. Forscher stimmen über viele Probleme nicht überein. Einige der längsten Stehfragen, die unbeantwortet geblieben sind, sind diese: Sollte künstliche Intelligenz natürliche Intelligenz durch das Studieren der Psychologie oder Neurologie vortäuschen? Oder ist Menschenkunde so für die AI Forschung irrelevant, wie Vogel-Biologie zur aeronautischen Technik ist?

Kann intelligentes Verhalten mit einfachen, eleganten Grundsätzen (wie Logik oder Optimierung) beschrieben werden? Oder verlangt es das Lösen einer Vielzahl von Problemen völlig ohne Beziehung notwendigerweise?

Kann Intelligenz mit Symbolen auf höchster Ebene wieder hervorgebracht werden, die Wörtern und Ideen ähnlich sind? Oder verlangt es "subsymbolische" Verarbeitung?

John Haugeland, der den Begriff GOFAI (Gute Altmodische Künstliche Intelligenz) ins Leben gerufen hat, hat auch vorgeschlagen, dass AI synthetische Intelligenz, ein Begriff richtiger genannt werden sollte, der von einigen non-GOFAI Forschern seitdem angenommen worden ist.

Kybernetik und Gehirnsimulation

In den 1940er Jahren und 1950er Jahren haben mehrere Forscher die Verbindung zwischen Neurologie, Informationstheorie und Kybernetik erforscht. Einige von ihnen haben Maschinen gebaut, die elektronische Netze verwendet haben, um rudimentäre Intelligenz, wie die Schildkröten von W. Grey Walter und das Biest von Johns Hopkins auszustellen. Viele dieser Forscher haben sich für Sitzungen der Teleologischen Gesellschaft an der Universität von Princeton und dem Verhältnis-Klub in England versammelt. Vor 1960 wurde diese Annäherung größtenteils aufgegeben, obwohl Elemente davon in den 1980er Jahren wiederbelebt würden.

Symbolisch

Als der Zugang zu Digitalcomputern möglich in der Mitte den 1950er Jahren geworden ist, hat AI Forschung begonnen, die Möglichkeit zu erforschen, dass menschliche Intelligenz auf die Symbol-Manipulation reduziert werden konnte. Die Forschung wurde auf drei Einrichtungen in den Mittelpunkt gestellt: CMU, Stanford und MIT, und hat jeder seinen eigenen Stil der Forschung entwickelt. John Haugeland hat diese Annäherungen an AI "gut alt genannt hat AI" oder "GOFAI" geformt. Während der 1960er Jahre hatten symbolische Annäherungen großen Erfolg beim Simulieren des Denkens auf höchster Ebene in kleinen Demonstrationsprogrammen erreicht. Annäherungen, die auf der Kybernetik oder den Nervennetzen gestützt sind, wurden aufgegeben oder haben in den Hintergrund gestoßen.

Forscher in den 1960er Jahren und die 1970er Jahre waren überzeugt, dass symbolische Annäherungen schließlich schaffen würden, eine Maschine mit der künstlichen allgemeinen Intelligenz zu schaffen, und das als die Absicht ihres Feldes betrachtet haben.

Kognitive Simulation: Wirtschaftswissenschaftler Herbert Simon und Allen Newell haben menschliche problemlösende Sachkenntnisse studiert und haben versucht, sie zu formalisieren, und ihre Arbeit hat die Fundamente des Feldes von künstlicher Intelligenz, sowie Erkenntnistheorie, Operationsforschung und Verwaltungswissenschaft gelegt. Ihre Forschungsmannschaft hat die Ergebnisse von psychologischen Experimenten verwendet, Programme zu entwickeln, die die Techniken vorgetäuscht haben, dass Leute gepflegt haben, Probleme zu beheben. Diese Tradition, die an der Universität von Carnegie Mellon in den Mittelpunkt gestellt ist, würde schließlich in der Entwicklung der Aufsteigen-Architektur in der Mitte den 80er Jahren kulminieren.

Logikbasiert: Verschieden von Newell und Simon hat John McCarthy gefunden, dass Maschinen Mensch-Gedanken nicht vorzutäuschen brauchten, aber stattdessen versuchen sollten, die Essenz des Auszug-Denkens und Problem-Lösens, unabhängig davon zu finden, ob Leute dieselben Algorithmen verwendet haben. Sein Laboratorium an Stanford (SEGEL) hat sich darauf konzentriert, formale Logik zu verwenden, um ein großes Angebot an Problemen einschließlich der Kenntnisse-Darstellung zu lösen, planend und erfahrend. Logik war auch Fokus der Arbeit an der Universität Edinburghs und anderswohin in Europa, das zur Entwicklung der Programmiersprache-Einleitung und der Wissenschaft der Logikprogrammierung geführt hat.

"Antilogik" oder "schmuddlig": Forscher an MIT (wie Marvin Minsky und Seymour Papert) haben gefunden, dass das Beheben schwieriger Probleme in der Vision und Verarbeitung der natürlichen Sprache ad hoc Lösungen verlangt hat - haben sie behauptet, dass es keinen einfachen und allgemeinen Grundsatz gab (wie Logik), der alle Aspekte des intelligenten Verhaltens gewinnen würde. Roger Schank hat ihre "Antilogik"-Annäherungen als "schmuddlig" (im Vergleich mit den "ordentlichen" Paradigmen an CMU und Stanford) beschrieben. Kenntnisse-Basen des gesunden Menschenverstands (wie der Cyc von Doug Lenat) sind ein Beispiel von "schmuddligem" AI, da sie mit der Hand, ein kompliziertes Konzept auf einmal gebaut werden müssen.

Wissensbasiert: Als Computer mit großen Erinnerungen verfügbar 1970 geworden sind, haben Forscher von allen drei Traditionen begonnen, Kenntnisse in AI Anwendungen einzubauen. Diese "Kenntnisse-Revolution" hat zur Entwicklung und Aufstellung von Expertensystemen (eingeführt von Edward Feigenbaum), die erste aufrichtig erfolgreiche Form der AI Software geführt. Die Kenntnisse-Revolution wurde auch durch die Verwirklichung gesteuert, dass enorme Beträge von Kenntnissen durch viele einfache AI Anwendungen erforderlich wären.

Subsymbolisch

Durch den Fortschritt der 1980er Jahre in symbolischem AI ist geschienen stecken zu bleiben, und viele haben geglaubt, dass symbolische Systeme nie im Stande sein würden, alle Prozesse des menschlichen Erkennens, besonders Wahrnehmung, Robotertechnik, das Lernen und die Muster-Anerkennung zu imitieren. Mehrere Forscher haben begonnen, "in subsymbolische" Annäherungen an spezifische AI Probleme zu blicken.

Von unten nach oben, aufgenommen, gelegen, verhaltensbasiert oder nouvelle AI: Forscher vom zusammenhängenden Feld der Robotertechnik, wie Rodney Brooks, haben symbolischen AI zurückgewiesen und haben sich auf die grundlegenden Technikprobleme konzentriert, die Robotern erlauben würden, sich zu bewegen und zu überleben. Ihre Arbeit hat den nichtsymbolischen Gesichtspunkt der frühen Kybernetik-Forscher der 50er Jahre wiederbelebt und hat den Gebrauch der Steuerungstheorie in AI wiedereingeführt. Das ist mit der Entwicklung der aufgenommenen Meinungsthese im zusammenhängenden Feld der Erkenntnistheorie zusammengefallen: Die Idee, dass Aspekte des Körpers (wie Bewegung, Wahrnehmung und Vergegenwärtigung) für die höhere Intelligenz erforderlich sind.

Rechenbetonte Intelligenz: Das Interesse an Nervennetzen und "connectionism" wurde von David Rumelhart und anderen in der Mitte den 1980er Jahren wiederbelebt. Diese und anderen subsymbolischen Annäherungen, wie Fuzzy-Systeme und Entwicklungsberechnung, werden jetzt insgesamt durch die erscheinende Disziplin der rechenbetonten Intelligenz studiert.

Statistisch

In den 1990er Jahren haben AI Forscher hoch entwickelte mathematische Werkzeuge entwickelt, um spezifische Teilprobleme zu lösen. Diese Werkzeuge sind im Sinn aufrichtig wissenschaftlich, dass ihre Ergebnisse sowohl messbar als auch nachprüfbar sind, und sie für viele neue Erfolge von AI verantwortlich gewesen sind. Die geteilte mathematische Sprache hat auch ein hohes Niveau der Kollaboration mit mehr feststehenden Feldern (wie Mathematik, Volkswirtschaft oder Operationsforschung) erlaubt. Stuart Russell und Peter Norvig beschreiben diese Bewegung als nichts weniger als eine "Revolution" und "der Sieg des neats." Kritiken behaupten, dass diese Techniken auf besondere Probleme zu eingestellt werden und gescheitert haben, die langfristige Absicht der allgemeinen Intelligenz zu richten.

Integrierung der Annäherungen

Intelligentes Reagenz-Paradigma: Ein intelligenter Agent ist ein System, das seine Umgebung wahrnimmt und Handlungen nimmt, die seine Erfolgschancen maximieren. Die einfachsten intelligenten Agenten sind Programme, die spezifische Probleme beheben. Mehr komplizierte Agenten schließen Menschen und Organisationen von Menschen (wie Unternehmen) ein. Das Paradigma gibt Forscher-Lizenz, um isolierte Probleme zu studieren und Lösungen zu finden, die sowohl nachprüfbar als auch nützlich sind, ohne sich über eine einzelne Annäherung zu einigen. Ein Agent, der ein spezifisches Problem behebt, kann jede Annäherung verwenden, die arbeitet - sind einige Agenten symbolisch und logisch, einige sind subsymbolische Nervennetze, und andere können neue Annäherungen verwenden. Das Paradigma gibt auch Forschern eine gemeinsame Sprache, um mit anderen Feldern — wie Entscheidungstheorie und Volkswirtschaft zu kommunizieren —, die auch Konzepte abstrakter Agenten verwenden. Das intelligente Reagenz-Paradigma ist weit akzeptiert während der 1990er Jahre geworden.

Agent-Architekturen und kognitive Architekturen: Forscher haben Systeme entworfen, um intelligente Systeme aus aufeinander wirkenden intelligenten Agenten in einem Mehrreagenz-System zu bauen. Ein System sowohl mit symbolischen als auch mit subsymbolischen Bestandteilen ist ein hybrides intelligentes System, und die Studie solcher Systeme ist Systemintegration der künstlichen Intelligenz. Ein hierarchisches Regelsystem stellt eine Brücke zwischen subsymbolischem AI an seinen niedrigsten, reaktiven Niveaus und traditionellem symbolischem AI an seinen höchsten Niveaus zur Verfügung, wo entspannte zeitliche Einschränkungen erlauben zu planen und das Weltmodellieren. Die Klassifizierungsarchitektur von Rodney Brooks war ein früher Vorschlag für solch ein hierarchisches System.

Werkzeuge

Im Laufe 50 Jahre der Forschung hat AI eine Vielzahl von Werkzeugen entwickelt, um die schwierigsten Probleme in der Informatik zu beheben. Einige der allgemeinsten von diesen Methoden werden unten besprochen.

Suche und Optimierung

Viele Probleme in AI können in der Theorie durch das intelligente Durchsuchen vieler möglicher Lösungen behoben werden: Kann auf das Durchführen einer Suche reduziert werden. Zum Beispiel kann logischer Beweis als das Suchen nach einem Pfad angesehen werden, der von Propositionen bis Beschlüsse führt, wo jeder Schritt die Anwendung einer Interferenzregel ist. Planungsalgorithmen durchsuchen Bäume von Absichten und Teilzielen, versuchend, einen Pfad zu einer Zielabsicht, ein Prozess genannt Analyse der Mittel-Enden zu finden. Robotertechnik-Algorithmen für bewegende Glieder und habgierige Gegenstände verwenden lokale Suchen im Konfigurationsraum. Viele Lernalgorithmen verwenden auf der Optimierung gestützte Suchalgorithmen.

Einfache erschöpfende Suchen sind für die meisten echten Weltprobleme selten genügend: Der Suchraum (die Zahl von Plätzen zu suchen) wächst schnell zu astronomischen Zahlen. Das Ergebnis ist eine Suche, die zu langsam ist oder nie vollendet. Die Lösung, für viele Probleme, ist, "Heuristik" oder "Faustregeln" zu verwenden, die Wahlen beseitigen, die kaum zur Absicht (genannt "Beschneidung des Suchbaums") führen werden. Heuristik liefert das Programm mit einer "besten Annahme" für den Pfad, auf dem die Lösung liegt.

Eine sehr verschiedene Art der Suche ist zur Bekanntheit in den 1990er Jahren, gestützt auf der mathematischen Theorie der Optimierung gekommen. Für viele Probleme ist es möglich, die Suche mit einer Form einer Annahme zu beginnen und dann die Annahme zusätzlich zu raffinieren, bis keine Verbesserungen mehr gemacht werden können. Diese Algorithmen können als das blinde Hügel-Klettern vergegenwärtigt werden: Wir beginnen die Suche an einem zufälligen Punkt auf der Landschaft, und dann, durch Sprünge oder Schritte, wir setzen fort, unsere Annahme bergauf zu bewegen, bis wir die Spitze erreichen. Andere Optimierungsalgorithmen werden vorgetäuscht, Balken-Suche und zufällige Optimierung ausglühend.

Entwicklungsberechnung verwendet eine Form der Optimierungssuche. Zum Beispiel können sie mit einer Bevölkerung von Organismen (die Annahmen) beginnen und ihnen dann erlauben, sich zu ändern und sich wiederzuverbinden, nur das passendste auswählend, um jede Generation (Raffinierung der Annahmen) zu überleben. Formen der Entwicklungsberechnung schließen Schwarm-Nachrichtendienstalgorithmen (wie Ameise-Kolonie oder Partikel-Schwarm-Optimierung) und Entwicklungsalgorithmen (wie genetische Algorithmen und genetische Programmierung) ein.

Logik

Logik wird für die Kenntnisse-Darstellung und das Problem-Lösen verwendet, aber es kann auf andere Probleme ebenso angewandt werden. Zum Beispiel verwendet der satplan Algorithmus Logik für die Planung, und induktive Logikprogrammierung ist eine Methode für das Lernen.

Mehrere verschiedene Formen der Logik werden in der AI Forschung verwendet. Sentential oder Satzlogik ist die Logik von Behauptungen, die wahr oder falsch sein können. Logik der ersten Ordnung erlaubt auch den Gebrauch von quantifiers und Prädikaten, und kann Tatsachen über Gegenstände, ihre Eigenschaften und ihre Beziehungen mit einander ausdrücken. Fuzzy-Logik, ist eine Version der Logik der ersten Ordnung, die der Wahrheit einer Behauptung erlaubt, als ein Wert zwischen 0 und 1, aber nicht einfach Wahr (1) oder Falsch (0) vertreten zu werden. Fuzzy-Systeme können für das unsichere Denken verwendet werden und sind im modernen Industriellen und den Verbraucherprodukt-Regelsystemen weit verwendet worden. Subjektive Logikmusterunklarheit auf eine verschiedene und ausführlichere Weise als Fuzzy-Logik: Eine gegebene binomische Meinung befriedigt Glauben + Unglaube + Unklarheit = 1 innerhalb eines Beta-Vertriebs. Durch diese Methode kann Unerfahrenheit von probabilistic Behauptungen bemerkenswert sein, dass ein Agent mit dem hohen Vertrauen macht.

Verzug-Logik, nichtmonotonische Logik und Umschreibung sind Formen der Logik, die entworfen ist, um mit dem Verzug-Denken und dem Qualifikationsproblem zu helfen. Mehrere Erweiterungen der Logik sind entworfen worden, um spezifische Gebiete von Kenntnissen zu behandeln, wie: Beschreibungslogik; Situationsrechnung, Ereignis-Rechnung und fließende Rechnung (um Ereignisse und Zeit zu vertreten); kausale Rechnung; Glaube-Rechnung; und modale Logik.

Methoden von Probabilistic für das unsichere Denken

Viele Probleme in AI (im Denken, der Planung, dem Lernen, der Wahrnehmung und der Robotertechnik) verlangen, dass der Agent mit der unvollständigen oder unsicheren Information funktioniert. AI Forscher haben mehrere starke Werkzeuge ausgedacht, um diese Problem-Verwenden-Methoden aus der Wahrscheinlichkeitstheorie und Volkswirtschaft zu lösen.

Netze von Bayesian sind ein sehr allgemeines Werkzeug, das für eine Vielzahl von Problemen verwendet werden kann: das Denken (den Interferenzalgorithmus von Bayesian verwendend), (das Verwenden des Erwartungsmaximierungsalgorithmus) erfahrend, (das Verwenden von Entscheidungsnetzen) und Wahrnehmung planend (dynamische Netze von Bayesian verwendend). Algorithmen von Probabilistic können auch für Entstörung, Vorhersage, Glanzschleifen und Entdeckung von Erklärungen für Ströme von Daten verwendet werden, Wahrnehmungssystemen helfend, Prozesse zu analysieren, die mit der Zeit (z.B, verborgene Modelle von Markov oder Filter von Kalman) vorkommen.

Ein Schlüsselkonzept von der Wissenschaft der Volkswirtschaft ist "Dienstprogramm": Ein Maß dessen, wie wertvoll etwas zu einem intelligenten Agenten ist. Genaue mathematische Werkzeuge sind entwickelt worden, die analysieren, wie ein Agent Wahlen und Plan, mit der Entscheidungstheorie, Entscheidungsanalyse, Informationswerttheorie machen kann. Diese Werkzeuge schließen Modelle wie Entscheidungsprozesse von Markov, dynamische Entscheidungsnetze, Spieltheorie und Mechanismus-Design ein.

Classifiers und statistische Lernmethoden

Die einfachsten AI Anwendungen können in zwei Typen geteilt werden: Classifiers ("wenn glänzend, dann Diamant") und Kontrolleure ("erholen sich wenn glänzend, dann"). Kontrolleure klassifizieren wirklich jedoch auch Bedingungen vor dem Schließen von Handlungen, und deshalb bildet Klassifikation einen Hauptteil von vielen AI Systemen. Classifiers sind Funktionen, die Muster verwenden, das zusammenpasst, um ein nächstes Match zu bestimmen. Sie können gemäß Beispielen abgestimmt werden, sie sehr attraktiv für den Gebrauch in AI machend. Diese Beispiele sind als Beobachtungen oder Muster bekannt. Im beaufsichtigten Lernen gehört jedes Muster einer bestimmten vorherbestimmten Klasse. Eine Klasse kann als eine Entscheidung gesehen werden, die gemacht werden muss. Alle mit ihren Klassenetiketten verbundenen Beobachtungen sind als eine Datei bekannt. Wenn eine neue Beobachtung erhalten wird, wird diese Beobachtung gestützt auf der vorherigen Erfahrung klassifiziert.

Ein classifier kann auf verschiedene Weisen erzogen werden; es gibt viele statistisch und Maschinenlernannäherungen. Die am weitesten verwendeten classifiers sind das Nervennetz,

Kernmethoden wie die Unterstützungsvektor-Maschine,

k-nearest grenzen an Algorithmus,

Mischungsmodell von Gaussian,

naiver Bayes classifier,

und Entscheidungsbaum.

Die Leistung dieser classifiers ist über eine breite Reihe von Aufgaben verglichen worden. Leistung von Classifier hängt außerordentlich von den Eigenschaften der zu klassifizierenden Daten ab. Es gibt keinen einzelnen classifier, der am besten an allen gegebenen Problemen arbeitet; das wird auch "kein freies Mittagessen" Lehrsatz genannt. Die Bestimmung eines passenden classifier für ein gegebenes Problem ist noch mehr eine Kunst als Wissenschaft.

Nervennetze

Die Studie von künstlichen Nervennetzen hat im Jahrzehnt begonnen, bevor die AI Feldforschung, in der Arbeit von Walter Pitts und Warren McCullough gegründet wurde. Andere wichtige frühe Forscher waren Frank Rosenblatt, der den perceptron und Paul Werbos erfunden hat, der den Rückübertragungsalgorithmus entwickelt hat.

Die Hauptkategorien von Netzen sind acyclic oder feedforward Nervennetze (wo das Signal in nur einer Richtung geht) und wiederkehrende Nervennetze (die Feed-Back erlauben). Unter den populärsten feedforward Netzen sind perceptrons, Mehrschicht perceptrons und radiale Basisnetze. Unter wiederkehrenden Netzen ist das berühmteste das Netz von Hopfield, eine Form des attractor Netzes, das zuerst von John Hopfield 1982 beschrieben wurde. Nervennetze können auf das Problem der intelligenten Kontrolle (für die Robotertechnik) oder das Lernen, mit solchen Techniken als das Lernen von Hebbian und Wettbewerbslernen angewandt werden.

Hierarchisches zeitliches Gedächtnis ist eine Annäherung dass Modelle einige der strukturellen und algorithmischen Eigenschaften des neocortex.

Steuerungstheorie

Steuerungstheorie, das Enkelkind der Kybernetik, hat viele wichtige Anwendungen besonders in der Robotertechnik.

Sprachen

AI Forscher haben mehrere Spezialsprachen für die AI Forschung, einschließlich des Lispelns und der Einleitung entwickelt.

Das Auswerten des Fortschritts

1950 hat Alan Turing ein allgemeines Verfahren vorgeschlagen, um die Intelligenz eines als der Test von Turing jetzt bekannten Agenten zu prüfen. Dieses Verfahren erlaubt fast allen Hauptproblemen der künstlichen Intelligenz, geprüft zu werden. Jedoch ist es eine sehr schwierige Herausforderung, und zurzeit scheitern alle Agenten.

Künstliche Intelligenz kann auch auf spezifischen Problemen wie kleine Probleme in der Chemie, der Handschrift-Anerkennung und dem Spielspielen bewertet werden. Solche Tests sind genannter Gegenstand-Experte Tests von Turing gewesen. Kleinere Probleme stellen erreichbarere Absichten zur Verfügung, und es gibt eine ständig steigende Zahl von positiven Ergebnissen.

Die breiten Klassen des Ergebnisses für einen AI-Test sind: (1) Optimal: Es ist nicht möglich, besser zu leisten. (2) Stark übermenschlich: Leistet besser als alle Menschen. (3) Übermenschlich: Leistet besser als die meisten Menschen. (4) Unmenschlich: Leistet schlechter als die meisten Menschen. Zum Beispiel ist die Leistung an Ziehen optimal, die Leistung am Schach ist übermenschlich und sich nähernde stark übermenschlich (sieh Computer chess#Computers gegen Menschen), und die Leistung an vielen täglichen Aufgaben (wie das Erkennen eines Gesichtes oder die Überfahrt eines Zimmers, ohne auf etwas zu stoßen), ist unmenschlich.

Eine ziemlich verschiedene Annäherung misst Maschinenintelligenz durch Tests, die aus mathematischen Definitionen der Intelligenz entwickelt werden. Beispiele dieser Arten von Tests fangen gegen Ende der neunziger Jahre an, Nachrichtendiensttests mit Begriffen von der Kompliziertheit von Kolmogorov und Datenkompression ausdenkend. Zwei Hauptvorteile von mathematischen Definitionen sind ihre Anwendbarkeit auf nichtmenschlichen intelligences und ihre Abwesenheit einer Voraussetzung für menschliche Prüfer.

Anwendungen

Techniken der künstlichen Intelligenz sind durchdringend und sind zu zahlreich, um Schlagseite zu haben. Oft, wenn eine Technik Hauptströmungsgebrauch erreicht, wird es als künstliche Intelligenz nicht mehr betrachtet; dieses Phänomen wird als die AI Wirkung beschrieben.

Konkurrenzen und Preise

Es gibt mehrere Konkurrenzen und Preise, um Forschung in der künstlichen Intelligenz zu fördern. Die geförderten Hauptgebiete sind: allgemeine Maschinenintelligenz, Unterhaltungsverhalten, Datenbergwerk, driverless Autos, Roboter-Fußball und Spiele.

Plattformen

Eine Plattform (oder "Rechenplattform") werden als "eine Art Hardware-Architektur oder Softwarefachwerk definiert (einschließlich des Anwendungsfachwerks), der Software erlaubt zu laufen." Wie Rodney Brooks vor vielen Jahren darauf hingewiesen hat, ist es nicht nur die Software der künstlichen Intelligenz, die die AI Eigenschaften der Plattform definiert, aber eher die wirkliche Plattform selbst, die den AI betrifft, der resultiert, d. h., muss es Arbeit in AI Problemen auf wirklichen Plattformen aber nicht in der Isolierung geben.

Ein großes Angebot an Plattformen hat verschiedenen Aspekten von AI erlaubt, sich, im Intervall von Expertensystemen, obgleich PC-basiert, aber noch ein komplettes wirkliches System zu verschiedenen Roboter-Plattformen wie weit verfügbarer Roomba mit der offenen Schnittstelle zu entwickeln.

Philosophie

Künstliche Intelligenz, indem sie behauptet wird im Stande zu sein, die Fähigkeiten zum Menschenverstand zu erfrischen, ist sowohl eine Herausforderung als auch eine Inspiration für die Philosophie. Dort beschränkt sind dazu, wie intelligente Maschinen sein können? Gibt es einen wesentlichen Unterschied zwischen menschlichem Nachrichtendienst und künstlicher Intelligenz? Kann eine Maschine eine Meinung und Bewusstsein haben? Einige der einflussreichsten Antworten auf diese Fragen werden unten gegeben.

Die "höfliche Tagung von Turing": Wir brauchen nicht zu entscheiden, ob eine Maschine "denken" kann; wir müssen nur entscheiden, ob eine Maschine so intelligent handeln kann wie ein Mensch. Diese Annäherung an die philosophischen mit der künstlichen Intelligenz vereinigten Probleme bildet die Basis des Tests von Turing.

Der Dartmouth Vorschlag: "Jeder Aspekt des Lernens oder jede andere Eigenschaft der Intelligenz können so genau beschrieben werden, dass eine Maschine gemacht werden kann, es vorzutäuschen." Diese Vermutung wurde im Vorschlag für die Dartmouth Konferenz von 1956 gedruckt, und vertritt die Position von am meisten arbeitenden AI Forschern.

Newell und die physische Symbol-Systemhypothese von Simon: "Ein physisches Symbol-System hat die notwendigen und genügend Mittel der allgemeinen intelligenten Handlung." Newell und Simon behaupten, dass intelligences aus formellen Operationen auf Symbolen bestehen. Hubert Dreyfus hat behauptet, dass, im Gegenteil, menschliches Gutachten von unbewusster belebter aber nicht bewusster Symbol-Manipulation abhängt und davon ein "Gefühl" für die Situation aber nicht ausführlichen symbolischen Kenntnisse zu haben. (Sieh die Kritik von Dreyfus von AI.)

Der Unvollständigkeitslehrsatz von Gödel: Ein formelles System (wie ein Computerprogramm) kann alle wahren Behauptungen nicht beweisen. Roger Penrose ist unter denjenigen, die behaupten, dass der Lehrsatz von Gödel beschränkt, was Maschinen tun können. (Sieh die Neue Meinung des Kaisers.)

Die starke AI Hypothese von Searle: "Der passend programmierte Computer mit den richtigen Eingängen und Produktionen würde eine Meinung in genau denselben Sinnmenschen dadurch haben haben Meinungen." John Searle entgegnet diese Behauptung mit seinem chinesischen Raumargument, das uns bittet, innerhalb des Computers zu schauen und zu versuchen, zu finden, wo die "Meinung" sein könnte.

Das künstliche Gehirnargument: Das Gehirn kann vorgetäuscht werden. Hans Moravec, Ray Kurzweil und andere haben behauptet, dass es technologisch ausführbar ist, das Gehirn direkt in die Hardware und Software zu kopieren, und dass solch eine Simulation zum Original im Wesentlichen identisch sein wird.

Vorhersagen und Ethik

Künstliche Intelligenz ist ein allgemeines Thema sowohl in der Sciencefiction als auch in den Vorsprüngen über die Zukunft der Technologie und Gesellschaft. Die Existenz einer künstlichen Intelligenz, dass Rivale-Mensch-Intelligenz schwierige Moralthemen und die potenzielle Macht der Technologie aufbringt, begeistert sowohl Hoffnungen als auch Ängste.

In der Fiktion ist Künstliche Intelligenz erfüllend vieler Rollen einschließlich geschienen

ein Diener (R2D2 in Star Wars),

ein Gesetz enforcer (K.I.T.T. "Knight Rider"),

ein Kamerad (Leutnant-Kommandant Daten in),

ein Eroberer/Oberherr (Die Matrix),

ein Diktator (Mit Gefalteten Händen),

ein wohltätiger Versorger / der de facto Herrscher (Die Kultur),

ein Mörder (Terminator),

eine empfindungsfähige Rasse (Battlestar Galactica/Transformers),

eine Erweiterung auf menschliche geistige Anlagen (Geist in Shell)

und der Retter der menschlichen Rasse (R. Daneel Olivaw in der Roboter-Reihe von Isaac Asimov).

Frankenstein von Mary Shelley denkt ein Schlüsselproblem in der Ethik der künstlichen Intelligenz: Wenn eine Maschine geschaffen werden kann, der hat Intelligenz, konnte es sich auch fühlen? Wenn es sich fühlen kann, hat es dieselben Rechte wie ein Mensch? Die Idee erscheint auch in der modernen Sciencefiction, einschließlich der Filme I Roboter, Klinge-Läufer und, in dem humanoid Maschinen in der Lage sind, menschliche Gefühle zu fühlen. Dieses Problem, das jetzt als "Roboter-Rechte" bekannt ist, wird zurzeit durch, zum Beispiel, Kaliforniens Institut für die Zukunft betrachtet, obwohl viele Kritiker glauben, dass die Diskussion vorzeitig ist. Das Thema wird im 2010-Dokumentarfilm Stecker tief besprochen, & Beten.

Martin Ford, Autor Der Lichter im Tunnel: Automation, Technologie und die Wirtschaft der Zukunft Beschleunigend, und behaupten andere, dass spezialisierte Anwendungen der künstlichen Intelligenz, Robotertechnik und andere Formen der Automation auf bedeutende Arbeitslosigkeit schließlich hinauslaufen werden, weil Maschinen beginnen, die Fähigkeit zu Arbeitern zu vergleichen und zu überschreiten, die meisten alltäglichen und wiederholenden Jobs durchzuführen. Ford sagt voraus, dass viele wissensbasierte Berufe — und in besonderen Zugang-Niveau-Jobs — gegen die Automation über Expertensysteme, das Maschinenlernen und die anderen AI-enhanced Anwendungen immer empfindlicher sein werden. AI-basierte Anwendungen können auch verwendet werden, um die Fähigkeiten zu Niedriglohnauslandsarbeitern zu verstärken, es mehr ausführbar machend, Kenntnisse-Arbeit auszugliedern.

Joseph Weizenbaum hat geschrieben, dass AI Anwendungen definitionsgemäß echte menschliche Empathie nicht erfolgreich vortäuschen können, und dass der Gebrauch der AI Technologie in Feldern wie Kundendienst oder Psychotherapie tief fehlgeleitet wurde. Weizenbaum wurde auch belästigt, dass AI Forscher (und einige Philosophen) bereit waren, den Menschenverstand als nichts anderes als ein Computerprogramm (eine Position jetzt bekannt als computationalism) anzusehen. Weizenbaum weisen diese Punkte darauf hin, dass AI Forschung menschliches Leben abwertet.

Viele Futuristen glauben, dass künstliche Intelligenz die Grenzen des Fortschritts schließlich überschreiten wird. Ray Kurzweil hat das Gesetz von Moore verwendet (der die unbarmherzige Exponentialverbesserung in der Digitaltechnologie beschreibt), dieser zu rechnen, werden Tischcomputer dieselbe in einer Prozession gehende Macht wie menschlicher Verstand vor dem Jahr 2029 haben. Er sagt auch voraus, dass vor 2045 künstliche Intelligenz einen Punkt erreichen wird, wo sie im Stande ist, sich an einer Rate zu verbessern, die weit irgendetwas Denkbares in der Vergangenheit, ein Drehbuch überschreitet, dass Sciencefictionsschriftsteller Vernor Vinge die "Eigenartigkeit" genannt hat.

Roboter-Entwerfer Hans Moravec, Kybernetiker Kevin Warwick und Erfinder Ray Kurzweil haben vorausgesagt, dass sich Menschen und Maschinen mit der Zukunft in cyborgs verschmelzen werden, die fähiger und stark sind als auch. Diese Idee, genannt transhumanism, der Wurzeln in Aldous Huxley und Robert Ettinger hat, ist in der Fiktion ebenso, zum Beispiel im manga Geist in Shell und der Sciencefictionsreihe-Düne illustriert worden.

Edward Fredkin behauptet, dass "künstliche Intelligenz die folgende Bühne in der Evolution", eine Idee ist, die zuerst von "Darwin von Samuel Butler unter den Maschinen" (1863) vorgeschlagen ist, und auf durch George Dyson in seinem Buch desselben Namens 1998 ausgebreitet ist.

Pamela McCorduck schreibt, dass alle diese Drehbücher Ausdrücke des alten menschlichen Wunsches dazu sind, wie sie ihn nennt, "schmieden Sie die Götter".

Siehe auch

Zeichen

Lehrbücher von AI

Geschichte von AI

Nilsson, Null (2010), Die Suche nach der Künstlichen Intelligenz: Eine Geschichte von Ideen und Ergebnissen, New York, New York: Universität von Cambridge Presse, internationale Standardbuchnummer 978-0-52112-293

Andere Quellen

. . . . .
  • Präsidentenadresse zur Vereinigung für die Förderung der künstlichen Intelligenz.
.

Weiterführende Literatur

  • Artikel-Reihe von TechCast, John Sagi, Bewusstsein einrahmend
  • Boden, Margaret, Meinung Als Maschine, Presse der Universität Oxford, 2006
  • Johnston, John (2008) "Die Allüre des Machinic Lebens: Kybernetik, künstliches Leben und der neue AI", MIT-Presse
  • Myers, Hrsg. von Courtney Boyd (2009). Der AI-Bericht. Juni 2009 von Forbes
  • Sonne, R. & Büchermensch, L. (Hrsg.). Rechenbetonte Architekturen: Integrierung Symbolischer und Nervenprozesse. Kluwer Akademische Herausgeber, Needham, Massachusetts 1994.

Außenverbindungen

  • Was Ist AI? — Eine Einführung in die künstliche Intelligenz durch den AI Gründer John McCarthy.
  • AITopics — Ein großes Verzeichnis von Verbindungen und anderen Mitteln, die von der Vereinigung für die Förderung der Künstlichen Intelligenz, der Hauptorganisation von akademischen AI Forschern aufrechterhalten sind.
  • Diskussionsgruppe der Künstlichen Intelligenz

Akkordeon / Afro keltische Tonanlage
Impressum & Datenschutz