Chinesisches Zimmer

Das chinesische Zimmer ist ein von John Searle präsentiertes Gedanke-Experiment. Nehmen Sie an, dass es ein Programm gibt, das einem Computer die Fähigkeit gibt, ein intelligentes Gespräch in schriftlichen Chinesen fortzusetzen. Wenn wir das Programm jemandem geben, der nur Englisch spricht, um die Instruktionen des Programms mit der Hand durchzuführen, dann, in der Theorie, würde der englische Sprecher auch im Stande sein, ein Gespräch in schriftlichen Chinesen fortzusetzen. Jedoch würde der englische Sprecher nicht im Stande sein, das Gespräch zu verstehen. Ähnlich hört Searle auf, ein Computer, der das Programm durchführt, würde das Gespräch auch nicht verstehen.

Das Experiment ist das Mittelstück des chinesischen Raumarguments von Searle, das meint, dass ein Programm keinem Computer eine "Meinung", "das Verstehen" oder "Bewusstsein", unabhängig davon geben kann, wie intelligent es es sich kann benehmen lassen. Das Argument wird gegen die philosophischen Positionen des Funktionalismus und computationalism geleitet, die meinen, dass die Meinung als eine Informationsverarbeitungssystembedienung auf formellen Symbolen angesehen werden kann. Obwohl es in der Reaktion zu den Behauptungen von Forschern der künstlichen Intelligenz ursprünglich präsentiert wurde, ist es nicht ein Argument gegen die Absichten der AI Forschung, weil es den Betrag der Intelligenz nicht beschränkt, die eine Maschine zeigen kann. Das Argument gilt nur für Digitalcomputer und gilt für Maschinen im Allgemeinen nicht.

Das Argument von Searle ist zuerst in seiner Zeitung "Meinungen, Verstand und Programme erschienen" hat in Verhaltens- und Gehirnwissenschaften 1980 veröffentlicht. Es ist in den Jahren seitdem weit kritisiert worden.

Chinesisches Zimmer hat Experiment gedacht

Das Gedanke-Experiment von Searle beginnt mit dieser hypothetischen Proposition: Nehmen Sie an, dass Forschung der künstlichen Intelligenz geschafft hat, einen Computer zu bauen, der sich benimmt, als ob sie Chinesisch versteht. Es nimmt chinesische Charaktere als Eingang und, durch den folgenden die Instruktionen eines Computerprogramms, erzeugt andere chinesische Charaktere, die es als Produktion präsentiert. Denken Sie, sagt Searle, dass dieser Computer seine Aufgabe so überzeugend durchführt, dass er bequem den Test von Turing besteht: Es überzeugt einen menschlichen chinesischen Sprecher, dass das Programm selbst ein lebender chinesischer Sprecher ist. Zu allen Fragen, die die Person stellt, macht es passende Antworten, solch, dass jeder chinesische Sprecher überzeugt wäre, dass er oder sie mit einem anderen chinesisch sprechenden Menschen spricht.

Die Frage, auf die Searle antworten will, ist das: "Versteht" die Maschine Chinesisch wörtlich? Oder täuscht es die Fähigkeit bloß vor, Chinesisch zu verstehen? Searle nennt die erste Position "starken AI" und den letzten "schwachen AI".

Searle nimmt dann an, dass er in einem geschlossenen Zimmer ist und ein Buch mit einer englischen Version des Computerprogramms, zusammen mit genügend Papier, Bleistiften, Radiergummis und Aktenschränken hat. Searle konnte chinesische Charaktere durch ein Ablagefach in der Tür erhalten, sie gemäß den Instruktionen des Programms bearbeiten, und chinesische Charaktere als Produktion erzeugen. Da der Computer den Test von Turing dieser Weg bestanden hatte, ist es schön, sagt Searle, um abzuleiten, dass er im Stande sein würde, so als zu tun so, indem einfach er das Programm manuell führt.

Searle behauptet, dass es keinen wesentlichen Unterschied zwischen der Rolle die Computerspiele im ersten Fall und der Rolle gibt, die er in den Letzteren spielt. Jeder folgt einfach einem Programm, schrittweise, der intelligentes Verhalten vortäuscht. Und noch weist Searle hin, "Ich spreche kein Wort des Chinesisch." Da er Chinesisch nicht versteht, streitet Searle, wir müssen ableiten, dass der Computer Chinesisch auch nicht versteht.

Searle behauptet, dass ohne "zu verstehen" (was Philosophen "intentionality" nennen) wir nicht beschreiben können, was die Maschine als "das Denken" tut. Da es nicht denkt, hat es keine "Meinung" in nichts wie die normale Bedeutung des Wortes gemäß Searle. Deshalb hört er auf, "starker AI" ist falsch.

Geschichte

Das Argument von Searle ist zuerst in seiner Zeitung "Meinungen, Verstand und Programme erschienen" hat in Verhaltens- und Gehirnwissenschaften 1980 veröffentlicht. Es ist schließlich der "einflussreichste Zielartikel der Zeitschrift" geworden, eine riesige Menge von Kommentaren und Antworten in den folgenden Jahrzehnten erzeugend. David Cole schreibt, dass "das chinesische Raumargument wahrscheinlich das am weitesten besprochene philosophische Argument in der Erkenntnistheorie gewesen ist, um in in den letzten 25 Jahren zu erscheinen."

Der grösste Teil der Diskussion besteht aus Versuchen, es zu widerlegen. "Die überwältigende Mehrheit," bemerkt der BBS Redakteur Stevan Harnad, "denken noch, dass das chinesische Raumargument totes Unrecht ist." Das bloße Volumen der Literatur, die darum aufgewachsen ist, hat Pat Hayes angeregt zu witzeln, dass das Feld der Erkenntnistheorie als "das andauernde Forschungsprogramm wiederdefiniert werden sollte, das chinesische Raumargument von Searle zu zeigen, um falsch zu sein."

Das Papier ist "etwas eines Klassikers in der Erkenntnistheorie," gemäß Harnad geworden. Varol Akman stimmt zu, und hat das Papier von Searle als "ein Vorbild der philosophischen Klarheit und Reinheit" beschrieben.

Philosophie

Obwohl das chinesische Raumargument in der Reaktion zu den Behauptungen von AI Forschern ursprünglich präsentiert wurde, sind Philosophen gekommen, um es als ein wichtiger Teil der Philosophie der Meinung anzusehen. Es ist eine Herausforderung an den Funktionalismus und die rechenbetonte Theorie der Meinung, und ist mit solchen Fragen wie das Meinungskörper-Problem, das Problem anderer Meinungen, das Symbol niederlegende Problem und das harte Problem des Bewusstseins verbunden.

Starker AI

Searle hat eine philosophische Position identifiziert, die er "starken AI" nennt:

Die Definition hängt von der Unterscheidung zwischen Simulieren einer Meinung ab und wirklich eine Meinung zu haben. Searle schreibt, dass "gemäß Starkem AI die richtige Simulation wirklich eine Meinung ist. Gemäß Schwachem AI ist die richtige Simulation ein Modell der Meinung."

Die Position ist in einigen der Behauptungen von frühen AI Forschern und Analytikern implizit. Zum Beispiel, 1955, hat AI Gründer Herbert Simon erklärt, dass "es jetzt in den Weltmaschinen gibt, die denken, die erfahren und schaffen" und behauptet haben, dass sie das ehrwürdige Meinungskörper-Problem "behoben hatten, erklärend, wie ein aus der Sache zusammengesetztes System die Eigenschaften der Meinung haben kann." John Haugeland hat geschrieben, dass "AI nur den echten Artikel will: Maschinen mit Meinungen, im vollen und wörtlichen Sinn. Das ist nicht Sciencefiction, aber echte Wissenschaft, die auf einer theoretischen Vorstellung so tief gestützt ist, wie es sich traut: Nämlich sind wir, an der Wurzel, Computer selbst."

Searle schreibt auch die folgenden Positionen Verfechtern von starkem AI zu:

  • AI Systeme können verwendet werden, um die Meinung zu erklären;
  • Die Studie des Gehirns ist für die Studie der Meinung irrelevant; und
  • Der Turing-Test ist dafür entsprechend, die Existenz von geistigen Staaten zu gründen.

Starker AI als computationalism oder Funktionalismus

In neueren Präsentationen des chinesischen Raumarguments hat Searle "starken AI" als "Computerfunktionalismus" identifiziert (ein Begriff, den er Daniel Dennett zuschreibt). Funktionalismus ist eine Position in der modernen Philosophie der Meinung, die meint, dass wir geistige Phänomene (wie Glaube, Wünsche und Wahrnehmungen) definieren können, indem wir ihre Funktionen in Bezug auf einander und zur Außenwelt beschreiben. Weil ein Computerprogramm funktionelle Beziehungen genau vertreten kann, weil Beziehungen zwischen Symbolen, ein Computer geistige Phänomene haben kann, wenn es das richtige Programm gemäß dem Funktionalismus führt.

Stevan Harnad behauptet, dass die Bilder von Searle von starkem AI als "erkennbare Doktrinen von computationalism, eine Position wiederformuliert werden können (verschieden von 'starkem AI'), der wirklich von vielen Denkern, und folglich einem gehalten wird, den sich es lohnt zu widerlegen." Computationalism ist die Position in der Philosophie der Meinung, die behauptet, dass die Meinung als ein Information bearbeitendes System genau beschrieben werden kann.

Jeder der folgenden, gemäß Harnad, ist eine "Doktrin" von computationalism:

  • Geistige Staaten sind rechenbetonte Staaten (der ist, warum Computer geistige Staaten haben und helfen können, die Meinung zu erklären);
  • Rechenbetonte Staaten sind — mit anderen Worten mit der Durchführung unabhängig, es ist die Software, die den rechenbetonten Staat, nicht die Hardware bestimmt (der ist, warum das Gehirn, Hardware seiend, irrelevant ist); und das
  • Da Durchführung, die einzigen empirischen Daten unwichtig ist, dass Sachen sind, wie das System fungiert; folglich ist der Test von Turing endgültig.

Starker AI gegen den biologischen Naturalismus

Searle hält eine philosophische Position, die er "biologischen Naturalismus" nennt: Dieses Bewusstsein und das Verstehen verlangen spezifische biologische Maschinerie, die im Verstand gefunden wird. Er schreibt "Gehirnursache-Meinungen", und dass "wirkliche menschliche geistige Phänomene von wirklichen physisch-chemischen Eigenschaften des wirklichen menschlichen Verstands abhängig sind". Searle behauptet, dass diese Maschinerie (bekannt neuroscience als die "Nervenkorrelate des Bewusstseins") einige (unangegebene) "kausale Mächte" haben muss, die die menschliche Erfahrung des Bewusstseins erlauben. Der Glaube von Searle an die Existenz dieser Mächte ist kritisiert worden.

Searle stimmt überein, dass Maschinen Bewusstsein und das Verstehen haben können, weil, wie er schreibt, "sind wir genau solche Maschinen". Searle meint, dass das Gehirn, tatsächlich, eine Maschine ist, aber das Gehirn verursacht Bewusstsein und das Verwenden der Maschinerie verstehend, die nichtrechenbetont ist. Wenn neuroscience im Stande ist, den mechanischen Prozess zu isolieren, der Bewusstsein verursacht, dann gibt Searle zu, dass es möglich sein kann, Maschinen zu schaffen, die Bewusstsein und das Verstehen haben. Jedoch, ohne die spezifische erforderliche Maschinerie, glaubt Searle nicht, dass Bewusstsein vorkommen kann.

Biologischer Naturalismus deutet an, dass man nicht bestimmen kann, ob die Erfahrung des Bewusstseins bloß durch das Überprüfen vorkommt, wie ein System fungiert, weil die spezifische Maschinerie des Gehirns notwendig ist. So ist biologischer Naturalismus sowohl dem Behaviorismus als auch Funktionalismus (einschließlich des "Computerfunktionalismus" oder "starken AI") direkt entgegengesetzt. Biologischer Naturalismus ist der Identitätstheorie ähnlich (die Position, dass geistige Staaten zu "identisch" oder aus" neurologischen Ereignissen "zusammengesetzt sind), jedoch hat Searle spezifische technische Einwände gegen die Identitätstheorie. Der biologische Naturalismus von Searle und starker AI sind dem Kartesianischen Dualismus, die klassische Idee sowohl entgegengesetzt, dass das Gehirn als auch die Meinung aus verschiedenen "Substanzen" gemacht werden. Tatsächlich klagt Searle starken AI des Dualismus an, schreibend, dass "starker AI nur Sinn gegeben die dualistische Annahme hat, dass, wo die Meinung betroffen wird, das Gehirn egal ist."

Informatik

Das chinesische Raumargument ist in erster Linie ein Argument in der Philosophie der Meinung und Hauptcomputerwissenschaftler, und Forscher der künstlichen Intelligenz betrachten es als irrelevant für ihre Felder. Jedoch sind mehrere von Computerwissenschaftlern entwickelte Konzepte für das Verstehen des Arguments, einschließlich der Symbol-Verarbeitung, Maschinen von Turing, Vollständigkeit von Turing und des Tests von Turing notwendig.

Starker AI dagegen. AI Forschung

Die Argumente von Searle werden als kein Problem für die AI Forschung gewöhnlich betrachtet. Stuart Russell und Peter Norvig bemerken, dass sich die meisten AI Forscher "über die starke AI Hypothese — so lange die Programm-Arbeiten nicht sorgen, sorgen sie sich nicht, ob Sie es eine Simulation der Intelligenz oder echten Intelligenz nennen." Die primäre Mission der Forschung der künstlichen Intelligenz ist nur, nützliche Systeme zu schaffen, die intelligent handeln, und es nicht von Bedeutung ist, wenn die Intelligenz "bloß" eine Simulation ist. Die chinesischen Raumargument-Blätter öffnen die Möglichkeit, dass eine Digitalmaschine gebaut werden konnte, dass Taten, die intelligenter sind als eine Person, aber keine Meinung oder intentionality ebenso hat, dass Verstand tut. Tatsächlich schreibt Searle, dass "das chinesische Raumargument... ganzen Erfolg seitens der künstlichen Intelligenz im Simulieren des menschlichen Erkennens annimmt."

Der "starke AI von Searle" sollte mit "starkem AI", wie definiert, von Ray Kurzweil und anderen Futuristen nicht verwirrt sein, die den Begriff gebrauchen, um Maschinenintelligenz zu beschreiben, dass Rivalen oder menschliche Intelligenz überschreiten. Kurzweil wird in erster Linie mit dem Betrag der durch die Maschine gezeigten Intelligenz betroffen, wohingegen das Argument von Searle keine Grenze dazwischen festlegt, so lange es verstanden wird, dass es eine Simulation und nicht das echte Ding ist.

Symbol-Verarbeitung

Das chinesische Zimmer (und alle modernen Computer) manipuliert physische Gegenstände, um Berechnungen auszuführen und Simulationen zu tun. AI Forscher Allen Newell und Herbert Simon haben diese Art der Maschine ein physisches Symbol-System genannt. Es ist auch zu den formellen im Feld der mathematischen Logik verwendeten Systemen gleichwertig. Searle betont die Tatsache, dass diese Art der Symbol-Manipulation (das Borgen eines Begriffes von der Studie der Grammatik) syntaktisch ist. Der Computer manipuliert die Symbole mit einer Form von Syntax-Regeln, ohne irgendwelche Kenntnisse der Semantik des Symbols (d. h. ihre Bedeutung).

Chinesisches Zimmer als eine Maschine von Turing

Das chinesische Zimmer hat ein diesem eines modernen Computers analoges Design. Es hat eine Architektur von Von Neumann, die aus einem Programm (das Buch von Instruktionen), etwas Gedächtnis (die Papiere und Dateikabinette), eine Zentraleinheit besteht, die den Instruktionen (der Mann), und ein Mittel folgt, Symbole im Gedächtnis (der Bleistift und Radiergummi) zu schreiben. Eine Maschine mit diesem Design ist in der theoretischen Informatik als "abgeschlossener Turing" bekannt, weil es die notwendige Maschinerie hat, um jede Berechnung auszuführen, die eine Maschine von Turing tun kann, und deshalb es dazu fähig ist, eine schrittweise Simulation jeder anderen Digitalmaschine, in Anbetracht genug Gedächtnisses und Zeit zu tun. Alan Turing schreibt, "alle Digitalcomputer sind gewissermaßen gleichwertig." Mit anderen Worten kann das chinesische Zimmer tun, dass jeder andere Digitalcomputer (obgleich viel, viel langsamer) tun kann. Die weit akzeptierte Kirch-Turing-These meint, dass jede durch ein wirksames Verfahren berechenbare Funktion durch eine Maschine von Turing berechenbar ist.

Es gibt einige Kritiker wie Hanoch Ben-Yami, die behaupten, dass das chinesische Zimmer alle geistigen Anlagen eines Digitalcomputers nicht vortäuschen kann.

Test von Turing

Der Test von Turing ist ein Test einer Fähigkeit einer Maschine, intelligentes Verhalten auszustellen. Im ursprünglichen veranschaulichenden Beispiel von Alan Turing beschäftigt sich ein menschlicher Richter mit einem Gespräch der natürlichen Sprache mit einem Menschen, und eine Maschine hat vorgehabt, von diesem eines Menschen nicht zu unterscheidende Leistung zu erzeugen. Alle Teilnehmer werden von einander getrennt. Wenn der Richter die Maschine vom Menschen nicht zuverlässig erzählen kann, wie man sagt, hat die Maschine den Test bestanden.

Ganzes Argument

Searle hat eine mehr formelle Version des Arguments erzeugt, dessen das chinesische Zimmer einen Teil bildet. Er hat die erste Version 1984 präsentiert. Die Version, die unten gegeben ist, ist von 1990. Der einzige Teil des Arguments, das umstritten sein sollte, ist A3, und es ist dieser Punkt, der das chinesische Zimmer gedacht hat, dass Experiment beabsichtigt ist, um sich zu erweisen.

Er beginnt mit drei Axiomen:

: (A1) "Programme sind (syntaktisch) formell."

:: Ein Programm verwendet Syntax, um Symbole zu manipulieren, und schenkt keine Aufmerksamkeit der Semantik der Symbole. Es weiß, wohin man die Symbole stellt, und wie man sie bewegt, aber es weiß nicht, wofür sie eintreten, oder was sie vorhaben. Für das Programm sind die Symbole gerade physische Gegenstände wie irgendwelcher andere.

: (A2) "Meinungen haben geistigen Inhalt (Semantik)."

:: Verschieden von den durch ein Programm verwendeten Symbolen haben unsere Gedanken Bedeutung: Sie vertreten Dinge, und wir wissen, was es ist, vertreten sie.

: (A3) "Syntax ist allein davon weder bestimmend noch für die Semantik genügend."

:: Das ist, was das chinesische Raumargument beabsichtigt ist, um zu beweisen: Das chinesische Zimmer hat Syntax (weil es einen Mann in dort sich bewegenden Symbolen gibt). Das chinesische Zimmer hat keine Semantik (weil, gemäß Searle, es gibt keinen oder nichts im Zimmer, das versteht, was die Symbole bedeuten). Deshalb Syntax zu haben, ist nicht genug, um Semantik zu erzeugen.

Searle postuliert das diese führen direkt zu diesem Beschluss:

: (C1) Programme sind davon weder bestimmend noch für Meinungen genügend.

:: Das sollte ohne Meinungsverschiedenheit von den ersten drei folgen: Programme haben Semantik nicht. Programme haben nur Syntax, und Syntax ist für die Semantik ungenügend. Jede Meinung hat Semantik. Deshalb sind Programme nicht Meinungen.

Das viel vom Argument ist beabsichtigt, um zu zeigen, dass künstliche Intelligenz eine Maschine mit einer Meinung durch das Schreiben von Programmen nie erzeugen wird, die Symbole manipulieren. Der Rest des Arguments richtet ein verschiedenes Problem. Führt das menschliche Gehirn ein Programm? Mit anderen Worten, ist die rechenbetonte Theorie der richtigen Meinung? Er beginnt mit einem Axiom, das beabsichtigt ist, um die grundlegende moderne wissenschaftliche Einigkeit über den Verstand und die Meinungen auszudrücken:

: (A4) Verstand verursachen Meinungen.

Searle behauptet, dass wir "sofort" und "trivial" dass abstammen können:

: (C2) Jedes andere System, das dazu fähig ist, Meinungen zu verursachen, würde kausale zu denjenigen des Verstands (mindestens) gleichwertige Mächte haben müssen.

:: Verstand muss etwas haben, was eine Meinung veranlasst zu bestehen. Wissenschaft muss noch genau bestimmen, wie es ist, aber es muss bestehen, weil Meinungen bestehen. Searle nennt es "kausale Mächte". "Kausale Mächte" sind dass der Gehirngebrauch, eine Meinung zu schaffen. Wenn irgend etwas anderes eine Meinung veranlassen kann zu bestehen, muss sie "gleichwertige kausale Mächte" haben. "Gleichwertige kausale Mächte" sind, dass sonst, der verwendet werden konnte, um eine Meinung zu machen.

Und davon leitet er die weiteren Beschlüsse ab:

: (C3) Jedes Kunsterzeugnis, das geistige Phänomene, jedes künstliche Gehirn erzeugt hat, würde im Stande sein müssen, die spezifischen kausalen Mächte des Verstands zu kopieren, und es konnte das gerade durch das Laufen eines formellen Programms nicht tun.

:: Das folgt aus C1 und C2: Da kein Programm eine Meinung erzeugen kann, und "gleichwertige kausale Mächte" Meinungen erzeugen, hieraus folgt dass Programme "gleichwertige kausale Mächte nicht haben."

: (C4) Die Weise, wie menschlicher Verstand wirklich geistige Phänomene erzeugt, kann nicht allein auf Grund vom Laufen eines Computerprogramms sein.

:: Da Programme "gleichwertige kausale Mächte nicht haben" "erzeugen gleichwertige kausale Mächte" Meinungen, und Verstand Meinungen erzeugt, hieraus folgt dass Verstand Programme nicht verwendet, um Meinungen zu erzeugen.

Antworten

Antworten zum Argument von Searle können gemäß klassifiziert werden, was sie behaupten zu zeigen:

  • Diejenigen, die sich identifizieren, wer Chinesisch spricht;
  • Diejenigen, die demonstrieren, wie sinnlose Symbole bedeutungsvoll werden können;
  • Diejenigen, die vorschlagen, dass das chinesische Zimmer irgendwie neu entworfen werden sollte;
  • Diejenigen, die behaupten, dass das Argument von Searle irreführend ist; und
  • Diejenigen, die behaupten, dass das Argument falsche Annahmen über die subjektive bewusste Erfahrung macht und deshalb nichts beweist.

Einige der Argumente (Roboter und Gehirnsimulation, zum Beispiel) fallen in vielfache Kategorien.

System und virtuelle Meinungsantworten: Entdeckung der Meinung

Diese Antworten versuchen, auf die Frage zu antworten: Da der Mann im Zimmer Chinesisch nicht spricht, wo ist die "Meinung", die tut? Diese Antworten richten den Schlüssel ontologische Probleme der Meinung gegen den Körper und Simulation gegen die Wirklichkeit. Alle Antworten, die die Meinung im Zimmer identifizieren, sind Versionen "der Systemantwort".

Systemantwort: Die grundlegende "Systemantwort" behauptet, dass es das "ganze System" ist, das Chinesisch versteht. Während der Mann nur Englisch versteht, wenn er mit dem Programm, dem Schmierpapier, den Bleistiften und den Dateikabinetten verbunden wird, bilden sie ein System, das Chinesisch verstehen kann. "Hier wird das Verstehen der bloßen Person nicht zugeschrieben; eher wird es diesem ganzen System zugeschrieben, dessen er ein Teil" Searle ist, erklärt. Die Tatsache, dass Mann Chinesisch nicht versteht, ist irrelevant, weil es nur das System als Ganzes der Sachen ist.

:Searle bemerkt, dass (in dieser einfachen Version der Systemantwort) es nichts anderes als eine Liste von physischen Gegenständen gibt; es gewährt die Macht des Verstehens und Bewusstseins "zur Verbindung dieser Person und den Bit Papier". Searle antwortet, indem er die Liste von physischen Gegenständen vereinfacht: Er fragt was geschieht, wenn sich der Mann die Regeln einprägt und alles in seinem Kopf nachgeht? Dann besteht das ganze System aus gerade einem Gegenstand: der Mann selbst. Searle behauptet, dass, wenn der Mann Chinesisch dann nicht versteht, das System Chinesisch keiner und die Tatsache versteht, dass der Mann scheint zu verstehen, dass Chinesisch nichts beweist. Kritiker der Antwort von Searle behaupten, dass das Programm dem Mann erlaubt hat, zwei Meinungen in einem Kopf zu haben.

Hoch entwickeltere Versionen der Systemantwort versuchen, genauer zu identifizieren, was "das System" ist und sie sich in genau unterscheiden, wie sie es beschreiben. Gemäß diesen Antworten konnte die "Meinung, die Chinesisch spricht", solche Dinge sein wie: Die "Software", ein "Programm", ein "laufendes Programm", eine Simulation der "Nervenkorrelate des Bewusstseins", das "funktionelle System", eine "vorgetäuschte Meinung", ein "auftauchendes Eigentum", oder "eine virtuelle Meinung" (die Version von Marvin Minsky der Systemantwort, die unten beschrieben ist).

Virtuelle Meinungsantwort: Der Begriff "virtueller" wird in der Informatik gebraucht, um einen Gegenstand zu beschreiben, der scheint, "in" einem Computer zu bestehen (oder Computernetz), nur weil Software es scheinen lässt zu bestehen. Die Gegenstände "innerhalb" von Computern (einschließlich Dateien, Mappen, und so weiter) sind alle abgesehen von den elektronischen Bestandteilen des Computers "virtuell". Ähnlich streitet Minsky, ein Computer kann eine "Meinung" enthalten, die in demselben Sinn wie virtuelle Maschinen, virtuelle Gemeinschaften und virtuelle Realität virtuell ist.

:To klären, dass die Unterscheidung zwischen der einfachen Systemantwort, die oben und virtueller Meinungsantwort, David Cole gegeben ist, bemerkt, dass zwei Simulationen auf einem System zur gleichen Zeit laufen konnten; ein sprechender Chinese und ein sprechender Koreaner. Während es nur ein System gibt, kann es vielfache "virtuelle Meinungen geben."

:Searle antwortet, dass solch eine Meinung, bestenfalls, eine Simulation ist und schreibt: "Keiner nimmt an, dass Computersimulationen eines Fünf-Warnungen-Feuers die Nachbarschaft niederbrennen werden, oder dass eine Computersimulation eines stürmischen Regenwetters uns alle durchnässt verlassen wird." Nicholas Fearn antwortet, dass, für einige Dinge, Simulation so gut ist wie das echte Ding. "Wenn wir die Taschenrechenmaschine-Funktion auf einem Tischcomputer aufrufen, erscheint das Image einer Taschenrechenmaschine auf dem Schirm. Wir beklagen uns nicht, dass 'es nicht wirklich eine Rechenmaschine ist', weil die physischen Attribute des Geräts nicht von Bedeutung sind." Die Frage ist, ist der Menschenverstand wie die Taschenrechenmaschine, die im Wesentlichen aus der Information zusammengesetzt ist? Oder ist die Meinung wie das stürmische Regenwetter, etwas anderes als ein Computer, und nicht realisierbar vollständig durch eine Computersimulation? (Das Problem der Simulation wird auch im Artikel synthetische Intelligenz besprochen.)

Diese Antworten stellen eine Erklärung genau zur Verfügung, wer es ist, versteht das Chinesisch. Wenn es etwas außer dem Mann im Zimmer gibt, das Chinesisch verstehen kann, kann Searle nicht behaupten, dass (1) der Mann Chinesisch nicht versteht, deshalb (2) versteht nichts im Zimmer Chinesisch. Das, gemäß denjenigen, die diese Antwort machen, zeigt, dass das Argument von Searle scheitert zu beweisen, dass "starker AI" falsch ist.

Jedoch beweisen die Antworten, durch sich, nicht, dass starker AI, auch wahr ist: Sie stellen keine Beweise zur Verfügung, dass das System (oder die virtuelle Meinung) Chinesisch, außer der hypothetischen Proposition versteht, dass es den Turing Test besteht. Da Searle schreibt, dass "die Systemantwort einfach die Antwort auf eine Frage schuldig bleibt, indem sie darauf bestanden wird, dass System Chinesisch verstehen muss."

Roboter und Semantik-Antworten: Entdeckung der Bedeutung

So weit die Person im Zimmer betroffen wird, sind die Symbole gerade sinnlose "Schnörkel". Aber wenn das chinesische Zimmer wirklich "versteht", was es dann sagt, müssen die Symbole ihre Bedeutung von irgendwo bekommen. Diese Argumente versuchen, die Symbole mit den Dingen zu verbinden, die sie symbolisieren. Diese Antworten richten die Sorgen von Searle über intentionality, Symbol-Fundament und Syntax gegen die Semantik.

Roboter-Antwort: Nehmen Sie An, dass statt eines Zimmers das Programm in einen Roboter gelegt wurde, der ringsherum wandern und mit seiner Umgebung aufeinander wirken konnte. Das würde eine "kausale Verbindung" zwischen den Symbolen und Dingen erlauben, die sie vertreten. Hans Moravec kommentiert: 'Wenn wir einen Roboter zu einem vernünftig urteilenden Programm pfropfen konnten, würden wir keine Person brauchen, um die Bedeutung mehr zur Verfügung zu stellen: Es würde aus der physischen Welt kommen."

:Searle'S-Antwort soll annehmen, dass, unbekannt der Person im chinesischen Zimmer, einige der Eingänge direkt aus einer Kamera gekommen sind, die auf einem Roboter bestiegen ist, und einige der Produktionen verwendet wurden, um die Arme und Beine des Roboters zu manipulieren. Dennoch folgt die Person im Zimmer noch gerade den Regeln, und weiß nicht, was die Symbole bedeuten. Searle schreibt, dass "er nicht sieht, was in die Augen des Roboters eintritt." (Sieh das Zimmer von Mary für ein ähnliches Gedanke-Experiment.)

Abgeleitete Bedeutung: Einige antworten, dass das Zimmer, weil Searle es beschreibt, mit der Welt verbunden wird: Durch die chinesischen Sprecher, die es zu und durch die Programmierer "redet", die die Kenntnisse-Basis in seinem Dateikabinett entworfen haben. Die Symbole, die Searle manipuliert, sind bereits bedeutungsvoll, sie sind gerade zu ihm nicht bedeutungsvoll.

:Searle sagt, dass die Symbole nur eine "abgeleitete" Bedeutung wie die Bedeutung von Wörtern in Büchern haben. Die Bedeutung der Symbole hängt vom bewussten Verstehen der chinesischen Sprecher und der Programmierer außerhalb des Zimmers ab. Das Zimmer, gemäß Searle, hat kein Verstehen seines eigenen.

Kenntnisse des gesunden Menschenverstands / contextualist Antwort.: Einige haben behauptet, dass die Bedeutungen der Symbole aus einem riesengroßen "Hintergrund" von Kenntnissen des gesunden Menschenverstands kommen würden, die im Programm und den Aktenschränken verschlüsselt sind. Das würde einen "Zusammenhang" zur Verfügung stellen, der den Symbolen ihre Bedeutung geben würde.

:Searle gibt zu, dass dieser Hintergrund besteht, aber er gibt nicht zu, dass es in Programme eingebaut werden kann. Hubert Dreyfus hat auch die Idee kritisiert, dass der "Hintergrund" symbolisch vertreten werden kann.

Zu jedem dieser Vorschläge ist die Antwort von Searle dasselbe: Egal wie viel Kenntnisse ins Programm geschrieben werden, und egal wie das Programm mit der Welt verbunden wird, ist er noch in den Raummanipulierungssymbolen gemäß Regeln. Seine Handlungen sind syntaktisch, und das kann zu ihm nie erklären, wofür die Symbole eintreten. Searle schreibt, dass "Syntax für die Semantik ungenügend ist."

Jedoch für diejenigen, die akzeptieren, dass die Handlungen von Searle eine Meinung vortäuschen, die von seinem eigenen getrennt ist, ist die wichtige Frage nicht, was die Symbole Searle bedeuten, was wichtig ist, ist, was sie zur virtuellen Meinung vorhaben. Während Searle im Zimmer gefangen wird, ist die virtuelle Meinung nicht: Es wird mit der Außenwelt durch die chinesischen Sprecher verbunden es spricht mit durch die Programmierer, die ihm Weltkenntnisse, und durch die Kameras und anderen Sensoren gegeben haben, die roboticists liefern kann.

Gehirnsimulation und Connectionist-Antworten: das neu Entwerfen des Zimmers

Diese Argumente sind alle Versionen der Systemantwort, die eine besondere Art des Systems als wichtig seiend identifizieren. Sie versuchen zu entwerfen, welches System im Stande sein würde, den Test von Turing zu bestehen und bewusstes Bewusstsein in einer Maschine zu verursachen. (Bemerken Sie, dass der "Roboter" und "die gesunde Menschenverstand Kenntnisse" Antworten oben auch eine bestimmte Art des Systems als wichtig seiend angeben.)

Gehirnsimulator-Antwort: Nehmen Sie An, dass das Programm im feinen Detail die Handlung jedes Neurons im Gehirn eines chinesischen Sprechers vorgetäuscht hat. Das stärkt die Intuition, dass es keinen bedeutenden Unterschied zwischen der Operation des Programms und der Operation eines lebenden menschlichen Gehirns geben würde.

:Searle antwortet, dass solch eine Simulation die wichtigen Eigenschaften des Gehirns — seine kausalen und absichtlichen Staaten nicht wieder hervorgebracht haben wird. Searle ist unerbittlich, dass "menschliche geistige Phänomene von wirklichen physisch-chemischen Eigenschaften des wirklichen menschlichen Verstands abhängig sind." Außerdem streitet er:

Jetzt wo ist das Verstehen in diesem System? Es nimmt Chinesisch als Eingang, es täuscht die formelle Struktur der Synapsen des chinesischen Gehirns vor, und es gibt Chinesisch als Produktion. Aber der Mann versteht sicher Chinesisch nicht, und keiner tut die Huken, und wenn wir geneigt sind anzunehmen, was ich denke, ist die absurde Ansicht, dass irgendwie die Verbindung des Mannes und der Huken versteht, erinnern Sie sich, dass im Prinzip der Mann die formelle Struktur der Huken verinnerlichen und alle "Neuron-Zündungen" in seiner Einbildungskraft tun kann."

:Two-Schwankungen auf der Gehirnsimulator-Antwort sind:

:; chinesisches Gehirn: Und wenn wir jeden Bürger Chinas bitten, ein Neuron mit dem Telefonsystem vorzutäuschen, um die Verbindungen zwischen axons und Dendriten vorzutäuschen? In dieser Version scheint es offensichtlich, dass keine Person jedes Verstehen dessen haben würde, was das Gehirn sagen könnte.

:; Gehirnersatzdrehbuch: Darin werden wir gebeten sich vorzustellen, dass Ingenieure einen winzigen Computer erfunden haben, der die Handlung eines individuellen Neurons vortäuscht. Was würde geschehen, wenn wir ein Neuron auf einmal ersetzen würden? Das Ersetzen von demjenigen würde klar nichts tun, um bewusstes Bewusstsein zu ändern. Das Ersetzen von ihnen allen würde einen Digitalcomputer schaffen, der ein Gehirn vortäuscht. Wenn Searle Recht hat, dann muss bewusstes Bewusstsein während des Verfahrens (entweder allmählich oder plötzlich) verschwinden. Die Kritiker von Searle behaupten, dass es nichts während des Verfahrens geben würde, wenn er behaupten kann, dass bewusste Bewusstsein-Enden und unbekümmerte Simulation beginnen. (Sieh Schiff von Theseus für ein ähnliches Gedanke-Experiment.)

Antworten von Connectionist: Nah verbunden mit der Gehirnsimulator-Antwort behauptet das, dass massiv Parallele connectionist Architektur zum Verstehen fähig sein würde.

Kombinationsantwort: Diese Antwort verbindet die Roboter-Antwort mit der Gehirnsimulierungsantwort, behauptend, dass eine Gehirnsimulation, die mit der Welt durch einen Roboter-Körper verbunden ist, eine Meinung haben konnte.

Argumente wie diese (und der Roboter und die Kenntnisse-Antworten des gesunden Menschenverstands oben) empfehlen, dass das Zimmer von Searle neu entworfen wird. Die Antworten von Searle alle weisen darauf hin, dass jedoch das Programm geschrieben wird oder jedoch wird es mit der Welt verbunden, es wird noch durch einen einfachen nach und nach Turing ganze Maschine (oder Maschinen) vorgetäuscht. Diese Maschinen sind noch gerade wie der Mann im Zimmer: Sie verstehen nichts und sprechen Chinesisch nicht. Sie manipulieren Symbole bloß ohne zu wissen, was sie vorhaben.

Searle behauptet auch, dass, wenn Eigenschaften wie ein Roboter-Körper oder eine connectionist Architektur erforderlich sind, dann starker AI (weil er es versteht) aufgegeben worden ist. Jeder (1) kann das Zimmer von Searle nicht den Test von Turing bestehen, weil formelle Symbol-Manipulation (durch Turing ganze Maschine) nicht genug, oder (2) ist, konnte das Zimmer von Searle den Test von Turing bestehen, aber der Test von Turing ist nicht genügend, um zu bestimmen, ob das Zimmer eine "Meinung" hat. Entweder Weg, es bestreitet ein oder die anderen der Positionen Searle denkt "an starken AI", sein Argument beweisend.

Die Gehirnargumente weisen auch darauf hin, dass Berechnung keine Erklärung des Menschenverstandes zur Verfügung stellen kann (ein anderer Aspekt dessen, woran Searle als "starker AI" denkt). Sie nehmen an, dass es keine einfachere Weise gibt, die Meinung zu beschreiben, als, ein Programm zu schaffen, das genauso mysteriös ist, wie das Gehirn war. Er schreibt, dass "Ich gedacht habe, dass die ganze Idee von starkem AI darin bestand, dass wir nicht zu wissen brauchen, wie das Gehirn arbeitet, um zu wissen, wie die Meinung arbeitet."

Andere Kritiker behaupten nicht, dass diese Verbesserungen für das chinesische Zimmer notwendig sind, um den Test von Turing zu bestehen oder eine Meinung zu haben. Sie akzeptieren die Proposition, dass das Zimmer als Searle es beschreibt, hat wirklich tatsächlich eine Meinung, aber sie behaupten, dass es schwierig ist zu sehen — ist die Beschreibung von Searle richtig, aber irreführend. Indem sie das Zimmer realistischer neu entwerfen, hoffen sie, das offensichtlicher zu machen. In diesem Fall werden diese Argumente als Bitten an die Intuition verwendet (sieh folgende Abteilung). Die Intuition von Searle wird jedoch nie geschüttelt. Er schreibt: "Ich kann jedes formelle Programm haben, das Sie mögen, aber ich verstehe noch nichts."

Tatsächlich kann das Zimmer gerade als leicht neu entworfen werden, um unsere Intuitionen zu schwächen. Das "Dummkopf"-Argument von Ned Block weist darauf hin, dass das Programm, in der Theorie, in eine einfache Nachschlagetabelle von Regeln der Form umgeschrieben werden konnte, "wenn der Benutzer S, Antwort mit P und goto X schreibt". Mindestens im Prinzip kann jedes Programm (oder "refactored") in diese Form, sogar eine Gehirnsimulation umgeschrieben werden. Im Dummkopf-Drehbuch wird der komplette geistige Staat im Brief X verborgen, der eine Speicheradresse — eine mit der folgenden Regel vereinigte Zahl vertritt. Es ist hart, sich das zu vergegenwärtigen, ein Moment jemandes bewusster Erfahrung kann in einer einzelnen Vielzahl gewonnen werden, noch ist das genau, was "starker AI" fordert. Andererseits würde solch eine Nachschlagetabelle (wahrscheinlich zum Punkt lächerlich groß sein, in der Praxis unmöglich zu sein), und die Staaten konnten deshalb äußerst spezifisch sein.

Geschwindigkeit und Kompliziertheit: Bitten an die Intuition

Die folgenden Argumente (und die intuitiven Interpretationen der Argumente oben) erklären nicht direkt, wie eine chinesische Sprechen-Meinung im Zimmer von Searle bestehen konnte, oder wie die Symbole, die er manipuliert, bedeutungsvoll werden konnten. Jedoch, indem sie Zweifel über die Intuitionen von Searle erheben, unterstützen sie andere Positionen, wie das System und die Roboter-Antworten. Diese Argumente, wenn akzeptiert, halten Searle davon ab zu behaupten, dass sein Beschluss durch das Untergraben der Intuitionen offensichtlich ist, die seine Gewissheit verlangt.

Mehrere Kritiker glauben, dass sich das Argument von Searle völlig auf Intuitionen verlässt. Ned Block schreibt, dass "das Argument von Searle für seine Kraft von Intuitionen abhängt, die bestimmte Entitäten nicht denken." Daniel Dennett beschreibt das chinesische Raumargument als eine irreführende "Intuitionspumpe" und schreibt, dass "das Gedanke-Experiment von Searle, illegal, auf Ihrem Vorstellen eines zu einfachen Falls, eines irrelevanten Falls und Zeichnung des 'offensichtlichen' Beschlusses davon abhängt."

Einige der Argumente fungieren oben auch als Bitten an die Intuition, besonders diejenigen, die beabsichtigt sind, um sie plausibler scheinen zu lassen, dass das chinesische Zimmer eine Meinung enthält, die den Roboter, die Kenntnisse des gesunden Menschenverstands, die Gehirnsimulation und die Connectionist-Antworten einschließen kann. Mehrere der Antworten richten oben auch das spezifische Problem der Kompliziertheit. Die Connectionist-Antwort betont, dass ein Arbeitssystem der künstlichen Intelligenz so würde kompliziert und miteinander verbunden sein müssen wie das menschliche Gehirn. Die Kenntnisse-Antwort des gesunden Menschenverstands betont, dass jedes Programm, das einen Test von Turing bestanden hat, "ein außerordentlich geschmeidiges, hoch entwickeltes und multilayered System würde sein müssen, von 'Weltkenntnissen' und Meta-Kenntnissen und meta-meta-knowledge voll seiend," weil Daniel Dennett erklärt.

Geschwindigkeit und Kompliziertheitsantworten: Die Geschwindigkeit, mit der menschlicher Verstand Information bearbeitet, ist (durch einige Schätzungen) 100 Milliarden Operationen pro Sekunde. Mehrere Kritiker weisen darauf hin, dass der Mann im Zimmer wahrscheinlich Millionen von Jahren nehmen würde, um auf eine einfache Frage zu antworten, und "Aktenschränke" von astronomischen Verhältnissen verlangen würde. Das bringt die Klarheit der Intuition von Searle in Zweifel.

Eine besonders lebhafte Version der Geschwindigkeit und Kompliziertheitsantwort ist von Paul und Patricia Churchland. Sie schlagen dieses analoge Gedanke-Experiment vor:

Das Leuchtzimmer von Churchland: "Denken Sie ein dunkles Zimmer, das einen Mann enthält, der einen Bar-Magnet oder beladenen Gegenstand hält. Wenn der Mann den Magnet oben und unten pumpt, dann, gemäß der Theorie von Maxwell der künstlichen Klarheit (AL), wird er einen sich ausbreitenden Kreis von elektromagnetischen Wellen beginnen und wird so leuchtend sein. Aber weil wir alle, die mit Magneten gespielt oder Bälle gut beladen haben, ihre Kräfte wissen (oder irgendwelche anderen Kräfte, was das betrifft), selbst wenn in Gang gesetzt keine Klarheit überhaupt erzeugen. Es ist unvorstellbar, dass Sie echte Klarheit gerade einsetzen könnten, indem Sie Kräfte bewegt haben!" Das Problem besteht darin, dass er den Magnet auf und ab in etwas wie 450 Trillionen Male pro Sekunde würde schwenken müssen, um irgendetwas zu sehen.

Stevan Harnad ist gegenüber der Geschwindigkeit und den Kompliziertheitsantworten kritisch, wenn sie außer dem Wenden unserer Intuitionen streunen. Er schreibt, dass "Einige einen Kult der Geschwindigkeit und des Timings gemacht haben, meinend, dass, wenn beschleunigt, zur richtigen Geschwindigkeit, das rechenbetonte einen Phase-Übergang ins geistige machen kann. Es sollte klar sein, dass nicht ein Gegenargument, aber bloß eine Ad-Hoc-Spekulation ist (wie die Ansicht ist, dass es alles gerade eine Sache von ratcheting bis zum richtigen Grad der 'Kompliziertheit ist.')"

Searle klagt seine Kritiker an, zu viel Glauben an ihre eigenen Intuitionen zu legen. Searle behauptet, dass sich jeder, der bereit ist, die "Systemantwort" zu akzeptieren (der behauptet, dass eine Meinung aus "einem System" erscheinen kann ohne zu sagen, was das System ist, oder wie solch ein Ding eine Meinung verursachen könnte) völlig durch ihre eigenen Intuitionen verleiten lassen hat, schreibend, dass sie "unter dem Griff einer Ideologie" sind.

Andere Meinungen und Zombies: Sinnloskeit

Mehrere Antworten behaupten, dass das Argument von Searle irrelevant ist, weil seine Annahmen über die Meinung und das Bewusstsein fehlerhaft sind. Searle glaubt, dass Menschen direkt ihr Bewusstsein, intentionality und die Natur der Meinung jeden Tag erfahren, und dass diese Erfahrung des Bewusstseins für die Frage nicht offen ist. Er schreibt, dass wir die Wirklichkeit und knowability des geistigen "voraussetzen müssen." Diese Antworten Frage, ob Searle im Verwenden seiner eigenen Erfahrung des Bewusstseins gerechtfertigt wird zu beschließen, dass es mehr ist als mechanische Symbol-Verarbeitung. Insbesondere die andere Meinungsantwort behauptet, dass wir unsere Erfahrung des Bewusstseins nicht verwenden können, auf Fragen über andere Meinungen (sogar die Meinung eines Computers) zu antworten, und die Epiphenomena-Antwort behauptet, dass das Bewusstsein von Searle im Sinn nicht "besteht", dass Searle denkt, dass es tut.

Andere Meinungsantwort: Diese Antwort weist darauf hin, dass das Argument von Searle eine Version des Problems anderer Meinungen ist, die auf Maschinen angewandt sind. Es gibt keine Weise, wie wir bestimmen können, ob die subjektive Erfahrung anderer Leute dasselbe als unser eigenes ist. Wir können nur ihr Verhalten studieren (d. h., indem wir ihnen unseren eigenen Test von Turing geben). Kritiker von Searle behaupten, dass er das chinesische Zimmer zu einem höheren Standard hält, als wir eine gewöhnliche Person halten würden.

:Nils, den Nilsson schreibt, "Wenn sich ein Programm benimmt, als ob es, die meisten von uns multiplizierte, würde sagen, dass es tatsächlich multipliziert. Für alles weiß ich, Searle kann sich nur benehmen, als ob er tief über diese Sachen dachte. Aber wenn auch ich mit ihm nicht übereinstimme, ist seine Simulation ziemlich gut, so bin ich bereit, ihm den echten Gedanken zuzuschreiben."

:Alan-Turing (30 Jahre bevor schreibend, hat Searle sein Argument präsentiert), hat bemerkt, dass Leute nie das Problem anderer Meinungen wenn denken, sich befassend. Er schreibt, dass, "anstatt ständig über diesen Punkt zu streiten, es üblich ist, die höfliche Tagung zu haben, die jeder denkt." Der Turing-Test erweitert einfach diese "höfliche Tagung" zu Maschinen. Er hat nicht vor, das Problem anderer Meinungen zu beheben (für Maschinen oder Leute), und er denkt nicht, dass wir müssen.

Searle stimmt mit dieser Analyse nicht überein und behauptet, dass "die Studie der Meinung mit solchen Tatsachen wie das anfängt, haben Menschen Glauben, während Thermostate, Telefone und Rechenmaschinen tun nicht..., was wir haben wissen wollen, ist, was die Meinung von Thermostaten und Lebern unterscheidet." Er nimmt es als offensichtlich, dass wir die Anwesenheit des Bewusstseins entdecken können und diese Antworten abweisen als, vom Punkt zu sein.

Epiphenomenon / Zombie-Antwort: Mehrere Philosophen behaupten, dass Bewusstsein, weil Searle es beschreibt, nicht besteht. Diese Position wird manchmal eliminative Materialismus genannt: Die Ansicht, dass Bewusstsein ein Eigentum ist, das auf eine ausschließlich mechanische Beschreibung reduziert werden kann, und dass unsere Erfahrung des Bewusstseins als Daniel Dennett ist, beschreibt es, ein "Benutzertrugbild".

:Stuart-Russell und Peter Norvig behaupten, dass, wenn wir die Beschreibung von Searle von intentionality, Bewusstsein und der Meinung akzeptieren, wir gezwungen werden zu akzeptieren, dass Bewusstsein epiphenomenal ist: Dass es "keinen Schatten wirft", der in der Außenwelt unfeststellbar ist. Searle glaubt, dass es "kausale Eigenschaften" in unseren Neuronen gibt, die die Meinung verursachen. Jedoch können diese kausalen Eigenschaften von niemandem außerhalb der Meinung entdeckt werden, sonst konnte das chinesische Zimmer nicht den Test von Turing bestehen — die Leute würden draußen im Stande sein zu sagen, dass es nicht einen chinesischen Sprecher im Zimmer durch das Ermitteln ihrer kausalen Eigenschaften gab. Da sie kausale Eigenschaften nicht entdecken können, können sie nicht die Existenz des geistigen entdecken. Deshalb streiten Russell und Norvig, Searle ist über "knowability des geistigen" falsch.

Daniel Dennett stellt diese Erweiterung auf das "epiphenomena" Argument zur Verfügung.

Die Antwort von Dennett von der Zuchtwahl: Nehmen Sie An, dass, durch eine Veränderung, ein Mensch geboren ist, der die "kausalen Eigenschaften von Searle" nicht hat, aber dennoch genau wie ein Mensch handelt. (Diese Sorte des Tieres wird einen "Zombie" in Gedanke-Experimenten in der Philosophie der Meinung genannt). Dieses neue Tier würde sich ebenso jeder andere Mensch vermehren, und schließlich würde es mehr von diesen Zombies geben. Zuchtwahl würde die Zombies bevorzugen, da ihr Design ist (wir konnten denken) ein bisschen einfacher. Schließlich würden die Menschen aussterben. So deshalb, wenn Searle Recht hat, ist es am wahrscheinlichsten, dass Menschen (weil wir sie heute sehen) wirklich "Zombies" sind, die dennoch darauf bestehen, dass sie bewusst sind. Das weist darauf hin, dass es unwahrscheinlich ist, dass sich die "kausalen Eigenschaften von Searle" jemals an erster Stelle entwickelt hätten.

Referenzen

Zitate

:Page-Zahlen verweisen oben auf einen Standard pdf Druck des Artikels.

:Page-Zahlen verweisen oben auf einen Standard pdf Druck des Artikels.:Page-Zahlen verweisen oben auf einen Standard pdf Druck des Artikels.:Page-Zahlen verweisen oben auf einen Standard pdf Druck des Artikels.

:Page-Zahlen verweisen oben auf einen Standard pdf Druck des Artikels. Siehe auch den ursprünglichen Entwurf von Searle.

  • Paperback: Internationale Standardbuchnummer 0-67457633-0.
:Page-Zahlen verweisen oben auf einen Standard pdf Druck des Artikels.

Weiterführende Literatur

  • PDF an der Einstiegsseite des Autors, kritisches gestütztes Papier in der Annahme, dass der CR seine Eingänge nicht verwenden kann (die in Chinesisch sind), um sein Programm zu ändern (der in Englisch ist).
  • John Preston und Mark Bishop, "Ansichten ins chinesische Zimmer", Presse der Universität Oxford, 2002. Schließt Kapitel von John Searle, Roger Penrose, Stevan Harnad und Kevin Warwick ein.
  • Margaret Boden, "Dem chinesischen Zimmer", Erkenntnistheorie-Forschungsarbeit-No CSRP 092, Universität von Sussex, Schule von Erkenntnistheorien, 1987, OCLC 19297071, Online-PDF, "ein Exzerpt aus einem Kapitel" in den dann unveröffentlichten "Computermodellen der Meinung entfliehend:: Rechenbetonte Annäherungen in der Theoretischen Psychologie", internationale Standardbuchnummer 052124868X (1988); nachgedruckt in Boden (Hrsg.). "Die Philosophie der Künstlichen Intelligenz" internationale Standardbuchnummer 0198248547 (1989) und internationale Standardbuchnummer 0198248555 (1990); Boden "Künstliche Intelligenz in der Psychologie: Zwischendisziplinarische Aufsätze" internationale Standardbuchnummer 0262022850, MIT Presse, 1989, Kapitel 6; nachgedruckt in Heil, Seiten 253-266 (1988) (vielleicht gekürzt); J. Heil (Hrsg.). "Philosophie der Meinung: Ein Führer und Anthologie", Presse der Universität Oxford, 2004, Seiten 253-266 (dieselbe Version wie in der "künstlichen Intelligenz in der Psychologie")

Mit dem Zusammenhang empfindliche Sprache / Charon
Impressum & Datenschutz