Künstliches Bewusstsein

Künstliches Bewusstsein (AC), auch bekannt als Maschinenbewusstsein (MC) oder synthetisches Bewusstsein, ist ein Feld, das mit der künstlichen Intelligenz und kognitiven Robotertechnik verbunden ist, deren Ziel ist, das zu definieren, das würde synthetisiert werden müssen, waren in einem konstruierten Kunsterzeugnis zu findendes Bewusstsein.

Neuroscience stellt Hypothese auf, dass Bewusstsein durch die Zwischenoperation von verschiedenen Teilen des Gehirns, genannt die Nervenkorrelate des Bewusstseins oder NCC erzeugt wird. Befürworter von AC glauben, dass es möglich ist, Maschinen zu bauen (z.B, Computersysteme), der mit dieser NCC Zwischenoperation wetteifern kann.

Philosophische Ansichten vom künstlichen Bewusstsein

Da es viele Benennungen des Bewusstseins gibt, gibt es viele potenzielle Typen von AC. In der philosophischen Literatur vielleicht ist die allgemeinste Taxonomie des Bewusstseins in "den Zugang" und "die phänomenalen" Varianten. Zugriffsbewusstsein betrifft jene Aspekte der Erfahrung, die einer Funktionsbeschreibung zugänglich sind, während phänomenales Bewusstsein jene Aspekte der Erfahrung betrifft, die scheinen, sich über funktionelles Bild hinwegzusetzen, stattdessen qualitativ in Bezug auf "rohe Gefühle", "charakterisiert, wem es" oder qualia (Block, 1997) ähnlich ist. Schwächere Versionen von AC verlangen nur, dass funktionell, "wird Zugriffsbewusstsein" künstlich realisiert. Stärkere Versionen von AC meinen, dass alle Aspekte des Bewusstseins instantiable im künstlichen, Maschinensystemen sind.

Zum Beispiel, wenn der Sehkortex des Gehirns Nervenimpulse von den Augen bearbeitet und beschließt, dass das Image aus einem kugelförmigen Gegenstand in einem rechteckigen Kasten besteht, ist das Zugriffsbewusstsein und ist nicht philosophisch schwierig, weil solche Muster-Anerkennung durch Computerprogramme vorgetäuscht worden ist. Aber wie man mit Phänomenen wie Schmerz, oder Wut, oder Motivation, oder Aufmerksamkeit, oder Gefühl der Relevanz, oder das Modellieren der Absichten anderer Leute oder Vorwegnehmen von Folgen von alternativen Handlungen, oder Erfindung wetteifert oder neue Konzepte oder Werkzeuge oder Verfahren wieder zu entdecken, ohne über sie zu lesen oder unterrichtet zu werden?

Die Debatte über die Glaubhaftigkeit des künstlichen Bewusstseins

Es gibt beträchtliche Debatte über die Glaubhaftigkeit von AC. Eine gegenüber AC skeptische Ansicht wird von Theoretikern gehabt (z.B, Theoretiker der Typ-Identität), die meinen, dass Bewusstsein nur in besonderen physischen Systemen begriffen werden kann, weil Bewusstsein Eigenschaften hat, die notwendigerweise von physischer Verfassung abhängen (Block, 1978; Bickle, 2003). Ihre Skepsis ruht auf der Tatsache, dass es viele physische Asymmetrien zwischen natürlichen, organischen Systemen und künstlich gebaut (z.B, Computer) Systeme gibt, und es angemessen scheint zu denken, dass diese Unterschiede für die Generation von bewussten Staaten wichtig sein würden.

Jedoch sind andere Theoretiker über die Glaubhaftigkeit von AC zuversichtlicher. Für einige Theoretiker (z.B, functionalists), die geistige Staaten in Bezug auf kausale Rollen definieren, wird jedes System, das dasselbe Muster von kausalen Rollen unabhängig von der physischen Verfassung realisieren kann, dieselben geistigen Staaten, einschließlich des Bewusstseins (Putnam, 1967) realisieren. Entlang diesen Linien haben einige Theoretiker (z.B, David Chalmers) vorgeschlagen, dass Bewusstsein in richtig bestimmten und programmierten Computern begriffen werden kann.

Das Argument von Chalmers für das künstliche Bewusstsein

Eines der ausführlichsten Argumente für die Glaubhaftigkeit von AC kommt aus David Chalmers. Sein Vorschlag, der innerhalb seines Manuskriptes Ein Rechenbetontes Fundament für die Studie des Erkennens gefunden ist, besteht grob darin, dass Computer Berechnung durchführen und die richtigen Arten der Berechnung für den Besitz eines Verstandes genügend sind. Im Umriss verteidigt er seinen Anspruch so: Computer führen Berechnung durch. Berechnung kann die abstrakte kausale Organisation anderer Systeme festnehmen. Geistige Eigenschaften sind nichts außer der abstrakten kausalen Organisation. Deshalb werden Computer, die die richtige Art der Berechnung führen, geistige Eigenschaften realisieren.

Der am meisten umstrittene Teil des Vorschlags von Chalmers ist, dass geistige Eigenschaften "organisatorisch invariant sind;" d. h., nichts außer der abstrakten kausalen Organisation. Sein raues Argument, für das das folgende ist. Geistige Eigenschaften sind zwei Arten, psychologisch und phänomenologisch. Psychologische Eigenschaften, wie Glaube und Wahrnehmung, sind diejenigen, die durch ihre kausale Rolle" innerhalb eines gesamten kausalen Systems "charakterisiert werden. Er bezieht sich auf die Arbeit von Armstrong (1968) und Lewis (1972) in der Behauptung, dass" [s] ystems mit derselben kausalen Topologie … ihre psychologischen Eigenschaften teilen wird." Phänomenologische Eigenschaften sind andererseits in Bezug auf ihre kausalen Rollen nicht Anschein nach definierbar. Das Feststellen, dass phänomenologische Eigenschaften individuation durch die kausale Rolle deshalb zugänglich sind, verlangt Argument. Chalmers stellt seinem "Tanzen Qualia Argument" für diesen Zweck zur Verfügung.

Chalmers beginnt durch das Annehmen, dass Agenten mit identischen kausalen Organisationen verschiedene Erfahrungen auf Grund davon haben konnten, verschiedene materielle Verfassungen (Silikon gegen Neurone, z.B) zu haben . Er bittet uns dann zu empfangen, einen Agenten in anderen durch den Ersatz von Teilen (durch Silikon ersetzte Nerventeile zu ändern, zu sagen), während er seine kausale Organisation bewahrt. Ab hypothesi würde sich die Erfahrung des Agenten unter der Transformation ändern (weil die Teile ersetzt wurden), aber es würde keine Änderung in der kausalen Topologie und deshalb keine Mittel geben, wodurch der Agent die Verschiebung in der Erfahrung "bemerken" konnte. Sich jedoch vorzustellen, dass es Sinn hat, ein Reagenz zu sagen, konnte qualitative Änderungen in der Erfahrung haben, aber unfähig sein zu bemerken, dass Änderungen in der Erfahrung absurd sind. In Anbetracht der Absurdität des Beschlusses weist Chalmers die anfängliche Proposition zurück, dass Agenten mit der identischen kausalen Organisation verschiedene Erfahrungen haben können. So, durch sein Tanzen Qualia Argument, verteidigt Chalmers seine Ansicht, dass phänomenologische Eigenschaften organisatorisch invariant sind.

Kritiker von AC können einwenden, dass Chalmers die Antwort im Annehmen auf eine Frage schuldig bleibt, dass alle geistigen Eigenschaften von der abstrakten kausalen Organisation genug gewonnen werden. Es bleibt ein streitsüchtiger Vorschlag. Trotzdem ist es wichtig, für ein philosophisches Fundament für die Glaubhaftigkeit von AC zu legen.

Ethik des künstlichen Bewusstseins

Wenn es sicher wäre, dass eine besondere Maschine bewusst war, würden seine Rechte ein Moralproblem sein, das würde bewertet werden müssen (z.B, welche Rechte es nach dem Gesetz haben würde). Zum Beispiel ist ein bewusster Computer, der im Besitz gewesen ist und als ein Werkzeug oder Hauptcomputer eines Gebäudes oder große Maschine verwendet hat, eine besondere Zweideutigkeit. Wenn Gesetze für solch einen Fall gemacht werden, würde Bewusstsein auch eine gesetzliche Definition (zum Beispiel eine Fähigkeit einer Maschine verlangen, Vergnügen oder Schmerz zu erfahren, der als Empfindung bekannt ist). Weil künstliches Bewusstsein noch größtenteils ein theoretisches Thema ist, ist solche Ethik nicht besprochen oder in reichem Maße entwickelt worden, obwohl es häufig ein Thema in der Fiktion (sieh unten) gewesen ist.

Die Regeln für die Loebner 2003-Preis-Konkurrenz haben ausführlich die Frage von Roboter-Rechten gerichtet:

Bewusstsein in Digitalcomputern

Es gibt verschiedene Aspekte des Bewusstseins allgemein hat für notwendig für eine Maschine gehalten, um künstlich bewusst zu sein. Eine Vielfalt von Funktionen, in denen Bewusstsein eine Rolle spielt, wurde von Bernard Baars (Baars 1988) und andere angedeutet. Die Funktionen des von Bernard Baars angedeuteten Bewusstseins sind Definitions- und Zusammenhang-Einstellung, Anpassung und das Lernen, das Redigieren, die Platten und das Beseitigen, Rekruten anwerbend und die Kontrolle, Prioritizing und Access-Control, die Beschlussfassung oder die Exekutivfunktion, die Analogie bildende Funktion, Metacognitive und Self-monitoring Function, Autoprogrammierend, und die Selbstwartungsfunktion und die Definitorische und Zusammenhang setzende Funktion. Igor Aleksander hat 12 Grundsätze für das Künstliche Bewusstsein vorgeschlagen (Aleksander 1995), und diese sind: Das Gehirn ist eine Staatsmaschine, das Innere Neuron-Verteilen, die Bewussten und Unbewussten Staaten, Perceptual das Lernen und das Gedächtnis, die Vorhersage, Das Bewusstsein Selbst, die Darstellung der Bedeutung, das Lernen, dass Äußerungen, das Lernen der Sprache, Instinkt und Gefühl Werden. Das Ziel von AC ist zu definieren, ob und wie diese und anderen Aspekte des Bewusstseins in einem konstruierten Kunsterzeugnis wie ein Digitalcomputer synthetisiert werden können. Diese Liste ist nicht erschöpfend; es gibt viele andere nicht bedeckt.

Bewusstsein

Bewusstsein konnte erforderlicher Aspekt von demjenigen sein, aber es gibt viele Probleme mit der genauen Definition des Bewusstseins. Die Ergebnisse der Experimente von neuroscanning auf Affen weisen darauf hin, dass ein Prozess, nicht nur ein Staat oder Gegenstand, Neurone aktiviert. Bewusstsein schließt das Schaffen und die Prüfung alternativer Modelle jedes Prozesses ein, der auf der Information gestützt ist, die durch die Sinne erhalten ist oder vorgestellt ist, und ist auch nützlich, um Vorhersagen zu machen. Solches Modellieren braucht viel Flexibilität. Solches Musterschaffen schließt das Modellieren der physischen Welt, das Modellieren jemandes eigener innerer Staaten und die Prozesse und das Modellieren anderer bewusster Entitäten ein.

Es gibt mindestens drei Typen des Bewusstsein-Agenturbewusstseins, Absicht-Bewusstseins und sensomotorischen Bewusstseins, das auch bewusst sein kann oder nicht. Zum Beispiel im Agenturbewusstsein können Sie bewusst sein, dass Sie eine bestimmte Handlung gestern durchgeführt haben, aber davon nicht jetzt bewusst sind. Im Absicht-Bewusstsein können Sie bewusst sein, dass Sie nach einem verlorenen Gegenstand suchen müssen, aber davon nicht jetzt bewusst sind. Im sensomotorischen Bewusstsein können Sie bewusst sein, dass Ihre Hand auf einem Gegenstand ruht, aber davon nicht jetzt bewusst ist.

Weil Gegenstände des Bewusstseins häufig bewusst sind, wird die Unterscheidung zwischen Bewusstsein und Bewusstsein oft verschmiert, oder sie werden als Synonyme verwendet.

Das Lernen

Das Lernen wird auch notwendig für AC betrachtet. Durch Bernard Baars ist bewusste Erfahrung erforderlich, um zu vertreten und sich an neuartige und bedeutende Ereignisse (Baars 1988) anzupassen. Durch Axel Cleeremans und Luis Jiménez wird das Lernen definiert, weil "eine Reihe von philogenetically [sic] Anpassungsprozesse vorgebracht hat, die kritisch von einer entwickelten Empfindlichkeit zur subjektiven Erfahrung abhängen, um Agenten zu ermöglichen, flexible Kontrolle über ihre Handlungen in komplizierten, unvorhersehbaren Umgebungen" (Cleeremans 2001) zu gewähren.

Vorgefühl

Die Fähigkeit, vorauszusagen (oder vorauszusehen), absehbare Ereignisse wird wichtig für AC von Igor Aleksander betrachtet. Der emergentist vielfache Draftgrundsatz, der von Daniel Dennett im Erklärten Bewusstsein vorgeschlagen ist, kann für die Vorhersage nützlich sein: Es schließt die Einschätzung und Auswahl am passendsten "Entwurf" ein, um die aktuelle Umgebung zu passen. Vorgefühl schließt Vorhersage von Folgen jemandes eigener vorgeschlagener Handlungen und Vorhersage von Folgen von wahrscheinlichen Handlungen durch andere Entitäten ein.

Beziehungen zwischen echten Weltstaaten werden in der Zustandstruktur eines bewussten Organismus widergespiegelt, der den Organismus ermöglicht, Ereignisse vorauszusagen. Eine künstlich bewusste Maschine sollte im Stande sein, Ereignisse richtig vorauszusehen, um bereit zu sein, ihnen zu antworten, wenn sie vorkommen oder premptive Handlung zu nehmen, um vorausgesehene Ereignisse abzuwenden. Die Implikation hier ist, dass die Maschinenbedürfnisse flexible, schritthaltende Bestandteile, die räumlich, dynamisch, statistisch, funktionell, und Modelle der Ursache-Wirkung der echten Welt und vorausgesagten Welten bauen, es möglich machend, zu demonstrieren, dass es künstliches Bewusstsein in der Gegenwart und Zukunft und nicht nur in der Vergangenheit besitzt. Um das zu tun, sollte eine bewusste Maschine zusammenhängende Vorhersagen und Eventualitätspläne machen, nicht nur in Welten mit festen Regeln wie ein Schachbrett, sondern auch für neuartige Umgebungen, die sich ändern können, um nur wenn passend, durchgeführt zu werden, um die echte Welt vorzutäuschen und zu kontrollieren.

Subjektive Erfahrung

Wie man

weit betrachtet, sind subjektive Erfahrungen oder qualia das harte Problem des Bewusstseins. Tatsächlich, wie man hält, stellt es eine Herausforderung an physicalism ganz zu schweigen von computationalism auf. Andererseits gibt es ein Problem mit dem Unklarheitsgrundsatz in der Physik, die die Forschung in der Physik unmöglich nicht gemacht hat.

Symbolische oder hybride Vorschläge

Das intelligente Vertriebsreagenz von Franklin

Stan Franklin (1995, 2003) definiert einen autonomen Agenten als das Besitzen funktionellen Bewusstseins, wenn es zu mehreren der Funktionen des Bewusstseins, wie identifiziert, durch die Globale Arbeitsraum-Theorie von Bernard Baars fähig ist. Sein Gehirnkinder-IDA (Intelligentes Vertriebsreagenz) ist eine Softwaredurchführung von GWT, der ihn funktionell bewusst definitionsgemäß macht. Die Aufgabe von IDA ist, neue Anweisungen für Matrosen in der US-Marine zu verhandeln, nachdem sie eine Tour der Aufgabe beenden, indem sie die Sachkenntnisse jeder Person und Einstellungen mit den Bedürfnissen der Marine vergleichen. IDA wirkt mit Marinedatenbanken aufeinander und kommuniziert mit den Matrosen über den E-Mail-Dialog der natürlichen Sprache, während er einem großen Satz von Marinepolicen folgt. Das IDA rechenbetonte Modell wurde während 1996-2001 an "Bewusster" Software Research Group von Stan Franklin an der Universität Memphis entwickelt. Es "besteht aus etwa einer Million Linien des javanischen Codes, und verbraucht fast völlig die Mittel eines 2001-Arbeitsplatzes des hohen Endes." Es verlässt sich schwer auf codelets, die "spezieller Zweck, relativ unabhängig, Minireagenz [s] normalerweise durchgeführt als ein kleines Stück des Codes sind, der als ein getrennter Faden läuft." In der verfeinernden Architektur von IDA werden kognitive Funktionen auf höchster Ebene ausführlich modelliert (sieh und für Details). Während IDA definitionsgemäß funktionell bewusst ist, schreibt Franklin phänomenales Bewusstsein seinem eigenen 'bewussten' Softwareagenten, IDA trotz ihrer vieler einem Menschen ähnlichen Handlungsweisen nicht "zu. Das trotz der Beobachtung mehrerer US-Marine detailers, wiederholt ihre Köpfe nickend, die sagen, 'Ja, Es ist, wie ich es tue', während ich die inneren und äußerlichen Handlungen von IDA beobachte, weil sie ihre Aufgabe durchführt."

Der kognitive Architektur-TROMPETENSCHALL von Ron Sun

TROMPETENSCHALL postuliert eine Zwei-Niveaus-Darstellung, die die Unterscheidung zwischen bewussten und unbewussten geistigen Prozessen erklärt.

TROMPETENSCHALL ist in der Erklärung einer Vielfalt von psychologischen Daten erfolgreich gewesen. Mehrere wohl bekannte Sachkenntnis-Lernaufgaben sind mit dem TROMPETENSCHALL vorgetäuscht worden, die das Spektrum im Intervall von einfachen reaktiven Sachkenntnissen zu komplizierten kognitiven Sachkenntnissen abmessen. Die Aufgaben schließen Aufgaben der Serienreaktionszeit (SRT), Aufgaben des künstlichen Grammatik-Lernens (AGL), Aufgaben der Prozesssteuerung (PC), die Aufgabe der kategorischen Schlussfolgerung (CI), die Aufgabe der alphabetischen Arithmetik (AA) und die Aufgabe des Turms Hanois (TOH) ein. Unter ihnen sind SRT, AGL und PC typische implizite Lernaufgaben, die sehr viel für das Problem des Bewusstseins als sie operationalized der Begriff des Bewusstseins im Zusammenhang von psychologischen Experimenten wichtig sind.

Die Simulationen mit dem TROMPETENSCHALL stellen ausführlich berichtete, Prozess-basierte Interpretationen von experimentellen Angaben zur Verfügung, die mit dem Bewusstsein, im Zusammenhang weit gehend scoped kognitive Architektur und eine vereinigte Theorie des Erkennens verbunden sind. Solche Interpretationen sind für ein genaues, Prozess-basiertes Verstehen des Bewusstseins und andere Aspekte des Erkennens wichtig, bis zu besseren Anerkennungen der Rolle des Bewusstseins im menschlichen Erkennen führend. TROMPETENSCHALL macht auch quantitative und qualitative Vorhersagen bezüglich des Erkennens in den Gebieten von Gedächtnis, Lernen, Motivation, Meta-Erkennen und so weiter. Diese Vorhersagen entweder sind bereits experimentell geprüft worden oder sind im Prozess davon, geprüft zu werden.

OpenCog von Ben Goertzel

Ben Goertzel verfolgt einen aufgenommenen AGI durch die offene Quelle Projekt von OpenCog. Aktueller Code schließt aufgenommene virtuelle Haustiere ein, die dazu fähig sind, einfache Englischsprachige Befehle, sowie Integration mit der wirklichen Robotertechnik zu erfahren, am Robotertechnik-Laboratorium von Hugo de Garis an der Xiamen Universität getan.

Nervennetzvorschläge

Die kognitive Architektur von Haikonen

Pentti betrachtet klassische regelbasierende Computerwissenschaft als unzulänglich, um AC zu erreichen: "Das Gehirn ist bestimmt nicht ein Computer. Das Denken ist nicht eine Ausführung von programmierten Reihen von Befehlen. Das Gehirn ist nicht eine numerische Rechenmaschine auch. Wir denken durch Zahlen nicht." Anstatt zu versuchen, Meinung und Bewusstsein zu erreichen, indem er sich identifiziert und ihre zu Grunde liegenden rechenbetonten Regeln durchführt, schlägt Haikonen "eine spezielle kognitive Architektur vor, um die Prozesse der Wahrnehmung, der inneren Bilder, der inneren Rede, des Schmerzes, des Vergnügens, der Gefühle und der kognitiven Funktionen hinter diesen wieder hervorzubringen. Das von unten nach oben Architektur würde Funktionen des höheren Niveaus durch die Macht der elementaren in einer Prozession gehenden Einheiten, der künstlichen Neurone, ohne Algorithmen oder Programme erzeugen". Haikonen glaubt, dass, wenn durchgeführt, mit der genügend Kompliziertheit, diese Architektur Bewusstsein entwickeln wird, das er denkt, um "ein Stil und Weg der Operation zu sein, die durch verteilte Signaldarstellung, Wahrnehmungsprozess, Quer-Modalitätsbericht und Verfügbarkeit für den Rückblick charakterisiert ist." Haikonen ist in dieser Prozess-Ansicht vom Bewusstsein oder der Ansicht nicht allein, dass AC in autonomen Agenten spontan erscheinen wird, die eine passende neuro-inspirierte Architektur der Kompliziertheit haben; diese werden von vielen z.B geteilt und. Eine Durchführung der niedrigen Kompliziertheit der Architektur, die dadurch vorgeschlagen ist, war wie verlautet zu AC nicht fähig, aber hat wirklich Gefühle, wie erwartet, ausgestellt. Sieh für eine umfassende Einführung in die kognitive Architektur von Haikonen.

Die Ich-Bewusstkeitsforschung von Takeno

Die Ich-Bewusstkeit in Robotern wird von Junichi Takeno http://robonable.typepad.jp/robot/2_/index.html an der Universität von Meiji in Japan untersucht. Takeno behauptet, dass er einen Roboter entwickelt hat, der zum Absondern zwischen einem Selbstimage in einem Spiegel und irgendwelchem fähig ist ein identisches Image dazu http://www.rs.cs.meiji.ac.jp/Takeno_Archive.htmlhttp://www.mimed.mw.tum.de/06-12-18_MIMED_LUETH-002918.PDF ander zu haben, und dieser Anspruch bereits nachgeprüft worden ist. Takeno behauptet, dass er zuerst erfunden hat, dass das rechenbetonte Modul MoNAD genannt hat, der eine ich-bewusste Funktion hat, und er dann das künstliche Bewusstsein-System gebaut hat, indem er die Beziehungen zwischen Gefühlen, Gefühlen und Grund formuliert hat, indem er die Module in einer Hierarchie (Igarashi, Takeno 2007) verbunden hat. Takeno hat ein Spiegelbilderkennen-Experiment mit einem mit dem System von MoNAD ausgestatteten Roboter vollendet. Takeno hat die Selbstkörpertheorie vorgeschlagen feststellend, dass "Menschen finden, dass ihr eigenes Spiegelimage an sich näher ist als ein wirklicher Teil von sich." Der wichtigste Punkt im Entwickeln künstlichen Bewusstseins oder Erklären des menschlichen Bewusstseins ist die Entwicklung einer Funktion selbst Bewusstsein, und er behauptet, dass er physische und mathematische Beweise dafür in seiner These (Takeno 2008 http://www.s2is.org/Issues/v1/n4/papers/paper4.pdf) demonstriert hat. Er hat auch demonstriert, dass Roboter Episoden im Gedächtnis studieren können, wo die Gefühle stimuliert wurden und diese Erfahrung verwenden, prophetische Handlungen zu nehmen, um das Wiederauftreten von unangenehmen Gefühlen (Torigoe, Takeno 2009) zu verhindern.

Die unmögliche Meinung von Aleksander

Igor Aleksander, Emeritus der Nervensystemtechnik in der Reichsuniversität, hat künstliche Nervennetze und Ansprüche in seinem Buch Unmögliche Meinungen umfassend erforscht: Meine Neurone, Mein Bewusstsein, dass die Grundsätze, für eine bewusste Maschine zu schaffen, bereits bestehen, aber dass es vierzig Jahre bringen würde, um solch eine Maschine zu trainieren, Sprache zu verstehen. Ob das wahr ist, muss demonstriert werden, und das Kernprinzip in Unmöglichen Meinungen festgesetzt — dass das Gehirn eine Nervenzustandmaschine ist — ist für Zweifel offen.

Die Prüfung für das künstliche Bewusstsein

Die wohl bekannteste Methode, um Maschinenintelligenz zu prüfen, ist der Test von Turing, und es kann als ein indirekter Test auf das Bewusstsein gesehen werden. Ein anderer Test, der durch Eigenschaften von biologischen Systemen begeistert ist, ist ConsScale, und es ist als ein Mittel vorgeschlagen worden, die kognitive Entwicklung von künstlichen Wesen zu messen und zu charakterisieren.

Und doch gibt es einen sehr ernsten Einwand gegen die Glaubhaftigkeit eines Tests auf das Bewusstsein. Tests, als solcher, sind Verfahren der dritten Person, in denen Daten für unabhängige Nachforschende zugänglich ist. Jedoch ist qualia, oder phänomenologisches Bewusstsein, von Natur aus Ich-Form-Phänomen. Entsprechend, obwohl verschiedene Systeme verschiedene Zeichen des mit dem funktionellen Bewusstsein aufeinander bezogenen Verhaltens zeigen können, gibt es keinen denkbaren Weg, auf den Verfahren der dritten Person Zugang zur Ich-Form phänomenologische Eigenschaften haben können. Schließlich, dann, kann ein Test von starken Versionen von AC unmöglich sein.

Künstliches Bewusstsein in der Literatur und dem Kino

Siehe auch

Weiterführende Literatur

  • Haikonen, Pentti (2004), Bewusste Maschinen und Maschinengefühle, die auf der Werkstatt auf Modellen für das Maschinenbewusstsein, Antwerpen präsentiert sind, Juni 2004 SEIN.
  • Baars, Bernard J und Stan Franklin. 2003. Wie bewusste Erfahrung und Arbeitsgedächtnis aufeinander wirken. Tendenzen in der Erkenntnistheorie 7: 166-172.
  • Franklin, S, B J Baars, U Ramamurthy und Matthew Ventura. 2005. Die Rolle des Bewusstseins im Gedächtnis. Verstand, Meinungen und Medien 1: 1-38, pdf.
  • Casti, John L. "Das Quintett von Cambridge: Eine Arbeit der Wissenschaftlichen Spekulation", Perseus Books Group, 1998
  • McCarthy, John (1971-1987), Allgemeinheit in der Künstlichen Intelligenz http://www-formal.stanford.edu/jmc/generality/generality.html. Universität von Stanford, 1971-1987.
  • Pharoah M.C. (online). Das Achten auf Systemtheorie für eine reduktive Erklärung der phänomenalen Erfahrung und Entwicklungsfundamente für die höhere Ordnung hat Wiederbekommen am 13. Dez 2007 gedacht.
  • Suzuki T., Inaba K., Takeno, Junichi (2005), Bewusster Roboter, Den 'Zwischen Selbst und Andere und Werkzeug-Kunstverhalten, ('Bestes Papier von IEA/AIE2005), Neuerungen in der Angewandten Künstlichen Intelligenz, 18. Internationalen Konferenz für Industrie- und Technikanwendungen der Künstlichen Intelligenz und Expertensysteme, Seiten 101-110, IEA/AIE 2005, Bari, Italien am 22-24 Juni 2005 unterscheidet.
  • Takeno, Junichi (2006), Der 'Ich-bewusste Roboter-A Antwort auf Reaktionen zu Entdeckungsnachrichten - http://www.d6.dion.ne.jp/~takenof/SAR-LAL-Takeno.pdf, HRI Presse, August 2006.
  • Sternberg Eliezer J. (2007) sind Sie eine Maschine? Tha Gehirn die Meinung und Was es Mittel, Menschlich zu sein. Amherst, New York: Prometheus-Bücher.
  • Seite des Erklärens von Steven Ericsson-Zenith der Erfahrung in der Natur-Informationsseite.
  • Zagal, J.C. Lipson, H. (2009) "Selbstnachdenken in der Entwicklungsrobotertechnik" http://ccsl.mae.cornell.edu/sites/default/files/GECCO09_Zagal.pdf, den Verhandlungen der Genetischen und Evolutionären Berechnungskonferenz, Seiten 2179-2188, GECCO 2009.

Links

Softwareprojekte des Open Sources


Vereinigte Staaten Schiff die Vereinigten Staaten (1797) / Letztes Spritzen
Impressum & Datenschutz