Das Bedingen von Operant

Das Bedingen von Operant (oder instrumentale Bedingen) sind eine Form des Lernens, in dem ein Verhalten einer Person durch seine Folgen modifiziert wird; das Verhalten kann sich in die Form, Frequenz oder Kraft ändern. Das Bedingen von Operant ist vom klassischen Bedingen (oder Befragter bemerkenswert, der bedingt) in der operant bedingende Geschäfte mit der Modifizierung des "freiwilligen Verhaltens" oder operant Verhaltens. Verhalten von Operant funktioniert auf der Umgebung und wird durch seine Folgen aufrechterhalten, während sich das klassische Bedingen mit dem Bedingen von reflexiven (zurückgebogenen) Handlungsweisen befasst, die durch vorhergehende Bedingungen entlockt werden. Über ein klassisches Bedingen-Verfahren bedingte Handlungsweisen werden durch Folgen nicht aufrechterhalten.

Verstärkung, Strafe und Erlöschen

Verstärkung und Strafe, die Kernwerkzeuge des Operant-Bedingens, sind irgendein (geliefert im Anschluss an eine Antwort) positiv, oder (zurückgezogen im Anschluss an eine Antwort) negativ. Das schafft insgesamt vier grundlegende Folgen mit der Hinzufügung eines fünften Verfahrens, das als Erlöschen (d. h. keine Änderung in Folgen im Anschluss an eine Antwort) bekannt ist.

Es ist wichtig zu bemerken, dass Schauspieler nicht gesprochen als verstärkt werden, bestraft oder ausgelöscht werden; es sind die Handlungen, die verstärkt, bestraft oder ausgelöscht werden. Zusätzlich sind Verstärkung, Strafe und Erlöschen nicht Begriffe, deren Gebrauch auf das Laboratorium eingeschränkt wird. Wie man auch sagen kann, verstärken natürlich vorkommende Folgen, bestrafen, oder löschen Verhalten aus und werden von Leuten nicht immer geliefert.

  • Verstärkung ist eine Folge, die ein Verhalten verursacht, mit der größeren Frequenz vorzukommen.
  • Strafe ist eine Folge, die ein Verhalten verursacht, mit weniger Frequenz vorzukommen.
  • Erlöschen wird durch den Mangel an jeder Folge im Anschluss an ein Verhalten verursacht. Wenn ein Verhalten inkonsequent ist (d. h., weder günstige noch ungünstige Folgen erzeugend), wird es weniger oft vorkommen. Wenn ein vorher verstärktes Verhalten entweder mit der positiven oder mit negativen Verstärkung nicht mehr verstärkt wird, führt es zu einem Niedergang in diesem Verhalten.

Vier Zusammenhänge des Operant-Bedingens

Hier werden die Begriffe positiv und negativ in ihrem populären Sinn, aber eher nicht gebraucht: Positiv bezieht sich auf die Hinzufügung, und negativ bezieht sich auf die Subtraktion.

Was hinzugefügt oder abgezogen wird, kann entweder Verstärkung oder Strafe sein. Folglich ist positive Strafe manchmal ein verwirrender Begriff, weil sie die "Hinzufügung" eines Stimulus oder Zunahme in der Intensität eines Stimulus anzeigt, der aversive (wie das Dahinflitzen oder ein Stromschlag) ist. Die vier Verfahren sind:

  1. Positive Verstärkung (Verstärkung): Kommt vor, wenn einem Verhalten (Antwort) von einem Stimulus gefolgt wird, der appetitive oder das Belohnen ist, die Frequenz dieses Verhaltens vergrößernd. Im Pelzhändler-Kasten-Experiment kann ein Stimulus wie Essen oder Zuckerlösung geliefert werden, wenn sich die Ratte mit einem Zielverhalten, wie das Drücken eines Hebels beschäftigt.
  2. Negative Verstärkung (Flucht): Kommt vor, wenn einem Verhalten (Antwort) von der Eliminierung eines aversive Stimulus gefolgt wird, dadurch dass die Frequenz des Verhaltens vergrößernd. Im Pelzhändler-Kasten-Experiment kann negative Verstärkung ein lautes Geräusch sein, das unaufhörlich innerhalb des Käfigs der Ratte klingt, bis es sich mit dem Zielverhalten, wie das Drücken eines Hebels beschäftigt, auf den das laute Geräusch entfernt wird.
  3. Positive Strafe (Strafe) (auch genannt "Strafe durch die abhängige Anregung"): Kommt vor, wenn einem Verhalten (Antwort) von einem Stimulus, wie das Einführen eines Stoßes oder lauten Geräusches gefolgt wird, auf eine Abnahme in diesem Verhalten hinauslaufend.
  4. Negative Strafe (Strafe) (auch genannt "Strafe durch den abhängigen Abzug"): Kommt vor, wenn einem Verhalten (Antwort) von der Eliminierung eines Stimulus, wie das Wegnehmen eines Spielzeugs eines Kindes im Anschluss an ein unerwünschtes Verhalten gefolgt wird, auf eine Abnahme in diesem Verhalten hinauslaufend.

Das Bedingen von Operant, um menschliches Verhalten zu ändern

  1. Staatsabsicht (zielt auf die Studie)
  2. Monitor-Verhalten (loggen Bedingungen)
  3. Verstärken Sie gewünschtes Verhalten (geben Sie Belohnung für das richtige Verhalten)
  4. Reduzieren Sie Anreize, unerwünschtes Verhalten durchzuführen

Auch:

  • Aufhebung, die erfährt, ist ein Typ des Lernens, auf das ein bestimmtes Verhalten auf die Beendigung eines aversive Stimulus hinausläuft. Zum Beispiel, das Verhalten durchführend, jemandes Augen zu beschirmen, wenn im Sonnenlicht (oder draußen gehend), helfen wird, die aversive Anregung zu vermeiden, Licht in jemandes Augen zu haben.
  • Erlöschen kommt vor, wenn ein Verhalten (Antwort), die vorher verstärkt worden war, nicht mehr wirksam ist. Im Pelzhändler-Kasten-Experiment ist das die Ratte, den Hebel stoßend und mit einem Nahrungsmittelkügelchen mehrere Male belohnt, und dann den Hebel wieder stoßend und nie ein Nahrungsmittelkügelchen wieder erhaltend. Schließlich würde die Ratte aufhören, den Hebel zu stoßen.
  • Nichtabhängige Verstärkung bezieht sich auf die Übergabe, Stimuli unabhängig vom (abweichenden) Verhalten des Organismus zu verstärken. Die Idee besteht darin, dass das Zielverhalten abnimmt, weil es nicht mehr notwendig ist, die Verstärkung zu erhalten. Das hat normalerweise zeitbasierte Übergabe von Stimuli zur Folge, die als das Aufrechterhalten abweichenden Verhaltens identifiziert sind, das dient, um die Rate des Zielverhaltens zu vermindern. Da kein gemessenes Verhalten als identifiziert wird gestärkt werden, gibt es Meinungsverschiedenheit, die den Gebrauch des Begriff-Nichtanteils "Verstärkung" umgibt.
  • Scheinwirtschaft ist ein Austauschsystem mit den Grundsätzen des Operant-Bedingens, wo ein Jeton als eine Belohnung für ein gewünschtes Verhalten gegeben wird. Jetons können später gegen einen gewünschten Preis wie ein Vorzug, ein Vergnügen oder ein spezielles Ereignis ausgetauscht werden. Wenn dieses System auf eine konsequente und gerechte Weise getan wird, werden Verbesserungen im Ändern des Verhaltens besonders mit Kindern und Erwachsenen mit intellektuellen und/oder Entwicklungskörperbehinderungen beobachtet. Jedoch sind Moralsorgen bezüglich des unnötigen Einflusses auf Patienten besprochen worden, und deshalb wird das Scheinsparsystem als häufig nicht zurzeit verwendet.
  • Das Formen ist eine Form von operant, der bedingt, in dem die immer genaueren Annäherungen einer gewünschten Antwort verstärkt werden.
  • Das Anketten ist ein Unterrichtsverfahren, das verstärkende individuelle Antworten einschließt, die in eine Folge vorkommen, um ein kompliziertes Verhalten zu bilden.
  • Ansprechkosten sind eine Form der Strafe, in der die Vernichtung eines appetitive Stimulus immer dem Reduzieren im Ereignis einer Antwort folgt.
  • Myers, Psychologie-Text (300-400)

Das Gesetz von Thorndike der Wirkung

Das Bedingen von Operant, manchmal genannt das instrumentale Lernen, wurde zuerst von Edward L. Thorndike (1874-1949) umfassend studiert, wer das Verhalten von Katzen beobachtet hat, die versuchen, selbst gemachten Rätsel-Kästen zu entfliehen. Als zuerst gezwungen in den Kästen die Katzen viel Zeit in Anspruch genommen haben, um zu flüchten. Mit der Erfahrung sind unwirksame Antworten weniger oft vorgekommen, und erfolgreiche Antworten sind öfter vorgekommen, den Katzen ermöglichend, in kürzerer Zeit über aufeinander folgende Proben zu flüchten. In seinem Gesetz der Wirkung hat Thorndike theoretisiert, dass auf erfolgreiche Antworten, diejenigen, die befriedigende Folgen erzeugen, in" durch die Erfahrung "gestampft wurde und so öfter vorgekommen ist. Erfolglose Antworten, diejenigen, die ärgerliche Folgen erzeugen, wurden ausgeprägt und sind nachher weniger oft vorgekommen. Kurz gesagt, einige Folgen haben Verhalten gestärkt, und einige Folgen haben Verhalten geschwächt. Thorndike hat die ersten bekannten Lernkurven durch dieses Verfahren erzeugt.

B.F. Skinner (1904-1990) hat eine ausführlichere Analyse von operant das Bedingen basiert auf der Verstärkung, der Strafe und dem Erlöschen formuliert. Im Anschluss an die Ideen von Ernst Mach hat Skinner die vermittelnden Strukturen von Thorndike zurückgewiesen, die durch "die Befriedigung" erforderlich sind, und hat eine neue Konzeptualisierung des Verhaltens ohne irgendwelche solche Verweisungen gebaut. Also, während er mit einigen selbst gemachten Zufuhrmechanismen experimentiert hat, hat Skinner den Operant-Bedingen-Raum erfunden, der ihm erlaubt hat, Rate der Antwort als eine Schlüsselabhängiger-Variable mit einer kumulativen Aufzeichnung von Hebel-Pressen oder Schlüsselmengen zu messen.

Biologische Korrelate des Operant-Bedingens

Die ersten wissenschaftlichen Studien, die Neurone identifizieren, die auf Weisen geantwortet haben, die darauf hingewiesen haben, dass sie für bedingte Stimuli verschlüsseln, sind aus der Arbeit von Mahlon deLong und von R.T. Richardson gekommen. Sie haben gezeigt, dass Kern basalis Neurone, die Azetylcholin weit gehend überall im Kortex veröffentlichen, kurz nach einem bedingten Stimulus, oder nach einer primären Belohnung aktiviert wird, wenn kein bedingter Stimulus besteht. Diese Neurone sind für positive und negative Versteifungen ebenso aktiv und sind demonstriert worden, um Knetbarkeit in vielen cortical Gebieten zu verursachen. Beweise bestehen auch, dass dopamine in ähnlichen Zeiten aktiviert wird. Es gibt beträchtliche Beweise, dass dopamine sowohl an der Verstärkung als auch am Aversive-Lernen teilnimmt. Pfade von Dopamine springen viel dichter auf frontale Kortex-Gebiete vor. Vorsprünge von Cholinergic sind im Gegensatz sogar in den späteren cortical Gebieten wie der primäre Sehkortex dicht. Eine Studie von Patienten mit der Parkinsonschen Krankheit, eine Bedingung, die der ungenügenden Handlung von dopamine zugeschrieben ist, illustriert weiter die Rolle von dopamine in der positiven Verstärkung. Es hat das gezeigt, während von ihrem Medikament Patienten mehr sogleich mit aversive Folgen erfahren haben als mit der positiven Verstärkung. Patienten, die auf ihrem Medikament waren, haben sich gezeigt gegenüber, positive Verstärkung der Fall sein, die sich erweist, die wirksamere Form des Lernens zu sein, wenn die Handlung von dopamine hoch ist.

Faktoren, die die Wirksamkeit von Folgen verändern

Wenn

man Folgen verwendet, um eine Antwort zu modifizieren, kann die Wirksamkeit einer Folge vergrößert oder durch verschiedene Faktoren vermindert werden. Diese Faktoren können entweder für verstärkende oder für bestrafende Folgen gelten.

  1. Sättigung/Beraubung: Die Wirksamkeit einer Folge wird reduziert, wenn "der Appetit" der Person auf diese Quelle der Anregung zufrieden gewesen ist. Umgekehrt wird die Wirksamkeit einer Folge zunehmen, weil die Person sozial benachteiligt dieses Stimulus wird. Wenn jemand Hunger nicht hat, wird Essen keine wirksame Versteifung für das Verhalten sein. Sättigung ist allgemein nur ein potenzielle Problem mit primären Versteifungen, diejenigen, die wie Essen und Wasser nicht erfahren zu werden brauchen.
  2. Unmittelbarkeit: Nach einer Antwort, wie sofort eine Folge dann gefühlt wird, bestimmt die Wirksamkeit der Folge. Unmittelbareres Feed-Back wird wirksamer sein als weniger unmittelbares Feed-Back. Wenn jemandes Nummernschild durch eine Verkehrskamera für die Geschwindigkeitsübertretung gefangen wird und sie eine eilende Karte in der Post eine Woche später erhalten, wird diese Folge gegen die Geschwindigkeitsübertretung nicht sehr wirksam sein. Aber wenn jemand eilt und von einem Offizier ertappt wird, der sie zieht, dann wird ihr eilendes Verhalten mit größerer Wahrscheinlichkeit betroffen.
  3. Eventualität: Wenn eine Folge nicht abhängig tut (zuverlässig, oder durchweg) der Zielantwort folgen, wird seine Wirksamkeit nach der Antwort reduziert. Aber wenn eine Folge der Antwort durchweg folgt, nachdem aufeinander folgende Beispiele, seine Fähigkeit, die Antwort zu modifizieren, vergrößert wird. Die Liste der Verstärkung, wenn konsequent, führt zum schnelleren Lernen. Wenn die Liste variabel ist, ist das Lernen langsamer. Erlöschen ist schwieriger, wenn das Lernen während der periodisch auftretenden Verstärkung und leichter ausgelöscht vorkommt, wenn das Lernen während einer hoch konsequenten Liste vorkommt.
  4. Größe: Das ist eine "Kosten-Nutzen-Aspekt"-Determinante dessen, ob eine Folge wirksam sein wird. Wenn die Größe oder Betrag, der Folge groß genug ist, um der Anstrengung wert zu sein, wird die Folge auf das Verhalten wirksamer sein. Ein ungewöhnlich großer Lotteriehauptgewinn könnte zum Beispiel genug sein, um zu veranlassen, dass jemand eine Ein-Dollar-Lotteriekarte (oder sogar das Kaufen vielfacher Karten) gekauft hat. Aber wenn ein Lotteriehauptgewinn klein ist, könnte dieselbe Person nicht es fühlen, um der Anstrengung wert zu sein, auszufahren und einen Platz zu finden, eine Karte zu kaufen. In diesem Beispiel ist es auch nützlich zu bemerken, dass "Anstrengung" eine Bestrafen-Folge ist. Wie diese das Entgegensetzen Folgen erwartet hat (Verstärkung und das Bestrafen), wird Gleichgewicht bestimmen, ob das Verhalten durchgeführt wird oder nicht.

Die meisten dieser Faktoren bestehen aus biologischen Gründen. Der biologische Zweck des Grundsatzes der Sättigung soll den homeostasis des Organismus aufrechterhalten. Als ein Organismus von Zucker, zum Beispiel, der Wirksamkeit des Geschmacks von Zucker beraubt worden ist, weil eine Versteifung hoch ist. Jedoch, weil der Organismus erreicht oder ihre optimalen Blutzuckerspiegel überschreitet, tritt der Geschmack von Zucker weniger, vielleicht sogar aversive in Kraft.

Die Grundsätze der Unmittelbarkeit und Eventualität bestehen aus Neurochemical-Gründen. Wenn ein Organismus einen Verstärkungsstimulus erfährt, dopamine Pfade im Gehirn werden aktiviert. Dieses Netz von Pfaden "veröffentlicht einen kurzen Puls von dopamine auf viele Dendriten, so ein ziemlich globales Verstärkungssignal zu postsynaptic Neuronen übertragend." Das läuft auf die Knetbarkeit dieser Synapsen hinaus, die kürzlich aktivierte Synapsen erlauben, ihre Empfindlichkeit zu Efferent-Signalen folglich zu vergrößern, die Wahrscheinlichkeit des Ereignisses für die neuen Antworten vergrößernd, die der Verstärkung vorangehen. Diese Antworten, sind statistisch, am wahrscheinlichsten, das Verhalten gewesen zu sein, das dafür verantwortlich ist, Verstärkung erfolgreich zu erreichen. Aber wenn die Anwendung der Verstärkung entweder weniger unmittelbar ist oder weniger (weniger konsequenter) Anteil, wird die Fähigkeit von dopamine, nach den passenden Synapsen zu handeln, reduziert.

Veränderlichkeit von Operant

Veränderlichkeit von Operant ist, was einer Antwort erlaubt, sich an neue Situationen anzupassen. Verhalten von Operant ist von Reflexen in dieser seiner Ansprechtopografie bemerkenswert (die Form der Antwort) ist geringen Schwankungen von einer Leistung bis einen anderen unterworfen. Diese geringen Schwankungen können kleine Unterschiede in den spezifischen Bewegungen beteiligt, Unterschiede im Betrag der Kraft angewandte und kleine Änderungen im Timing der Antwort einschließen. Wenn eine Geschichte eines Themas der Verstärkung entspricht, werden solche Schwankungen stabil bleiben, weil dieselben erfolgreichen Schwankungen mit größerer Wahrscheinlichkeit verstärkt werden als weniger erfolgreiche Schwankungen. Jedoch kann Verhaltensveränderlichkeit auch, wenn unterworfen, bestimmten Steuern-Variablen verändert werden.

Das Aufhebungslernen

Aufhebung, die erfährt, gehört negativen Verstärkungslisten. Das Thema erfährt, dass eine bestimmte Antwort auf die Beendigung oder Verhinderung eines aversive Stimulus hinauslaufen wird. Es gibt zwei Arten allgemein verwendeter experimenteller Einstellungen: das unterschiedene und freie-operant Aufhebungslernen.

Das unterschiedene Aufhebungslernen

Im unterschiedenen Aufhebungslernen wird einem neuartigen Stimulus wie ein Licht oder ein Ton von einem aversive Stimulus wie ein Stoß (die CS-Vereinigten-Staaten gefolgt, die dem klassischen Bedingen ähnlich sind). Während der ersten Proben (genannt Flucht-Proben) erfährt das Tier gewöhnlich beide der CS (Bedingter Stimulus) und die Vereinigten Staaten (Bedingungsloser Stimulus), die operant Antwort zeigend, um die aversive Vereinigten Staaten zu begrenzen. Während späterer Proben wird das Tier lernen, die Antwort bereits während der Präsentation des CS durchzuführen, der so die aversive Vereinigten Staaten davon abhält vorzukommen. Solche Proben werden "Aufhebungsproben genannt."

Das freie-operant Aufhebungslernen

In dieser experimentellen Sitzung wird kein getrennter Stimulus verwendet, um dem Ereignis des aversive Stimulus Zeichen zu geben. Eher wird der aversive Stimulus (größtenteils Stöße) ohne ausführliche Warnstimuli präsentiert. Es gibt zwei entscheidende Zeitabstände, die die Rate des Aufhebungslernens bestimmen. Dieser erste wird den S-S-interval (Stoß-Zwischenraum des Stoßes) genannt. Das ist die Zeitdauer, die während aufeinander folgender Präsentationen des Stoßes geht (wenn die operant Antwort nicht durchgeführt wird). Der andere wird den R-S-interval (Stoß-Zwischenraum des Ansprech-) genannt, der die Länge des Zeitabstands im Anschluss an eine operant Antwort angibt, während deren keine Stöße geliefert werden. Bemerken Sie, dass jedes Mal der Organismus die operant Antwort durchführt, beginnt der R-S-interval ohne Stöße von neuem.

Zwei-Prozesse-Theorie der Aufhebung

Diese Theorie wurde ursprünglich gegründet, um das Lernen im unterschiedenen Aufhebungslernen zu erklären. Es nimmt zwei Prozesse an stattzufinden:

a) Das klassische Bedingen der Angst.

: Während der ersten Proben mit der Ausbildung erfährt der Organismus sowohl CS als auch die aversive Vereinigten Staaten (Flucht-Proben). Die Theorie hat angenommen, dass während jener Proben das klassische Bedingen durch die Paarung des CS mit den Vereinigten Staaten stattfindet. Wegen der aversive Natur der Vereinigten Staaten soll der CS eine bedingte emotionale Reaktion (CER) - Angst entlocken. Im klassischen Bedingen, einen mit den aversive Vereinigten Staaten bedingten CS präsentierend, stört das andauernde Verhalten des Organismus.

b) Verstärkung der operant Antwort durch die Angst-Verminderung.

: Weil während des ersten Prozesses der CS Nachrichtenübermittlung den aversive Vereinigten Staaten selbst aversive durch das Herausbekommen der Angst im Organismus, das Reduzieren dieser unangenehmen emotionalen Reaktion Aufschläge geworden ist, um die operant Antwort zu motivieren. Der Organismus lernt, die Antwort während der Vereinigten Staaten zu machen, so die aversive innere durch den CS entlockte Reaktion begrenzend. Ein wichtiger Aspekt dieser Theorie ist, dass der Begriff "Aufhebung" nicht wirklich beschreibt, was der Organismus tut. Es "vermeidet" die aversive Vereinigten Staaten im Sinne des Vorwegnehmens davon nicht. Eher entkommt der Organismus einem aversive inneren Staat, der durch den CS verursacht ist.

Wörtliches Verhalten

1957 hat Skinner Wörtliches Verhalten, eine theoretische Erweiterung der Arbeit veröffentlicht, für die er seit 1938 den Weg gebahnt hatte. Diese Arbeit hat die Theorie von operant erweitert, der zum menschlichen Verhalten vorher bedingt, das den Gebieten der Sprache, Linguistik und anderen Gebiete zugeteilt ist. Wörtliches Verhalten ist die logische Erweiterung der Ideen von Skinner, in denen er neue funktionelle Beziehungskategorien wie Intraverbalsubstantive, Autoclitics, mands, Taktgefühle und die Steuern-Beziehung des Publikums eingeführt hat. Alle diese Beziehungen haben auf dem Operant-Bedingen basiert und haben sich auf keine neuen Mechanismen trotz der Einführung von neuen funktionellen Kategorien verlassen.

Vier Begriff-Eventualität

Angewandte Verhaltensanalyse, die der Name der Disziplin direkt ist, ist von der Arbeit von Skinner hinuntergestiegen, meint, dass Verhalten in vier Begriffen erklärt wird: bedingter Stimulus (S), ein unterscheidender Stimulus (S), eine Antwort (R), und ein Verstärkungsstimulus (S oder S für Versteifungen, manchmal S für aversive Stimuli).

Bauzaun von Operant

Bauzaun von Operant ist ein Verweisen zur Wahl, die von einer Ratte auf einer zusammengesetzten Liste gemacht ist, genannt eine vielfache Liste, die seine Rate der Verstärkung in einem operant das Bedingen des Zusammenhangs maximiert. Mehr spezifisch, wie man zeigte, hatten Ratten Nahrungsmittelkügelchen erlaubt, in einem Nahrungsmitteltablett anzuwachsen, indem sie fortgesetzt haben, einen Hebel auf einer dauernden Verstärkungsliste zu drücken, anstatt jene Kügelchen wiederzubekommen. Die Wiederauffindung der Kügelchen hat immer eine einminutige Periode des Erlöschens errichtet, während dessen keine zusätzlichen Nahrungsmittelkügelchen verfügbar waren, aber diejenigen, die angesammelt worden waren, früher konnte verbraucht werden. Diese Entdeckung scheint, der üblichen Entdeckung zu widersprechen, dass sich Ratten impulsiv in Situationen benehmen, in denen es eine Wahl zwischen einem kleineren Nahrungsmittelgegenstand sofort und einem größeren Nahrungsmittelgegenstand nach einer Verzögerung gibt. Sieh Listen der Verstärkung.

Eine Alternative zum Gesetz der Wirkung

Jedoch ist eine alternative Perspektive von R. Allen und Beatrix Gardner vorgeschlagen worden. Unter dieser Idee, die sie "feedforward" genannt haben, erfahren Tiere während des Operant-Bedingens durch die einfache Paarung von Stimuli, aber nicht durch die Folgen ihrer Handlungen. Skinner hat behauptet, dass eine Ratte oder Taube nur einen Hebel, wenn belohnt, für die Handlung, einen Prozess manipulieren würden, den er "das Formen" (Belohnung dafür genannt hat, sich dann Manipulierung eines Hebels zu nähern). Jedoch, um die Notwendigkeit der Belohnung (Verstärkung) im Hebel-Drücken zu beweisen, muss eine Kontrollbedingung, wohin Essen ohne Rücksicht auf das Verhalten geliefert wird, auch geführt werden. Skinner hat nie diese Kontrollgruppe veröffentlicht. Nur viel später war es hat gefunden, dass Ratten und Tauben wirklich tatsächlich lernen, einen Hebel zu manipulieren, wenn Essen ohne Rücksicht auf das Verhalten kommt. Dieses Phänomen ist als das Autoformen bekannt. Das Autoformen demonstriert, dass die Folge der Handlung in einem Operant-Bedingen-Raum nicht notwendig ist, und es dem Gesetz der Wirkung widerspricht. Weiteres Experimentieren hat gezeigt, dass Ratten natürlich kleine Gegenstände wie ein Hebel behandeln, wenn Essen da ist. Ratten scheinen darauf zu beharren, den Hebel zu behandeln, wenn kostenlose Verpflegung (das Gegenschmarotzen) verfügbar ist, und selbst wenn das Drücken des Hebels zu weniger Essen (Weglassungsausbildung) führt. Wann auch immer Essen präsentiert wird, behandeln Ratten den Hebel trotzdem, wenn das Hebel-Drücken zu mehr Essen führt. Deshalb ist das Berühren eines Hebels ein natürliches Verhalten, das Ratten als Vorbereitungszufuhrtätigkeit, und der Reihe nach tun, kann das Hebel-Drücken nicht als Beweise für die Belohnung oder Verstärkung logisch verwendet werden, um vorzukommen. Ohne Beweise für die Verstärkung während des Operant-Bedingens erfahrend, der während Operant-Experimente vorkommt, ist wirklich nur Pavlovian (das klassische) Bedingen. Die Zweiteilung zwischen Pavlovian und dem Operant-Bedingen ist deshalb eine unpassende Trennung.

Siehe auch

  • Tier, das prüft
  • Angewandte Verhaltensanalyse
  • Behaviorismus (Philosophien hinter operant, der bedingt)
  • Cognitivism (Psychologie) (Theorie von inneren Mechanismen ohne Berücksichtigung des Verhaltens)
  • Bildungspsychologie
  • Bildungstechnologie
  • Experimentelle Analyse des Verhaltens
  • Aussetzungstherapie
  • Gewöhnung
  • Jerzy Konorski
  • Gelehrter Fleiß
  • Das Zusammenbringen des Gesetzes
  • Negative (positive) Kontrastwirkung
  • Vorregenmantel-Grundsatz
  • Verstärkung, die erfährt
  • Belohnungssystem
  • Sensibilismus
  • Das soziale Bedingen
  • Spontane Wiederherstellung

Links


Kubb / Samson und Delilah (Oper)
Impressum & Datenschutz