Instrumentelle Konditionierung in der Psychologie
Instrumentelles Konditionieren ist ein weiterer Begriff für operantes Konditionieren, ein Lernprozess, der zuerst von B. F. Skinner beschrieben wurde. Bei der instrumentellen Konditionierung wird durch Verstärkung oder Bestrafung die Wahrscheinlichkeit erhöht oder verringert, dass ein Verhalten in Zukunft erneut auftritt.
Beispiele
Wenn eine Schülerin zum Beispiel jedes Mal, wenn sie im Unterricht die Hand hebt, mit Lob belohnt wird, steigt die Wahrscheinlichkeit, dass sie in Zukunft wieder die Hand hebt.
Wenn sie auch gescholten wird, wenn sie aus der Reihe spricht, wird es weniger wahrscheinlich, dass sie den Unterricht unterbricht. In diesen Beispielen verwendet der Lehrer eine Verstärkung, um das Handheben zu verstärken, und eine Bestrafung, um das Sprechen außerhalb des Turns zu schwächen.
Instrumentelle Konditionierung wird häufig auch im Training von Tieren eingesetzt. Zum Beispiel würde das Trainieren eines Hundes zum Händeschütteln jedes Mal eine Belohnung beinhalten, wenn das gewünschte Verhalten auftritt.
Geschichte
Psychologe E.L. Thorndike war einer der ersten, der den Einfluss der Verstärkung in Puzzlebox-Experimenten mit Katzen beobachtete. Während dieser Experimente beobachtete Thorndike einen Lernprozess, den er als "Versuch und Irrtum" -Lernen bezeichnete.
Die Experimente umfassten das Platzieren einer hungrigen Katze in einer Puzzlebox und um sich selbst zu befreien, musste die Katze herausfinden, wie sie entkommen konnte. Thorndike bemerkte dann, wie lange es gedauert hatte, bis sich die Katzen bei jedem Versuch befreit hatten. Anfänglich beschäftigten sich die Katzen mit ineffektiven Fluchtmethoden, indem sie an den Seiten oder am oberen Rand der Kiste kratzten und gruben. Schließlich würde Versuch und Irrtum die Katzen dazu bringen, den Fluchtweg erfolgreich zu schieben oder zu ziehen. Nach jedem Versuch waren die Katzen immer weniger mit dem ineffektiven Fluchtverhalten befasst und reagierten schneller mit den richtigen Fluchtaktionen.
Thorndike bezeichnete seine Beobachtungen als Wirkungsgesetz. Die Stärke einer Antwort nimmt zu, wenn unmittelbar darauf ein "sättigender" (Verstärker) folgt. Auf der anderen Seite werden Handlungen, die von unangenehmen Effekten begleitet werden, eher geschwächt.
In Thorndikes Experimenten mit Puzzles war die Flucht aus der Schachtel die zufriedenstellendere. Jedes Mal, wenn die Katzen erfolgreich aus der Kiste entkommen waren, wurde das Verhalten, das der Flucht unmittelbar vorausging, verstärkt und verstärkt.
Thorndikes Arbeit hatte einen enormen Einfluss auf B. F. Skinners spätere Forschungen zur operanten Konditionierung. Skinner schuf sogar seine eigene Version von Thorndikes Puzzle-Boxen, die er als Operantenkammer bezeichnete, auch als Skinner-Box bekannt.
Wie es funktioniert
Skinner identifizierte zwei Haupttypen von Verhalten. Der erste Typ ist das Verhalten der Befragten. Dies sind einfach Handlungen, die reflexartig ohne Lernen ablaufen. Wenn Sie etwas Heißes berühren, ziehen Sie sofort Ihre Hand zurück. Die klassische Konditionierung konzentriert sich auf diese Verhaltensweisen der Befragten.
In Pawlows klassischen Experimenten mit Hunden war es das Verhalten der Befragten, sich auf die Präsentation des Futters einzulassen. Indem Pavlov eine Assoziation zwischen dem Klang einer Glocke und der Präsentation des Futters herstellte, war er jedoch in der Lage, Hunde so zu trainieren, dass sie beim Klang dieser Glocke tatsächlich Speichelfluss hatten.
Skinner erkannte, dass klassische Konditionierung zwar erklären kann, wie Verhaltensweisen der Befragten zum Lernen führen können, aber nicht jede Art von Lernen erklären kann. Stattdessen schlug er vor, dass es die Konsequenzen freiwilligen Handelns seien, die zu größtmöglichem Lernen führten.
Die zweite Art von Verhalten ist das, was Skinner als operantes Verhalten bezeichnet. Er definierte dies als jedes freiwillige Verhalten, das auf die Umwelt einwirkt, um eine Reaktion zu erzeugen. Dies sind die freiwilligen Verhaltensweisen, die unter unserer bewussten Kontrolle stehen. Dies sind auch Aktionen, die gelernt werden können. Die Konsequenzen unseres Handelns spielen eine wichtige Rolle im Lernprozess.
Verstärkung und Bestrafung
Skinner identifizierte zwei Schlüsselaspekte des operanten Konditionierungsprozesses. Verstärkung dient dazu, das Verhalten zu verstärken, während Bestrafung dazu dient, das Verhalten zu verringern.
Es gibt auch zwei verschiedene Arten der Verstärkung und zwei verschiedene Arten der Bestrafung. Zur positiven Verstärkung gehört das Vorlegen eines günstigen Ergebnisses, z. B. eine Belohnung für ein Kind, nachdem es sein Zimmer gereinigt hat.
Negative Verstärkung bedeutet, dass ein unangenehmer Reiz beseitigt wird, wie wenn man einem Kind sagt, dass es seinen Brokkoli nicht essen muss, wenn es alle seine Kartoffeln isst. Da das Kind Brokkoli als unangenehme Folge ansieht und der Verzehr der Kartoffeln zur Beseitigung dieser unerwünschten Folge führt, wird der Verzehr der Kartoffeln dann negativ verstärkt.
Positive Bestrafung bedeutet, ein unangenehmes Ereignis nach einem Verhalten anzuwenden. Zum Beispiel ist Prügelstrafe ein weit verbreitetes Beispiel für positive Bestrafung. Diese Art der Bestrafung wird oft als Bestrafung durch Anwendung bezeichnet. Eine negative Konsequenz wird direkt angewendet, um das unerwünschte Verhalten zu reduzieren.
Negative Bestrafung bedeutet, etwas Angenehmes wegzunehmen, nachdem ein Verhalten stattgefunden hat. Wenn ein Kind beispielsweise sein Zimmer nicht sauber macht, können die Eltern ihm mitteilen, dass es nicht mit seinen Freunden ins Einkaufszentrum gehen kann. Das Wegnehmen der gewünschten Aktivität wirkt sich negativ auf das vorhergehende Verhalten aus.