Partial Reinforcement

Zitiere diesen Artikel als: Praveen Shrestha, „Partial Reinforcement,“ in Psychestudy, November 17, 2017, https://www.psychestudy.com/behavioral/learning-memory/operant-conditioning/reinforcement-punishment/partial-reinforcement.

Partial Reinforcement wird im Gegensatz zum kontinuierlichen Reinforcement nur in bestimmten Intervallen oder Zeitverhältnissen verstärkt, anstatt das Verhalten jedes Mal zu verstärken. Diese Form der Verstärkung nach einer bestimmten Anzahl korrekter Reaktionen oder nach einem bestimmten Zeitintervall wird auch als intermittierende Verstärkung bezeichnet.

Diese Art der Verstärkung wird als leistungsfähiger bei der Aufrechterhaltung oder Formung von Verhalten angesehen. Außerdem hat sich herausgestellt, dass Verhaltensweisen, die durch diese Form der Planung erworben wurden, widerstandsfähiger gegen Auslöschung sind.

Die Definition von partieller Verstärkung als inkonsistente oder zufällige Verstärkung von Reaktionen könnte die Angelegenheit aus der Sicht des Lernenden verkomplizieren. Forscher haben vier grundlegende Schemata der partiellen Verstärkung klassifiziert, die versuchen, verschiedene Arten von Intervallen und Verhältnissen zwischen Verstärkungen abzudecken.

1. Zeitplan mit festem Intervall

In einem Zeitplan mit festem Intervall (FI) muss z.B. eine Minute zwischen dem vorherigen und dem folgenden Mal vergehen, an dem die Verstärkung für korrekte Antworten zur Verfügung gestellt wird. Die Anzahl der Antworten ist während des gesamten Zeitraums irrelevant. Dies führt zu einer Veränderung der Verhaltensrate.
Die Reaktionsrate ist in der Regel unmittelbar nach einer Verstärkung langsamer, nimmt aber stetig zu, wenn der Zeitpunkt für die nächste Verstärkung näher rückt.
Beispiel: Jemand, der stundenweise bezahlt wird, unabhängig von der Menge seiner Arbeit.

2. Variable-Intervall-Plan

In einem variablen Intervall-Plan (VI) werden unterschiedliche Zeitspannen zwischen der Bereitstellung von Verstärkung zugelassen. Die Verstärkung ist vom Ablauf der Zeit abhängig, aber das Intervall variiert in zufälliger Reihenfolge. Jedes Intervall kann z. B. von einer bis fünf Minuten oder von zwei bis vier Minuten variieren. Die Versuchsperson ist nicht in der Lage, herauszufinden, wann die Verstärkung kommen würde; daher ist die Reaktionsrate relativ gleichmäßig.
Beispiel: Ein Fischer wartet für eine bestimmte Zeit am Ufer, und er fängt wahrscheinlich jeden Tag die gleiche Anzahl von Fischen, aber der Abstand zwischen den Fängen ist nicht gleich. Wenn der Fisch als Verstärkung angesehen wird, dann ist er inkonsistent.

3. Fixed-Ratio Schedule

In einem Fixed-Ratio Schedule (FR) wird die Verstärkung nach einer festen Anzahl von richtigen Antworten gegeben. Die Verstärkung wird durch die Anzahl der richtigen Antworten bestimmt. Nehmen wir zum Beispiel an, dass die hungrige Ratte in der Skinner-Box den Hebel fünfmal drücken muss, bevor ein Futterpellet erscheint. Folglich folgt die Verstärkung auf jede fünfte Reaktion. Das Verhältnis ist dasselbe, wenn die Verstärkung präsentiert werden soll.

Beispiel: Eine Verkäuferin erhält einen Anreiz für jedes Paar Schuhe, das sie verkauft. Die Qualität ist unerheblich, da sie für eine höhere Anzahl verkaufter Schuhe eine höhere Vergütung erhält. Die Quantität des Outputs wird bei einem Plan mit festem Verhältnis maximiert.

4. Plan mit wertvollem Verhältnis

Bei einem Plan mit wertvollem Verhältnis (VR) wird die Verstärkung nach einer variablen Anzahl richtiger Antworten gewährt. In einem Zeitplan mit einem variablen Verhältnis von 10:1 ist die durchschnittliche Anzahl der richtigen Antworten, die gegeben werden müssen, bevor eine nachfolgende richtige Antwort verstärkt wird, 10, aber das Verhältnis der richtigen Antworten zur Verstärkung kann zufällig von 1:1 bis 20:1 variieren. Die Versuchsperson weiß in der Regel nicht, wann sie eine Belohnung erhält. Infolgedessen erfolgt die Reaktion mit hoher, gleichmäßiger Rate.

Beispiel: Ein praktisches Beispiel für einen variablen Ratio-Schedule ist, wie eine Person von Zeit zu Zeit seinen Facebook-Post überprüft und die Anzahl der Likes zählt.

Kritische Bewertung

Die verschiedenen Schedules haben unterschiedliche Vorteile. Es ist bekannt, dass Verhältnispläne aufgrund ihrer Vorhersehbarkeit höhere Antwortquoten hervorrufen als Intervallpläne.

Betrachten wir zum Beispiel einen Fabrikarbeiter, der pro hergestelltem Artikel bezahlt wird. Dies würde den Arbeiter motivieren, mehr zu produzieren.

Variable Zeitpläne sind weniger vorhersehbar, so dass sie dazu neigen, dem Aussterben zu widerstehen, und die Fortsetzung des Verhaltens wird von selbst gefördert. Glücksspiel und Fischfang gelten als klassische Beispiele für variable Zeitpläne. Trotz ihrer erfolglosen Rückmeldungen hoffen beide, dass ein weiterer Zug am Spielautomaten oder eine weitere Stunde Geduld ihr Glück verändern wird.

Da partielle Verstärkung das Verhalten widerstandsfähiger gegen Auslöschung macht, wird oft darauf umgeschaltet, ein neues Verhalten mit Hilfe eines kontinuierlichen Verstärkungsplans zu erlernen.

Zitiere diesen Artikel als: Praveen Shrestha, „Partial Reinforcement,“ in Psychestudy, November 17, 2017, https://www.psychestudy.com/behavioral/learning-memory/operant-conditioning/reinforcement-punishment/partial-reinforcement.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.