Il rinforzo parziale, a differenza del rinforzo continuo, viene rinforzato solo a determinati intervalli o rapporti di tempo, invece di rinforzare il comportamento ogni singola volta. Questa forma di programmazione del rinforzo dopo un certo numero di risposte corrette o un certo intervallo di tempo è anche definita rinforzo intermittente.
Questo tipo di rinforzo è considerato più potente nel mantenere o modellare il comportamento. Inoltre, i comportamenti acquisiti da questa forma di programmazione sono stati trovati più resistenti all’estinzione.
La definizione di rinforzo parziale come rinforzo incoerente o casuale delle risposte potrebbe complicare la questione dal punto di vista dell’allievo. I ricercatori hanno classificato quattro programmi di base di rinforzo parziale che tentano di coprire vari tipi di intervallo e rapporti tra i rinforzi.
1. Fixed-Interval Schedule
In un programma a intervallo fisso (FI), diciamo un minuto, deve passare tra la volta precedente e quella successiva che il rinforzo è reso disponibile per le risposte corrette. Il numero di risposte è irrilevante per tutto il periodo di tempo. Questo causa un cambiamento nel tasso di comportamento.
Il tasso di risposta è di solito più lento immediatamente dopo un rinforzo, ma aumenta costantemente man mano che si avvicina il momento del prossimo rinforzo.
Esempio: Qualcuno che viene pagato all’ora, indipendentemente dalla quantità del suo lavoro.
2. Variable-Interval Schedule
In un programma a intervallo variabile (VI), si lascia passare una quantità variabile di tempo tra il rendere disponibile il rinforzo. Il rinforzo è condizionato dal passare del tempo, ma l’intervallo varia in ordine casuale. Ogni intervallo può variare, per esempio, da uno a cinque minuti, o da due a quattro minuti. Il soggetto non è in grado di scoprire quando il rinforzo sarebbe arrivato; quindi, il tasso di risposte è relativamente costante.
Esempio: Un pescatore aspetta sulla riva per un certo periodo di tempo, e molto probabilmente cattura lo stesso numero di pesci ogni giorno, ma l’intervallo tra le catture non è lo stesso. Se il pesce è considerato un rinforzo, allora è incoerente.
3. Fixed-Ratio Schedule
In un programma a rapporto fisso (FR), il rinforzo è fornito dopo un numero fisso di risposte corrette. Il rinforzo è determinato dal numero di risposte corrette. Per esempio, consideriamo che il ratto affamato nella scatola di Skinner deve premere la leva cinque volte prima che appaia una pallina di cibo. Quindi, il rinforzo segue ogni quinta risposta. Il rapporto è lo stesso per il rinforzo da presentare.
Esempio: Una commessa riceve un incentivo per ogni paio di scarpe che vende. La qualità è irrilevante poiché viene pagata di più per un numero maggiore di scarpe vendute. La quantità di produzione è massimizzata nel programma a rapporto fisso.
4. Valuable-Ratio Schedule
In un programma a rapporto prezioso (VR), il rinforzo è fornito dopo un numero variabile di risposte corrette. In un programma a rapporto variabile 10:1, il numero medio di risposte corrette che dovrebbero essere fatte prima che una successiva risposta corretta sia rinforzata è 10, ma il rapporto tra risposte corrette e rinforzo potrebbe essere permesso di variare da, diciamo, 1:1 a 20:1 su una base casuale. Il soggetto di solito non sa quando può arrivare una ricompensa. Come risultato, la risposta arriva ad un tasso alto e costante.
Esempio: Un esempio pratico di programma a rapporto variabile è come una persona continua a controllare il suo post su Facebook contando il numero di “mi piace” di volta in volta.
Valutazione critica
Diversi programmi hanno diversi vantaggi. I programmi a rapporto sono noti per suscitare più alti tassi di risposta rispetto ai programmi a intervalli a causa della loro prevedibilità.
Per esempio, si consideri un operaio che viene pagato per ogni articolo che produce. Questo motiverebbe il lavoratore a produrre di più.
I programmi variabili sono meno prevedibili, quindi tendono a resistere all’estinzione e la continuazione del comportamento è auto-incoraggiata. Il gioco d’azzardo e la pesca sono considerati tra i classici esempi di orari variabili. Nonostante il loro feedback infruttuoso, entrambi sono speranzosi che un altro tiro alla slot machine, o un’altra ora di pazienza cambierà la loro fortuna.
A causa del fatto che il rinforzo parziale rende il comportamento resistente all’estinzione, viene spesso commutato – per aver insegnato un nuovo comportamento usando il Continuous Reinforcement Schedule.