El refuerzo parcial, a diferencia del refuerzo continuo, solo se refuerza en determinados intervalos o proporción de tiempo, en lugar de reforzar la conducta cada vez. Esta forma de programar el refuerzo tras cierto número de respuestas correctas o cierto intervalo de tiempo también se denomina refuerzo intermitente.
Este tipo de refuerzo se considera más potente para mantener o moldear la conducta. Además, se ha descubierto que las conductas adquiridas con esta forma de programación son más resistentes a la extinción.
La definición de refuerzo parcial como refuerzo inconsistente o aleatorio de las respuestas podría complicar el asunto desde el punto de vista del alumno. Los investigadores han clasificado cuatro esquemas básicos de refuerzo parcial que intentan cubrir varios tipos de intervalos y proporciones entre refuerzos.
1. Programa de intervalo fijo
En un programa de intervalo fijo (IF), por ejemplo, debe transcurrir un minuto entre la vez anterior y la siguiente en que el refuerzo se pone a disposición de las respuestas correctas. El número de respuestas es irrelevante a lo largo del periodo de tiempo. Esto provoca un cambio en la tasa de comportamiento.
La tasa de respuesta suele ser más lenta inmediatamente después de un refuerzo, pero aumenta constantemente a medida que se acerca el momento del siguiente refuerzo.
Ejemplo: Alguien a quien se le paga por hora, independientemente de la cantidad de su trabajo.
2. Programación de intervalo variable
En una programación de intervalo variable (VI), se dejan pasar cantidades variables de tiempo entre la puesta a disposición del refuerzo. El refuerzo depende del paso del tiempo, pero el intervalo varía de forma aleatoria. Cada intervalo puede variar, por ejemplo, de uno a cinco minutos, o de dos a cuatro minutos. El sujeto es incapaz de descubrir cuándo llegará el refuerzo; por lo tanto, la tasa de respuestas es relativamente constante.
Ejemplo: Un pescador espera en la orilla durante cierto tiempo, y lo más probable es que capture el mismo número de peces cada día, pero el intervalo entre las capturas no es el mismo. Si el pescado se considera refuerzo, entonces es inconsistente.
3. Programa de proporción fija
En un programa de proporción fija (FR), el refuerzo se proporciona después de un número fijo de respuestas correctas. El refuerzo está determinado por el número de respuestas correctas. Por ejemplo, consideremos que la rata hambrienta de la caja de Skinner tiene que pulsar la palanca cinco veces antes de que aparezca una bolita de comida. Por lo tanto, el refuerzo se produce cada cinco respuestas. La proporción es la misma para que se presente el refuerzo.
Ejemplo: Una vendedora recibe un incentivo después de cada par de zapatos que vende. La calidad es irrelevante ya que se le paga más por mayor número de zapatos vendidos. La cantidad de producción se maximiza en el programa de proporción fija.
4. Programa de proporción valiosa
En un programa de proporción valiosa (RV), el refuerzo se proporciona después de un número variable de respuestas correctas. En un programa de proporción variable de 10:1, el número medio de respuestas correctas que habría que hacer antes de que se reforzara una respuesta correcta posterior es de 10, pero la proporción de respuestas correctas con respecto al refuerzo podría variar de , digamos, 1:1 a 20:1 de forma aleatoria. El sujeto no suele saber cuándo puede llegar la recompensa. Como resultado, la respuesta llega a una tasa alta y constante.
Ejemplo: Un ejemplo práctico de la programación de proporción variable es cómo una persona sigue revisando su post de Facebook contando el número de likes de vez en cuando.
Evaluación crítica
Diferentes programaciones tienen diferentes ventajas. Se sabe que los calendarios de relación provocan mayores tasas de respuesta que los calendarios de intervalo debido a su previsibilidad.
Por ejemplo, considere que a un trabajador de una fábrica se le paga por artículo que fabrica. Esto motivaría al trabajador a fabricar más.
Los esquemas variables son menos predecibles, por lo que tienden a resistir la extinción y la continuación de la conducta es auto-estimulada. Los juegos de azar y la pesca están considerados como ejemplos clásicos de horarios variables. A pesar de su retroalimentación infructuosa, ambos tienen la esperanza de que un tirón más en la máquina tragaperras, o una hora más de paciencia cambiará su suerte.
Debido al hecho de que el refuerzo parcial hace que el comportamiento sea resistente a la extinción, a menudo se cambia – a haber enseñado un nuevo comportamiento utilizando el Programa de Refuerzo Continuo.
.