Teoría de los refuerzos

Condicionamiento operante. John Broadus Watson. Conductismo. Edward I. Thorndike. Latencia. Castigo. Premio. Huída. Evitación. Reforzadores. Teoría de Skinner

  • Enviado por: Nectali
  • Idioma: castellano
  • País: Venezuela Venezuela
  • 26 páginas
publicidad

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación

Universidad Pedagógica Experimental Libertador

Instituto Pedagógico de Maturín

Trabajo de Psicología de la Educación

Aportes de los condicionamientos Clásicos y Operantes según Watson, Thorndike y Skinner

29/05/2008

INDICE

PORTADA…………………………………………………………………………..PAG. 1

INDICE…………….…………………………………………………………………PAG. 2

INTRODUCCION…………...……………………………………………………….PAG. 3

DESARROLLO…………………………………………………………………..PAG. 4-24

CONCLUSION……………………………………………………..………………PAG. 25

BIBLIOGRAFIA……………………………………………………………………PAG. 26

INTRODUCCIÓN

En el presente trabajo nos enfocaremos en El condicionamiento operante o Teoría de los Refuerzos, explicando los planteamientos de su autor y descubridor, el Sr. B.F Skinner, considerado como uno de los psicólogos más influyentes dentro de las teorías del aprendizaje. Igualmente exploraremos los aportes del condicionamiento clásico de Watson y Thorndike

Skinner, según lo escrito en su libro "Más allá de la libertad y de la dignidad" de 1971, tendiente a erradicar en nombre de la ciencia determinista y naturalista, la concepción tradicional de occidente, que ve en el hombre a un ser libre y responsable; afirma que la lucha del hombre por su libertad personal, no se debe a su inalienable voluntad, sino a una serie de procesos conductuales, característicos del organismo humano, cuyo principal efecto consiste en la tentativa de evitar lo que llama caracteres aversivos del ambiente; recondicionando adecuadamente estos procesos conductuales. Así, la conducta no es ningún proceso interno, sino que es la acción del organismo ante las condiciones del mundo exterior, por esto considera Skinner que "no existe el hombre autónomo".

La conducta, la cual es el objeto de estudio de Skinner, también hace posible relacionar al hombre con una vida social y armónica que proporciona al individuo seguridad y felicidad, por lo que él considera a la Libertad, no una ventaja sino más bien una amenaza.

Su influencia de genero neo-conductista, introdujo el concepto Condicionamiento operante; proceso mediante el cual se aumenta o disminuye la probabilidad de dar una respuesta, designando Skinner a esto como Reforzamientos, el cual consiste en un Estimulo Reforzante, que incrementa la posibilidad de un comportamiento, pudiendo ser este negativo o positivo, dependiendo de la relación que el individuo tenga con el medio ambiente. Consiste en que un organismo haga algo influenciado por una serie de actos.

Watson por su parte introdujo el término “Conductismo” como una teoría psicológica que toma como objeto de estudio lo observable y no el alma, la conciencia o cualquier otra entidad inmaterial y por lo tanto imposible de estudio objetivo.

En este trabajo, veremos su estructura, analizando los distintos tipos de refuerzos y factores que influyen en ellos, también sus programas de reforzamiento que pueden ser parciales o continuos.

Skinner también plantea que toda la conducta humana es producto de reforzamientos, atribuyendo una importancia fundamental al aprendizaje aplicado a la educación y a la vida diaria.

Por ultimo sabremos cual es el aporte de esta teoría a la Educación tradicional, a través de los programas más significativos de reforzamiento, clarificando lo que Skinner planteaba al decir que el profesor es un constructor de conductas. Finalmente se realizaran observaciones a las objeciones y desacuerdos de esta teoría y se darán a conocer algunas diferencias con otras teorías.

APORTES DEL CONDICIONAMIENTO CLASICO SEGÚN WATSON Y THORNDIKE

John Broadus Watson

Biografía

Nació en 1878 y murió en 1958, obtuvo el primer título de doctor en psicología que otorgó la Universidad de Chicago y fue el fundador de la escuela de psicología que se conoce como conductismo, y que ha tenido un gran desarrollo en los países anglosajones.

Sus obras principales y las que exponen el proceso de su pensamiento son Behavior, an Introduction to Comparative Psychology (1914), La psicología desde el punto de vista del conductismo (1919) y El conductismo (1925). El conductismo se propone como una teoría psicológica que toma como objeto de estudio lo observable y no el alma, la conciencia o cualquier otra entidad inmaterial y por lo tanto imposible de estudio objetivo.

Así, se opone a cualquier forma de introspección (método utilizado generalmente por la psicología de conciencia del siglo pasado) y toma como base la observación dentro de los lineamientos del método científico. Llega a decir Watson que la psicología y la fisiología sólo difieren en el ordenamiento de los problemas. Entre las escuelas y autores que influyen en el conductismo debemos mencionar la reflexología rusa (Pavlov y Bechterev) y los estudios de psicología funcional y animal (Woodworth, Cattell y Thorndike).

Una de las ideas centrales de la teoría es la de condicionamiento, proceso por el cual una respuesta determinada es obtenida en relación con un estímulo originalmente indiferente con respecto a la misma. Luego se trata de determinar cómo a partir de unos pocos reflejos y mediante procesos de condicionamiento, se obtiene la enorme gama de conductas que realizan los hombres. El conductismo se ha planteado también como un programa, lo que incluye entre sus pretensiones el interés por intervenir sobre la conducta y los hombres a los efectos de producir una mejor adaptación de los mismos al medio social, lo que ha derivado en estudios sobre el aprendizaje y un desarrollo importante en el área laboral y en la propaganda.

Teoría

John B. Watson fue el primer psicólogo norteamericano en usar las ideas de Pavlov. Al igual que Thorndike, primero comenzó sus estudios con animales y posteriormente introdujo la observación de la conducta humana.

Watson pensaba que los humanos ya traían, desde su nacimiento, algunos reflejos y reacciones emocionales de amor y furia, y que todos los demás comportamientos se adquirían mediante la asociación estímulo-respuesta; esto mediante un acondicionamiento.

El Experimento De Watson

Watson demostró el condicionamiento clásico con un experimento en el que participó un niño de algunos meses de nacido (de nombre Albert) y una rata blanca. El experimento consistía en acercar la rata a Albert para que la tocara, al principio Albert no mostraba temor por el pequeño animal, pero al comenzar a hacer, de repente un fuerte ruido cada vez que Albert tocaba la rata, al poco tiempo Albert comenzó a mostrar temor por la rata aún sin hacer el ruido (debido al condicionamiento). Este miedo se generalizó para otros animales pequeños.

Watson después "extinguió" el miedo presentando la rata al niño en repetidas ocasiones sin hacer el ruido. Algunos hechos del estudio sugieren que el condicionamiento al miedo fue más poderoso y permanente que el realmente observado. (Harris, 1979; Samelson, 1980, en Brophy, 1990).

En realidad los métodos de investigación usados por Watson en la actualidad serían cuestionados, su trabajo demostró el papel del condicionamiento en el desarrollo de la respuesta emocional para ciertos estímulos. Esto puede dar explicación a determinados sentimientos, fobias y prejuicios que desarrollan las personas.

A watson se le atribuye el término "conductismo".

El conductismo Watsoniano

Entre 1913 y 1930 se desarrolla el conductismo watsoniano. En ese período aparecieron las primeras aportaciones conductistas de Kuo, Lashley, Weiss, Tolman y otros muchos, pero es cierto que la obra de Watson fue particularmente central.

La teoría elaborada por Watson no presenta como un sistema orgánico y definido una vez por todas. Por ejemplo, Watson especificó de modo diferente el objeto de la psicología. El comportamiento fue explicado en los términos de "adaptación del organismo al ambiente", "contracciones musculares", "conjunto integrado de movimientos" y "acciones". Se puede, en cierto modo, decir que la unidad de observación psicológica es para Watson el comportamiento o la conducta en el sentido de acción compleja manifestada por el organismo en su integridad, "sea lo que fuere lo que realice, como orientarse hacia una luz o en dirección opuesta, saltar al oír un sonido, u otras actividades más altamente organizadas como tener hijos, escribir libros, etc.". Evidentemente esas conductas no se detectan en cada una de las reacciones psicológicas que el organismo manifiesta (contracción de un músculo, o bien actividades de órganos individuales como la respiración, la digestión, etc.), que constituyen el objeto diferenciado de estudio de la fisiología.

En la experimentación psicológica que lleva a cabo, Watson se interesa principalmente por variables dependientes complejas del tipo que acabamos de mencionar. Su "molecularismo" y "reduccionismo" teórico se especifican en la idea de que esos comportamientos no son más que la "combinación" de reacciones más simples, de moléculas constituidas por cada uno de los movimientos físicos que, en cuanto a tales, son precisamente estudiados por la fisiología y la medicina.

En efecto, los principios de composición de las unidades simples en unidades complejas no modifican la naturaleza de las primeras, sino que simplemente las componen. Los principios a que principalmente se refiere Watson son la frecuencia y proximidad y el condicionamiento. Los principios de la frecuencia y proximidad nos dicen que cuanto tiempo más a menudo o cuanto más recientemente se ha verificado una asociación, con tanta mayor probabilidad se verificará.

El condicionamiento empieza a ocupar un lugar central, en la teoría conductista, hacia 1916. Watson aparece directamente influido no sólo por Pavlov sino también por los reflexólogos rusos, es decir, por Secenov, que ya hacia 1860 había afirmado que los actos de la vida consciente e inconsciente no son más que reflejos y por Bectherev que se interesaba de modo particular por los reflejos musculares.

El principio de condicionamiento parte del descubrimiento del hecho de que en el organismo existen respuestas incondicionadas a determinadas situaciones. Por ejemplo, un organismo hambriento que recibe comida seguramente reaccionará salivando, un súbito haz de luz sobre los ojos provocará seguramente una contracción de la pupila, etc. la comida y el haz de luz se llaman estímulos incondicionados, es decir, acontecimientos que se producen en el medio ambiente y que provocan incondicionadamente una determinada respuesta en el organismo.

Pero, otros estímulos que hayan sido asociados a los estímulos incondicionados provocarán también la reacción incondicionada, aunque no tengan por si mismos relación alguna con ella. Por ejemplo, el perro de Pavlov salivaba cuando oía el sonido de una campanita, por el sólo hecho de que ese sonido había sido anteriormente asociado con cierta frecuencia a la presentación de la comida. La investigación sobre el condicionamiento era de particular importancia para el conductista porque, por un lado detectaba precisas unidades estímulo (que permitían definir mejor el ambiente en que el organismo reacciona) y precisas unidades respuesta, y, por el otro, porque ofrecía un principio clave para explicar la génesis de las respuestas complejas. En efecto, se podía suponer que los comportamientos complejos, manifestados por el hombre, eran una larga historia de condicionamientos.

Por este motivo adquirió particular importancia el estudio del aprendizaje empezando por las primeras adquisiciones infantiles. Al analizar las emociones, Watson expresaba la idea de que el miedo, la rabia y el amor son las emociones elementales y se definen partiendo de los estímulos ambientales que las provocan.

A partir de estas emociones se construirían las siguientes emociones. Un caso famoso de aprendizaje de las emociones es el del pequeño Albert, que Watson estudió junto con R. Rayner. Albert jugaba tranquilamente con un ratoncillo cuando se le hizo escuchar a sus espaldas un violento ruido. Desde ese momento, el niño manifestó un gran miedo tanto hacia los ratones como hacia otros animales y objetos peludos. El ruido era un estímulo incondicionado capaz de producir por sí solo una respuesta de miedo; su asociación con otro estímulo hacía que el niño fuese condicionado a tener miedo también al ratoncillo y también a otros objetos con características similares.

Estudiando una de las primeras neurosis experimentales de la historia de la psicopatología, Watson probaba más adelante que las neurosis no son ni innatas, ni objetos misteriosos, sino que podían definirse en los términos de respuestas emocionales aprendidas.

Para Watson, las mismas leyes que regulan el aprendizaje emotivo constituyen la base de las demás adquisiciones y, en particular, de los llamados "hábitos". Si para los "hábitos manuales" la idea podía ser compartida por muchos, el problema se hacía más difícil cuando se trataba de explicar procesos psicológicos complejos y en particular el pensamiento y sus relaciones con el lenguaje. La propuesta metodológica de Watson exigía basarse en la observación de la conducta, y en este caso de la conducta verbal, y por tanto el pensamiento debería haberse inferido del lenguaje. Pero la propuesta por así decir "filosófica" era la de negar existencia real al pensamiento y asimilarlo directamente al lenguaje.

Para Watson, el lenguaje se adquiere por condicionamiento. El niño oye asociar a un objeto su nombre y por consiguiente el nombre termina por evocar la misma respuesta evocada por el objeto. Progresivamente todo el sistema de movimientos que provocan la emisión del sonido palabra puede ser sustituido por una parte de movimientos, por lo que la palabra es sólo pronunciada en voz baja, o moviendo silenciosamente los labios, o bien mediante simples "hábitos de laringe". Watson creía que de esta manera se va formando el pensamiento y sugería que podía ser reducido a un conjunto de hábitos de laringe. En el plano teórico el punto central estaba representado por el hecho de que la actividad de pensamiento era un resultado de los aprendizajes comunicativos y no tenía por sí mismo importancia ni interés cognoscitivo.

Los principales aspectos que distinguen los aportes de Watson son:

-El objeto de la psicología es la conducta; la conducta es la actividad del organismo en su conjunto; tanto las funciones fisiológicas como el comportamiento, son actividades de estructuras físicas que como tales, son susceptibles de ser analizados por los métodos objetivos y rigurosos de las ciencias naturales; la introspección es completamente rechazada como un método subjetivo. Nadie puede ver los pensamientos y sentimientos de otra persona, y es imposible fundamentar ningún conocimiento objetivo, con lo que sólo es accesible a una observación individual. Toma como método objetivo a la técnica del condicionamiento perfeccionada por Pavlov y sus discípulos.

-La aportación más importante de Watson es hacer de la psicología una ciencia, deslindándola de todos los conceptos dualistas (alma, espíritu, conciencia, mente), que habían retrasado la consolidación de esta misma como tal. Propone como objeto de estudio de la psicología, la conducta, que define como todo lo que un organismo hace; y, como método de estudio, el experimental, basándose en el paradigma E-R de Pavlov.

Edward I. Thorndike

Biografía

Edward L. Thorndike (1874-1949) fue profesor de psicología durante más de treinta años en el Teachers College de Columbia, Estados Unidos. Lo que más atrajo su interés fue la teoría del aprendizaje, y se cuenta entre los importantes precursores del conductismo. Watson se fundó en gran parte en la obra de Thorndike y en la de Pavlov. El interés de Thorndike por la psicología apareció después de un curso en la Universidad de Harvard donde tuvo de profesor a William James. Los primeros experimentos de Thorndike sobre el aprendizaje, en que los sujetos experimentales eran pollitos, fueron realizados justamente en el sótano de la casa de James, para deleite de los hijos de éste.

Las numerosas fábulas y relatos tradicionales que cuentan maravillas de la inteligencia de los animales no impresionaban a Thorndike, quien por el contrario sostenía que nadie se había ocupado de describir la estupidez animal. Por cada perro que encuentra el camino de regreso al hogar -decía-, hay quizás un centenar que se pierden. Sostenía Thorndike que los animales no razonan ni avanzan en la resolución de problemas mediante súbitos estallidos de introvisión, sino que aprenden de una manera más o menos mecánica, partiendo de un método de ensayo y error. Las conductas que les resultan fructíferas y gratificantes se "imprimen" en el sistema nervioso.

Según Thorndike, el aprendizaje se componía de una serie de conexiones entre un estímulo y una respuesta, que se fortalecían cada vez que generaban un estado de cosas satisfactorio para el organismo. Esta teoría suministró las bases sobre las que luego Skinner construyó todo su edificio acerca del condicionamiento operante.

Más adelanto, Thorndike aplicó sus métodos para el adiestramiento de animales a niños y jóvenes, con éxito sustancial, y llegó a tener gran predicamento dentro del campo de la psicología educativa. Su obra Educational Psychology (Psicología educacional) fue publicada en 1903, y al año siguiente se le concedió el grado de profesor titular. Otro de sus influyentes libros fue Introduction to the Theory of Mental and Social Measurements (Introducción a la teoría de las mediciones mentales y sociales) de 1904. En la actualidad se reconoce a Thorndike como una figura señera en los comienzos del desarrollo de los tests psicológicos.

Teoría

Edward Thorndike realizó su investigación, también observando la conducta de animales pero después realizó experimentos con personas. Thorndike implantó el uso de "métodos usados en las ciencias exactas" para los problemas en educación al hacer énfasis en el "tratamiento cuantitativo exacto de la información". "Cualquier cosa que exista, debe existir en determinada cantidad y por lo tanto pude medirse" (Johcich, citado en Rizo, 1991). Su teoría, conexionismo, establece que aprender es el establecimiento de conexiones entren estímulos y respuestas.

La "ley de efecto" dice que cuando una conexión entre un estímulo y respuesta es recompensado (retroalimentación positiva) la conexión se refuerza y cuando es castigado (retroalimentación negativa) la conexión se debilita. Posteriormente Thorndike revisó esta ley cuando descubrió que la recompensa negativa (el castigo) no necesariamente debilitaba la unión y que en alguna medida parecía tener consecuencias de placer en lugar de motivar el comportamiento.

La "ley de ejercicio" sostiene que mientras más se practique una unión estimulo-respuesta mayor será la unión. Como en la ley de efecto, la ley de ejercicio también tuvo que ser actualizada cuando Thorndike encontró que en la práctica sin retroalimentación no necesariamente refuerza el rendimiento.

La "ley de sin lectura": Debido a la estructura del sistema nervioso, ciertas unidades de conducción, en condiciones determinadas, están más dispuestas a conducir que otras.

Las leyes de Thorndike se basan en la hipótesis estímulo respuesta. El creía que se establecía un vínculo neural entre el estímulo y la respuesta cuando la respuesta era positiva. El aprendizaje se daba cuando el vínculo se establecía dentro de un patrón observable de conducta.

Estimación Del Punto De Vista De Thorndike

Antes resumiremos las soluciones de Thorndike a los problemas más característicos del aprendizaje, en los siguientes puntos:

1) La capacidad de aprendizaje depende del número de conexiones y su disponibilidad.

2) La repetición de situaciones (práctica) no modifica por sí sola las conexiones, a menos que dichas conexiones se recompensen.

3) Motivación: la recompensa influye directamente en las conexiones vecinas reforzándolas, pero el castigo carece del efecto debilitador directo correspondiente. Sin embargo, el castigo puede influír indirectamente al llevar al sujeto a elegir otra cosa que tal vez le traiga recompensa. Las conexiones pueden fortalecerse directamente, sin necesidad de tener conciencia o idea de ellas.

4) Comprensión: depende de hábitos anteriores. Cuando las situaciones se comprenden de inmediato, es que se produjo transferencia o asimilación.

5) Transferencia: la reacción a las situaciones nuevas se beneficia, en parte, porque son parecidas a antiguas situaciones, y también por un principio de analogía descripto como asimilación.

6) Olvido: siguió sosteniéndose a grandes rasgos la ley del desuso, según la cual el olvido sobreviene con la falta de práctica.

El carácter más general de la teoría de Thorndike es el de fortalecimiento automático de conexiones específicas, directamente, sin la intervención de ideas o de influencias concientes.

La doctrina de la especificidad es fuente tanto de fuerza como de debilidad.

La fuerza de la doctrina de Thorndike de la especificidad radica en que, en el ámbito educativo, muestra al maestro qué tiene que hacer específicamente para enseñar, una actividad muy compleja pero que puede simplificarse. Por ejemplo para enseñar lectura basta con detenerse en las palabras, ser bien específico, y desatender otros factores como semántica, filología, etc. Pero en esto también radica su debilidad, porque el lenguaje no es sólo palabras.

Los experimentos de Thorndike

Hay dos tipos de aprendizaje: 1) El condicionamiento clásico, oavloviano o respondiente, que consiste en aprender la relación entre sí de varios sucesos del entorno; y 2) El condicionamiento instrumental, que consiste en aprender la relación entre varios eventos contextuales y el comportamiento.

El condicionamiento clásico implica aprender la relación entre ver el pan y su olor, y condicionamiento instrumental es aprender la relación entre la conducta de comer el pan y el gusto del pan. En este capítulo el autor distinguirá estos dos tipos de aprendizaje.

La ley de efecto fue enunciado por Thorndike en 1898, y dice que un efecto de un comportamiento positivo es incrementar la probabilidad de que vuelva a suceder en condiciones similares.

Trabajó con gatos, perros y gallinas encerrándolos en jaulas, donde los animales debían hacer algo para poder salir o recibir comida. Es decir, trabajó con un condicionamiento instrumental (relación entre el comportamiento y sucesos contextuales significativos, como premios y castigos). Encontró que a más intentos que hacía el animal, menor tiempo usaba para escapar.

La ley del efecto es simplemente la selección natural en la historia de un organismo singular (cuanto más salta el gato para salir equivale, en la selección natural de las especie, a cuanto más debe alargar la jirafa el cuello para comer). Obviamente, la conducta deseada debe ser premiada una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se llama ‘modelamiento’.

Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir, concebían que en la base del comportamiento había conexiones simples E-R, las que pueden ordenarse jerárquicamente según la probabilidad de su ocurrencia. Un premio o un castigo puede modificar esta jerarquía, haciendo más probable o menos probable una respuesta.

Respecto a sus diferencias, para Pavlov una conexión (un reflejo condicionado) aumenta su fuerza si el estímulo condicionado es contiguo al estímulo incondicionado (esto se llama refuerzo del reflejo condicionado). Para Thorndike, una conexión (hábito) aumenta su fuerza si la respuesta es contigua con un refuerzo al animal del tipo premio o castigo (esto se llama refuerzo del hábito).

Estas explicaciones del aprendizaje en términos de conexiones pueden también hacerse desde en punto de vista molar, en términos de contingencias y correlaciones (entre el EI y el EC, o entre R y el premio).

Thorndike y Skinner: Para Thorndike el premio refuerza la conexión E-R, mientras que para Skinner (1938) el premio refuerza la respuesta operante, no la conexión con el estímulo previo. Cabe aclarar que respuesta para Skinner es un acto destinado a producir un efecto en el entorno, a ser operante. O sea, no importa como la rata presione la barra, sino que lo haga, y por ello recibirá el premio.

Clases de condicionamiento instrumental

En el condicionamiento instrumental hay cuatro principios básicos: premio, castigo, huída y omisión. En los cuatro casos ha de tenerse presente que primero se produce la respuesta y luego recién se premia, o se castiga, etc.

Premio: Un premio después de la respuesta aumenta la probabilidad que ocurra. El premio se llama refuerzo positivo, y esto fue enunciado en la ley del efecto de Thorndike.

Castigo: Un castigo después de la R disminuye la probabilidad que vuelva a ocurrir. Es lo inverso a lo anterior (castigo positivo).

Huída: Si una respuesta es para escapar de un castigo, aumenta la probabilidad que vuelva a ocurrir. Esto se llama refuerzo negativo.

Omisión: Si el presente está presente pero no se da, la respuesta que lleva a esta frustración decrece su probabilidad de ocurrencia (castigo negativo).

Métodos de medición

Medir en el condicionamiento clásico significa descubrir la respuesta a un estímulo, pero más interesa aquí medir en el condicionamiento instrumental, donde significa detectar con algún aparato los cambios producidos en la conducta por el aprendizaje.

Se citan dos medidas para medir la variable dependiente ‘respuesta’: latencia y tasa de respuesta.

Latencia: es el tiempo transcurrido entre una señal y la ocurrencia de la respuesta. Cuando la madre llama al hijo a comer, éste vendrá más rápido (latencia menor) si le gusta la comida, etc.

Tasa de respuesta: es la cantidad de respuestas por unidad de tiempo. Luego de ser llamado a comer (señal) el niño dará más -o menos- mordiscos por unidad de tiempo.

La extinción en el condicionamiento instrumental

En el condicionamiento clásico, extinción significa desaparición de la conexión EC-EI. En el instrumental, significa desaparición de la conexión respuesta-premio (o castigo).

La extinción se define entonces a partir de una correlación cero entre la respuesta y el refuerzo, o sea la R sigue ocurriendo aunque haya tantos premios como antes, más premios, menos premios o ningún premio. Lo esperable es que el organismo pare, entonces, de responder, que es lo que pasa normalmente, salvo en tres excepciones. En efecto, la respuesta sigue ocurriendo cuando hay falta de discriminación, superstición o psuedocondicionamiento.

a. Falta de discriminación.- El estudiante sigue dando la misma respuesta (por ej sigue estudiando bien) a pesar de que el maestro sigue poniendo mecánicamente la misma nota (mismo premio). Sólo tiende a desaparecer la respuesta cuando ve que el maestro pierde las hojas de exámenes, está distraído, etc.

b. Superstición.- Este fenómeno se da cuando en un tiempo dado, la relación entre dos sucesos no puede deberse al azar. Aunque podamos programar una serie de premios en forma totalmente independiente de la respuesta, se quiera o no los premios establecerán cierta relación con las respuestas. Habrá correlaciones accidentales, aunque tales correlaciones no hayan sido programadas. Un jugador le va mal un día, pero al otro día donde usa otro bate de béisbol, por azar le va bien, entonces decide usar este bate en forma superticiosa.

c. Pseudocondicionamiento.- Ocurre por ejemplo cuando una rata mueve la palanca para salir y en ese momento le damos adrenalina, que aumenta su actividad. La conexión se establece entre la inyección de adrenalina y mover la palanca, lo cual es un pseudocondicionamiento porque el condicionamiento instrumental "verdadero" sería conectar el mover la palanca con el premio (salir de la jaula).

Vemos que en los tres casos se producen respuestas que no mantienen relación con el premio, o sea, no está marcada una relación instrumental (respondo "para" obtener un premio). En el primer caso la falta de discriminación se debe a que la falta de una relación instrumental no puede discriminarse de alguna condición anterior, cuando aquélla existía. En el caso de la superstición es debido a una relación instrumental accidental y temporaria. En el tercer caso la relación no tiene nada que ver con la respuesta, pero el premio por sí mísmo puede causar la respuesta. Todas estas conclusiones valen también para los castigos.

Aprendizaje retardado

Es aquel aprendizaje donde la extinción se presenta "antes" que el condicionamiento, lo que trae como consecuencia que el condicionamiento tarde más en formarse (aprendizaje retardado). Si primero castigamos a un niño, haga lo que haga (extinción de la respuesta, no hará nada), y luego cambiamos la situación y castigamos sólo las conductas malas, entonces tardará mucho más tiempo en superar la primera etapa donde no respondía con ninguna conducta.

Programas de refuerzo o castigo

Un día a Skinner se le acabaron las bolas de alimento que daba a las ratas, y entonces hizo un aparato que les daba bolas de alimento automáticamente, siempre que la rata tocase la palanca un minuto. No sólo las ratas comenzaron a presionar la palanca durante ese lapso sino que también aumentó su tasa de respuestas (cantidad de respuestas por unidad de tiempo), lo cual iba en contra de la idea que a menor premio o refuerzo, menor cantidad de respuestas. Skinner pensó que este ‘programa’ de dar bolas automáticamente podía servir como eficaz método para controlar el comportamiento.

Hay varios tipos de programas:

a) De intervalo fijo: es el ejemplo anterior. El intervalo fijo era un minuto, o sea cada minuto la rata recibía el alimento.

b) De razón fija: aquí se premia a la rata cuando realiza un cierto número de respuestas. Por ejemplo cada cuatro respuestas.

c) Programas combinados: una combinación de los dos anteriores.

d) Programas variables: es cuando los programas de intervalo o de razón son variables en vez de fijos.

e) Programas de refuerzo diferencial: pueden ser de refuerzo diferencial bajo (RDB) o alto (RDA). En el primer caso se premia al sujeto siempre que haya pasado por ejemplo 3 segundos desde la última respuesta. Si responde antes de los 3 segundos no hay premio (o sea una respuesta cada 2,5 segundos no tendrá refuerzo o premio). Esto da tasas de respuesta muy lentas. No es eficaz para el aprendizaje humano. En el caso del RDA, hay premio si la respuesta ocurre antes de un tiempo especificado, con lo cual la tasa de respuestas aumenta mucho.

f) Extinción después de un refuerzo parcial: cuando una respuesta ha sido premiada constantemente, la extinción ocurre más rápidamente que si aquélla fue premiada solo una vez.

g) Programas de castigo, refuerzo negativo y omisión: las pautas de respuesta con castigo de IF son generalmente una aceleración inmediatamente después del castigo y luego una supresión de la respuesta inmediatamente antes del mismo. Un programa de refuerzo negativo (huída) puede consistir en dar descargas eléctricas a la rata hasta que cumpla cierto requerimiento, como una razón fija de 10 respuestas. Por último, un programa de omisión sería proporcionar premio continuamente y luego retirarlo cuando se cumple el requerimiento serial.

Parámetros de premios y castigos

Los instrumentos más sencillos para medir premios y castigos son la caja de Skinner con un único mando (por ejemplo una palanca), y el ‘corredor recto’, por donde el animal circula. Este último evalúa más el comportamiento en el espacio, y la caja de Skinner en el tiempo. Por ejemplo, el primero muestra cuánto se desplazó la rata, y la segunda cuánto tardó en apretar la palanca.

Se citan dos parámetros de premios o castigos: la tasa o cantidad de premio, y el retraso del premio.

Tasa o cantidad de premio: puede ser la mayor o menor cantidad de bolitas de comida, o también cuanto tiempo se lo deja comer una vez que se le dio la comida, o también variar la concentración de azúcar (cuanto más dulce, más premio). Se comprobó que sin premio, la respuesta el cero o cercana a cero; luego, cuando se incrementa el premio, se incrementa también la tasa de respuesta al principio rápido, pero luego lentamente.

Retraso del premio: la tasa de respuesta de la rata varía con el retraso del refuerzo positivo (bolas de comida) y del refuerzo negativo (reducción de la descarga). La rata deja de correr (o bien de pulsar la palanaca si está en la caja de Skinner) inmediatamente al principio pero luego en forma más gradual. El retraso del premio es importante en la vida diaria, como cuando una persona hace dieta pero el premio (bajar de peso), tarda en aparecer.

En cuanto a la relación entre estos parámetros, ellos son independientes en el sentido de que se puede variar la tasa o la cantidad de premio sin variar su retraso, y viceversa. Pero en la práctica se influyen mutuamente, y entonces a veces no se puede saber qué influye más en la conducta: si el retraso del premio o su tasa.

Respecto de la relación entre tasa y cantidad, ella es constante: si se varía la tasa (se le da poca comida a intervalos frecuentes) esto equivale a darle una sola comida grande (cantidad). Pero esto no significa que ambas cosas influyan de la misma forma en la conducta, porque quizás una comida grande sea menos premio porque el animal se siente más pesado.

Huída (refuerzo negativo)

El experimento típico consiste aquí en darle a la rata un estímulo aversivo pero sólo hasta que el animal realiza cierta conducta (llamada entonces conducta de huída). Según la teoría de las necesidades, todo refuerzo es negativo: comer sería ‘huír’ del hambre, beber ‘huír’ de la sed, etc.

Sin embargo las conductas de animales sometidos a descargas (estímulo aversivo) es distinta al que actúa porque tiene hambre o sed, quizás porque el estímulo aversivo en la descarga es externo al organismo, y además no aparece gradualmente.

Una forma de estudiar esto es con la dosificación, donde se aumenta de a poco la intensidad del estímulo aversivo, y las respuestas del sujeto reducen la descarga cuando llegan a cierta cantidad.

Castigo

Es posible que el castigo no forme un condicionamiento instrumental. Con refuerzos positivos buscamos que el animal ‘haga’ algo, pero con el castigo tratamos de que ‘no haga’ algo. Sin embargo muchos investigadores dijeron que desde cierto punto de vista el castigo sí produce condicionamiento instrumental: el castigo dado independientemente de la respuesta del animal tiene algún efecto supresivo de la misma, pero no tanto como cuando depende de la respuesta. En la medida en que hay una diferencia entre los efectos de las respuestas producidas por castigo y las respuestas independientes del mismo, éste será una forma de condicionamiento instrumental.

Evitación

La evitación es una huída pero no del castigo sino de la situación donde este se presenta. Evitar la lluvia es huír, pero ir a un lugar donde no llueve es evitación. El problema es: qué condiciona al sujeto a correr? Huír de la lluvia o ir hacia donde no llueve?

La evitación fue estudiada con dos procedimientos: la evitación discriminativa (se avisa de antemano con un señal que vendrá el castigo), y evitación no-discriminativa (no se da una señal previa). En el primer caso, por ejemplo, se vio que ante la señal los perros pasaban rápidamente de la huída a la evitación, mientras que en otros el paso fue más gradual.

Extinción de la evitación: cuando se intenta extinguir la evitación dando siempre castigos (de forma que no los pueden evitar), las conductas evitativas se reducen más rápidamente. Pero resultados opuestos se consiguen si es retirado el castigo a ser evitado: aquí la conducta de evitación tarda más en desaparecer.

EL CONDICIONAMIENTO OPERANTE DE B.F.SKINNER

Biografía

Burrhus Frederic Skinner nace en un pequeño pueblo de Pennsylvania llamado Susquehanna, el 20 de marzo de 1904. Su padre era un abogado y su madre una fuerte e inteligente ama de casa. Durante su crecimiento fue matizado con la idea del trabajo duro y las costumbres muy tradicionales (Boeree, 1997).

B. F había sido un niño muy activo, niño extrovertido que adoraba el estar al aire libre y construir cosas, y disfrutaba, igualmente, la escuela; sin embargo, su vida no estuvo exenta de tragedias. Específicamente, su hermano a la edad de 16 años muere de un aneurisma en el cerebro (Boeree, 1997).

Asistió a la Universidad de Hamilton en Nueva York, esperando ser narrador y poeta. En ese tiempo, sólo tomó un curso en psicología, el cual era impartido por William Squires, pero lo único que Burrhus recordaba del curso era la demostración de Squires del umbral de discriminación de dos puntos (Hothersall, 1997).

Asimismo, por lo general no encajó muy bien allí, no disfrutaba para nada las fiestas de la fraternidad o los juegos de fútbol. Escribe para el periódico escolar con el seudónimo de Sir Burrhus de Beerus (Hothersall, 1997), incluyendo artículos criticando a su propia escuela, la facultad, e incluso a la fraternidad Phi Beta Kappa. Además, era un ateo en una escuela que requería asistencia a las misas (Boeree, 1997).

En 1926 se gradúa con honores Phi Beta Kappa (Hothersall, 1997).

Con la idea de desarrollarse como poeta y narrador, luego de graduarse, construye un estudio en el ático de la casa de sus padres para concentrarse, pero en realidad nunca fue así (Boeree, 1997).

Posteriormente, escribe artículos periodísticos sobre problemas laborales, y vive en la Villa Greenwich en Nueva York como bohemio. Luego de viajar algunas veces y haber leído el libro de Pavlov, Reflejos condicionados, decidió que su futuro estaba en la psicología, especialmente en el condicionamiento (Hothersall, 1997), por lo que decidió regresar a la universidad, esta vez a Harvard. Se gradúa con su maestría en psicología en 1930 y su doctorado en 1931. Luego, se queda allí para realizar investigaciones por cinco años más (Boeree, 1997), trabajando como asistente en el laboratorio de biología del profesor Crouzuer (DiCaprio, 1997).

En 1936, se muda a Minneapolis para dictar clases en la Universidad de Minnesota. Es aquí donde conoce a su futura esposa Yvonne Blue. Tuvieron dos hijas, una de ellas, la menor, se convierte en la primera infante criada en una de las invenciones de Skinner, la camita de aire. Sin embargo, no era más que la combinación de una camita de niño con lados de vidrios y aire acondicionado, se parecía mucho a tener un niño en un acuario (Boeree, 1997). En 1938 publica su primer libro importante, The Behavior of Organisms (DiCaprio, 1997).

En 1945, es designado director del departamento de psicología en la Universidad de Indiana. En 1948, es invitado a regresar a Harvard, donde trabajaría el resto de su vida. Era un hombre muy activo, haciendo investigación y guiando cientos de estudiantes para conseguir su doctorado y; por supuesto, escribiendo muchos libros (Boeree, 1997), entre los que se pueden mencionar Cumulative record, Manual de la conducta operante, Terapia conductual, y descubrimientos empíricos, A primer of operant conditioning (DiCaprio, 1997), Disfrutando la edad adulta publicado en 1983 (Hothersall, 1997).

Skinner muere de leucemia el 18 de agosto de 1990 (Boeree, 1997)

DESCRIPCIÓN DE LA TEORÍA

Primero que todo, el condicionamiento operante, llamado también instrumental y hoy en día; análisis experimental de la conducta(AEC) desarrollado por el psicólogo neoconductista B.F Skinner, se puede definir de la siguiente forma:

Es la teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su relación con el medio ambiente, basados en un método experimental. Es decir, que ante un estimulo, se produce una respuesta voluntaria, la cual, puede ser reforzada de manera positiva o negativa provocando que la conducta operante se fortalezca o debilite.

Es la operación que incrementa la probabilidad de la respuesta o conducta en relación a un Estímulo discriminativo y a otro llamado estimulo reforzador:

Para ver el gráfico seleccione la opción "Descargar" del menú superior

Es siempre una relación de contingencia.

Skinner también considera al aprendizaje por castigo y por extinción de los refuerzos, como influyentes en la conducta.

Para ejemplificar lo anterior, describiremos uno de los experimentos llevados a cabo por este psicólogo de pennsylvania, llamado la "Caja de Skinner".

Estos tipos experimentos fueron realizados en su mayoría con ratitas y pichones, los cuales se encontraban en el interior de una caja de simple fabricación, que tenia por dentro una palanca llamada "manipolandum", la cual podía ser bajada con una liguera presión, y que al ser accionada provocaría que el alimento contenido en un tazón al interior de esta cayera.

En un principio el "animalito" , que ha sido privado de alimento durante unas horas, se desplazará de un lado a otro, apoyando su cuerpo en los costados de la caja, picoteando y rasguñando la pared transparente, etc. En algún momento, y solamente por "casualidad", la palanca será accionada por la patita o pico del animalito, provocando que el alimento caiga para en ese momento comer el alimento. Este proceso se repetirá varias veces voluntariamente, hasta que el animalito descubrirá que el hecho de accionar la palanca es retribuida con una recompensa, por lo cual esta acción se ira repitiendo con mayor frecuencia, dejando de lado a aquellas en la que no es recompensado.

Así, el refuerzo (Alimento), es el que lleva a repetir al animalito esa conducta que en un momento era accidental.

Lo anterior, es una muestra clara de cómo funciona el CONDICIONAMIENTO OPERANTE.

CONCEPTUALIZACIÓN DE LA TEORÍA

A continuación abarcaremos todo lo que se relaciona a esta teoría del aprendizaje, con sus conceptos, procesos, programas etc.

Como iremos viendo más adelante, la palabra "Refuerzo" es piedra angular en el planteamiento de Skinner, y este puede ser definido como el estimulo que al aumentar o desaparecer, aumenta la posibilidad de una respuesta. Entonces una serie de estas acciones refuerzan la conducta en un sentido positivo o negativo.

Los refuerzos se pueden clasificar en Primarios (incondicionados), Secundarios (condicionados) y Generalizados:

REFORZADORES PRIMARIOS: Son aquellos que no dependen de la historia del sujeto, sino de las características biológicas; son comunes a todos los sujetos de la especie y tienen un carácter altamente adaptativo, guardando relación directa con la supervivencia del sujeto y la especie.

REFORZADORES SECUNDARIOS: Al contrario que los Primarios, éstos no tienen relación directa con la supervivencia y dependen, más bien, de la historia individual del sujeto.

REFORZADORES GENERALIZADOS: Son todos aquellos reforzadores que mientras más son presentados no reducen su efectividad, sino que, se mantiene. Son independientes de la intensidad o frecuencia que tienen y tienen una relación estrecha con la historia individual.

Los dos tipos de refuerzos básicos en la teoría de skinner son:

Refuerzo positivo

Refuerzo negativo

REFUERZO POSITIVO: Este tipo de refuerzo provoca que la presencia de ellos aumente la probabilidad de una conducta, es decir, que añadir un estimulo al entorno trae consigo que esa respuesta aumente o se repita en el futuro. Unos ejemplos de esto seria:

-Un alumno al finalizar su disertación de psicología, obtiene las felicitaciones del profesor y los aplausos objetivos de sus compañeros. Aquí las felicitaciones y aplausos son refuerzos positivos, ya al resultar gratificante para el alumno este refuerzo, su respuesta será estudiar con más dedicación aun, para el próximo trabajo.

-Si María le dice a pedro que lo quiere mucho más después de haberle regalado chocolates, la consecuencia de la conducta de pedro, será tan gratificante para él, que su conducta se verá reforzada a que aumente o se repita en el futuro.

El "Refuerzo positivo" incorpora una conducta nueva, aumenta una existente o elimina una conducta inapropiada incompatible.

Según investigaciones realizadas, las aplicaciones de reforzamiento positivos, no podrán ser aplicadas en todas las situaciones, por lo que el reforzador a seleccionar, deberá tener una capacidad de refuerzo que se haya demostrado para el individuo concreto bajo condiciones específicas.

Es importante aclarar que, la expresión "Positivo", no tiene una connotación ética, valórica o moral.

REFUERZO NEGATIVO: Se llama refuerzos negativos al aumento de probabilidad de una conducta, como consecuencia de la omisión de un estimulo.

A diferencia del refuerzo positivo, aquí se omite o retira un estimulo que antecede a la respuesta o conducta, y como consecuencia aumenta dicha conducta.

Es importante señalar que la omisión de la conducta, no basta para que se refuerce negativamente la conducta, sino que será fundamental que a través de la respuesta se elimine dicho estimulo de un entorno, es decir, la desaparición de la contingencia es consecuencia de la conducta.

Ejemplos de reforzamiento negativo seria:

-estudiar de manera responsable para pasar las asignaturas sin problemas y así eximirse de las pruebas de repetición. De manera clara se entiende que el refuerzo exime de la prueba, y la diferencia con el refuerzo positivo, es que aquí se esta eliminando (eximir de la prueba) algo del entorno.

-Una persona al presentar fuerte dolores de cabeza, toma algún analgésico que haga desaparecer esa molestia. Acá, el estimulo (dolor de cabeza) que antecede a la conducta, es eliminado tomando un analgésico.

En resumen, el Refuerzo Negativo a través de la respuesta o conducta, elimina el estímulo aversivo que le antecede, por consiguiente se da un incremento a la conducta que causo la eliminación o desaparición de este estímulo.

Hay ocasiones en que los Refuerzos Negativos son una vía interesante para motivar a personas a realizar cosas que le resultan difíciles como:

-Aceptar un billete de dinero no hará que un joven se zambulla en agua fría, se pare sobre un par de patines, monte en motocicleta o se interne en una caverna, pero el ridículo ante sus amigos, lo que ellos pueden decirle a manera de insulto o evocando a la cobardía, puede ser lo suficientemente aversivo para que el sujeto desee eliminarlo y acepte el reto y termine realizando la conducta negada

El Reforzador Negativo, tiene importancia en dos tipos de aprendizaje:

Condicionamiento de Escape

Condicionamiento de Evitación

CONDICIONAMIENTO DE ESCAPE: Es cuando se aplica un castigo, pero este se termina cuando se produce una conducta, es decir, es cuando se aprende a dar una respuesta que elimina o hace desaparecer una situación que resulta desagradable. Ejemplo : -Los niños aprenden con rapidez que al acercar sus manos hacia algún objeto caliente, como la estufa o cocina, las deben alejar rápidamente para evitar quemarse.

CONDICIONAMIENTO DE EVITACIÓN: Es cuando, se eliminan o reducen estímulos que anteriormente han estado seguidos de estímulos aversivos. La diferencia con el condicionamiento de escape, es que aquí el organismo no recibe el estimulo aversivo, en cambio en el condicionamiento de escape el organismo termina o reduce el estímulo aversivo a través de la respuesta, que vera aumentada su frecuencia. Un ejemplo de condicionamiento de evitación seria:

-Un automovilista ya tiene experiencia de que si conduce a una velocidad de 150 k/h en una carretera permitida a 100k/h será detenido por carabineros y se le cursara la multa correspondiente, por lo cual, a través de su conducta evita ese estímulo aversivo.

Otros procedimientos importantes dentro del control de la conducta son: el Castigo y la Extinción de los refuerzos.

CASTIGO: Consiste en presentar un estimulo aversivo o retirar un reforzador inmediatamente después de una conducta, disminuyendo o eliminando la probabilidad de repetición de dicha conducta. Ejemplo :

-Prohibir a un niño a salir a recreo, debido a que no ha terminado sus ejercicios durante la clase por motivos de indisciplina. Aquí se ejemplifica correctamente lo que dice la definición, ya que se aplica un Castigo (estimulo aversivo) inmediatamente después de una conducta.

-La policía detiene a una persona que se dedica a robar en tiendas comerciales, por lo cual, es Castigado a 5 años de cárcel.

Aquí se dan las condiciones para catalogar el ejemplo anterior como Castigo, pero existe la posibilidad que el individuo, según las condiciones del ambiente (sociedad, rehabilitación, necesidades, etc.) vuelva a reincidir en su conducta.

EXTINCIÓN: Proceso mediante el cual una conducta deja de emitirse al descontinuar el reforzamiento que la mantenía. Una conducta o respuesta se acaba por que deja de recibir lo que la hace existir. Ejemplos:

-Un joven de un pequeñísimo poblado al cabo de un mes deja de recibir sus clases de guitarra debido al fallecimiento del único músico del pueblo. Acá el refuerzo que mantenía la conducta la conducta del joven se ha "terminado", por lo cual la conducta dejara de producirse.

-En una clase se comprobó que la mala conducta aumentó cuando los maestros prestaron atención a ella y disminuyó por debajo del nivel usual cuando la pasaron por alto y prestaron su atención a los niños que no se estaban portando mal

A pesar de que el efecto de disminución o desaparición de la conducta es igual en el procedimiento de Castigo como en el de Extinción, se diferencian en que en el primero no se rompe el proceso de contingencia, cosa que si sucede en el otro.

Otros procedimientos importantes desde el punto de vista del control de las conductas son:

La discriminación

La generalización

LA DISCRIMINACIÓN: Proceso en el cual la frecuencia de una respuesta es más alta ante la presencia de un estimulo, que ante su ausencia. Es decir es el proceso en que la presencia de un Estimulo discriminatorio hace posible que una respuesta dada, sea reforzada, pero importante es señalar que para que esto ocurra, debe existir por lo menos un Estimulo delta, que es en cuya presencia no existe refuerzo y funciona para suprimir o inhibir la conducta. Así, si un Estimulo discriminatorio, logra reforzar la conducta, los demás estímulos serán Estímulos delta. Un ejemplo de el Procedimiento de discriminación es :

-En el metro se señalan a través de imágenes los asientos que son de preferencia para minusválidos, embarazadas o tercera edad. Aquí estas imágenes actúan como Estimulo discriminatorio, ya que discriminan una respuesta de ocupar un asiento destinado para otras personas.

LA GENERALIZACIÓN: Proceso en el cual se refuerza una conducta, por medio de la mayor cantidad de estímulos posibles. Ejemplo :

-se ha enseñado a un niño a decir "buenos días" a su padre, para lograr que esa conducta se reproduzca con otros adultos, es decir, se generalice ante la mayor cantidad de estímulos denominados "adultos", basta con reforzar sistemáticamente la respuesta "buenos días", cada vez que se emita ante cualquier adulto.

Ambos procedimientos se complementan entre si, dentro de toda discriminación hay una generalización y viceversa.

FACTORES QUE INFLUYEN EN LA EFECTIVIDAD DEL REFORZAMIENTO

Para el control de una conducta, no basta con haber elegido el reforzador apropiado, sino que además se deberán tomar en consideración importantes factores como: Inmediatez, Cantidad de refuerzo, condiciones, probación y exposición, entre otros, que ayudaran a acrecentar la efectividad del refuerzo.

INMEDIACIÓN DEL REFORZAMIENTO: Según lo dicho por el propio Skinner, un principio fundamental sobre el control de la conducta es que un refuerzo inmediato es más efectivo que el retrasado. Por ejemplo:

-Ante el recibo de un obsequio por parte de una amiga, resultaría mucho más efectivo reforzar esa conducta con un gracias de inmediato, que con retraso, ya que de lo contrario, el organismo tendría el tiempo para producir otra conducta, entre el lapso de la conducta original y el reforzamiento retardado, por lo que el reforzamiento seria en la conducta derivada de otra.

CANTIDAD DE REFORZAMIENTO: La decisión sobre que tanto reforzamiento se debe suministrar depende de varios factores: el tipo de reforzador usado, las condiciones de privación y el esfuerzo necesario para dar la respuesta. Se debe tener en cuenta los conceptos de:

Privación

Saciedad

Privación: Es cuando se retiene el reforzador por un espacio de tiempo o reduce su acceso, a favor de de la efectividad del refuerzo. Por ejemplo:

-Cuando un animal es privado de su alimento por un tiempo, cuando este se le vuelve a mostrar, este refuerzo será más efectivo.

Saciedad: Aquí es cuando el reforzador pierde su valor como tal, ya que la cantidad inapropiada del refuerzo termina por saciar al organismo. La supresión de la conducta, es por causa del reforzador que la mantiene. Ejemplo :

-Si se le recrimina reiteradas veces a un alumno cuando fuma cigarrillos, este terminara por saciarse y acabará cambiando alguna conducta de obediencia que haya tenido. Así una buena opción es proporcionarle tantos cigarrillos para que fume, que luego termine mareado y con náuseas y por no querer saber nada a cerca de los mismos.

CONDICIONES DE SITUACIÓN: Cuando el reforzamiento se suministra de inmediato, los individuos pueden identificar con mayor facilidad las conductas que conducen al reforzamiento y las que no. Otro factor que puede facilitar la discriminación es la especificación clara de las condiciones ambientales, o estímulos, bajo las cuales se suministrará el reforzamiento.

PROGRAMACIÓN: Esto es la regla que sigue el medio ambiente, para determinar cual de las numerosas respuestas, será reforzada.

Existen varios programas reforzadores, los cuales pueden ser ajustados a procedimientos diseñados a moldear, incrementar, reducir o mantener una conducta.

PROBACIÓN: Es utilizado generalmente, cuando este refuerzo no esta familiarizado con el sujeto al cual se le aplica, es decir, si algún cuerpo no se ha enfrentado a una determinada situación, el refuerzo que podría ser aplicado resultaría desconocido.

EXPOSICIÓN: Esto significa que cuando un organismo, no puede recibir directamente un refuerzo, como en el caso de la probación, Entonces, se procede a exponerlo a las condiciones más parecidas que se pueda a aquellas en las cuales se utiliza el reforzamiento. Incluso si es necesario ocupar a otra persona a la cual se le ha aplicado el refuerzo.

PROGRAMAS DE REFORZAMIENTO

Los programas de reforzamiento son "reglas", que determinan cuando seguirá la entrega o presentación contingente de un reforzador a la presentación de una respuesta o conducta. Existen diferentes tipos de programas de reforzamiento, de los cuales, definiremos los más significativos.

PROGRAMA DE REFORZAMIENTO CONTINUO: Se llama a este tipo de programa, cuando el refuerzo es manifestado en cada momento de ser producida una respuesta. Ejemplo:

-Cuando en una clase, un alumno levanta la mano para dar su opinión, el profesor pronuncia su nombre dándole la palabra.

PROGRAMA DE REFORZAMIENTO PARCIAL O INTERMITENTE: Este reforzamiento se da cuando son reforzadas solo algunas de las conductas emitidas por el organismo, no todas. En la vida cotidiana, en el colegio, universidad, etc., se dan estos tipos de programas. Ejemplo:

-Cuando llamamos a una persona por teléfono, y esa persona no se encuentra, la conducta no ha sido reforzada; no queriendo decir con ello que no ocurra la próxima vez.

Según los experimentos realizados por Skinner, los programas de reforzamiento parcial, son bastante estables y mantienen la conducta por periodos más largos que los programas de reforzamiento continuo.

Los programas de reforzamiento parcial o intermitente, pueden programarse teniendo en cuenta el número de respuestas o también el tiempo que transcurre. Por lo tanto hay que tomar en consideración:

-Programa de razón

-Programa de intervalo

PROGRAMA DE RAZÓN: Estos programas consideran el número de respuestas antes de presentar un reforzador, es decir, el reforzador depende de la conducta del organismo en base al número de respuestas de este.

Este programa se subdivide en dos:

Razón fija: Que es cuando el reforzamiento se da cada vez que el sujeto cumple con un determinado numero de repuestas que se ha establecido de antemano.

Ejemplo :

-Si se le dice a un vendedor, que por cada diez helados que venda, uno será para el, la razón fija será 10.

Razón variable: los reforzamientos ocurren después de una cantidad variable de respuestas, no después de un número fijos. Esta cantidad difieren de reforzamiento en reforzamiento. Ejemplo :

-Si al mismo vendedor se le dice ahora, en base a un establecimiento previo de la cantidad variable, que se le dará el reforzamiento (dar el helado) cuando venda el primer helado, el segundo reforzamiento le será dado cuando venda el tercer helado, el tercero cuando venda el cuarto y el cuarto cuando venda ocho. Así el valor de la razón variable se designa por el promedio de estas, (1-3-4-8) cuya suma seria 16 en este caso, siendo el promedio cuatro

PROGRAMA DE INTERVALO: son aquellos que toman la cantidad de tiempo transcurrido antes de proporcionar el reforzador.

Los programas de intervalo se definen en función del tiempo, pero se refuerzan en base a la primera respuesta que se obtiene luego de transcurrido el tiempo previsto; es decir, el reforzamiento, cualquiera que sea el programa seguido (de razón o de intervalo) siempre debe ser consecuencia de una respuesta. Existen dos tipos de programas de intervalo:

Intervalo fijo: que son aquellos en donde se establece un intervalo, donde al término de este, se refuerza la primera respuesta que se emita.

Intervalo variable: es cuando se establece un determinado intervalo variable, por ejemplo 2-4-7; y en donde se refuerza la primera conducta transcurrido el tiempo. Ejemplo :

-Si el intervalo es 2-4-7 se reforzara la primera conducta transcurridos los dos primeros minutos, luego se refuerza la primera conducta pasados cuatro minutos y finalmente se reforzará la primera conducta pasados siete minutos. El promedio de estos será el valor del intervalo variable

Otros programas de reforzamiento:

PROGRAMA DE REFORZAMIENTO MULTIPLE: Consiste de dos o más programas independientes, los cuales se presentan al organismo en forma sucesiva, cada uno de ellos en presencia de un estímulo característico. Los programas múltiples son programas combinados, en los que se agrega un estímulo discriminativo característico.

PROGRAMA CONCURRENTE: Están formados, también, por dos o más programas. A diferencia del múltiple, los programas no son sucesivos, sino simultáneos; es decir, que el sujeto puede emitir dos respuestas distintas que se refuerzan simultáneamente por programas independientes, pero paralelos en el tiempo. Los reforzamientos previstos en cada programa son independientes entre sí. Este tipo de programa se utiliza cuando se desea reforzar más de una respuesta a la vez, como ocurre en los programas de conducta social.

PROGRAMA DE CONJUGADO O PROPORCIONAL: En estos programas, se establece una proporción entre cierta medida de la conducta e cierta medida del reforzamiento. Por lo general, estas medidas están dadas por la frecuencia del reforzamiento, pero también pueden seguir propiedades tales como la magnitud de la respuesta y la magnitud del reforzamiento. En este programa, cuanto más responde el sujeto, más reforzamiento recibe, hay una proporción directa entre conducta y reforzamiento. La relación también puede ser inversa; dependiendo de los propósitos del programa. Es adecuado permitir al sujeto establecer el criterio de reforzamiento a través de la propia emisión de su conducta. Por ejemplo: si un niño realiza dos ejercicios de matemáticas, recibe un caramelo; si realiza cuatro, recibe dos caramelos, etc.

CUESTIONAMIENTOS A LA TEORÍA DE SKINNER

Entre las críticas que se hacen a la teoría de skinner, están aquellas que la acusan de hacer una comparación abusiva, al tratar de explicar los procesos de la vida real en experimentos de laboratorio con animalitos. Uno de sus principales detractores en relación a esto es Chomsky, ante lo cual Skinner responde que estos ataques no eran más que una manifestación del "mentalismo" característico de los estructuralistas, los cuales quieren explicar la conducta humana sin prestar atención a las circunstancias dentro de las cuales tiene lugar dicha conducta.

Otros psicólogos y personas del mundo de las ciencias, dicen que se pueden aceptar los resultados de sus experimentos, sin necesidad de generalizar.

Un aspecto fuertemente criticado a los experimentadores de la conducta es el reducido número de sujetos que utilizan en las experiencias. Para los críticos (generalmente ajenos al que hacer experimental), parece inconcebible, e incluso inexplicable, la tendencia conductista a la utilización del caso único, un lugar de emplear grandes muestras representativas con el fin de poder justificar "quizás" convenientemente el generalizar los resultados, ante lo cual Skinner responde que estas no son generalizaciones indebidas, sino que son resultados de estudios científicos comprobados.

Incluso algunas críticas tratan de dejar en ridículo a nuestro psicólogo en cuestión, como fue la realizada por el sociólogo Andreski: "en contraste a tal pretensión (hacer ciencia) la más grande realización de Skinner, en el dominio de la tecnología de la conducta ha sido la de amaestrar a dos palomas para que lancen una pelota de ping- pong hacia adelante y hacia atrás. Este logro exige, probablemente, mucha perseverancia e imaginación, pero justifica apenas su pretensión de ser tomado en serio como experto de la civilización y la política. El inventor de la célebre caja de Skinner merece sin duda ser reconocido como amaestrador de animales, aunque no sea evidente a simple vista que valla más allá de logros de los amaestradores del circo".

En definitiva, se le critica que tiende a destruir la noción de la naturaleza humana, reduciéndola a un conjunto de mecanismos que no hacen sino asemejarla a una maquina o los animales. Consideran, además, que las actividades propias del ser humano es decir, justamente aquellas que lo diferencian de lo animal (virtud, creatividad, altruismo, imaginación, amor, etc.) son simples relaciones entre estímulos y respuestas, sin valor intrínseco alguno.

DIFERENCIAS Y SIMILITUDES ENTRE LA TEORÍA DE LOS REFUERZOS Y EL CONDICIONAMIENTO CLÁSICO

La principal diferencia se hace sobre las bases de operación. El condicionamiento clásico es una forma de aprendizaje estímulo- estímulo-preparación de respuestas, en cambio que el condicionamiento operante (teoría de los refuerzos) el aprendizaje es un estimulo-respuesta-se fija la respuesta.

Una diferencia relevante es que en el condicionamiento clásico la respuesta condicionada o incondicionada será siempre la misma, a diferencia del operante, en donde las respuestas suelen ser distintas.

También en el condicionamiento clásico se videncia una ley de continuidad, mientras que en el otro se implica además una ley de efecto, es decir, la concreción de una respuesta.

Por otro lado, también encontramos similitudes entre estos dos tipos de condicionamientos. Uno de estas similitudes seria que según los estudios realizados hasta ahora, tanto en el condicionamiento operante como en el clásico una respuesta que se ha extinguido, recupera su fuerza con el descanso.

También en ambos tipos de condicionamiento se presenta una característica de discriminación de los estímulos, tanto si el sujeto es reforzado para que responda a un estímulo, como si se le condiciona para que produzca una respuesta condicionada.

En síntesis el condicionamiento de clásico de Watson da importancia al estimulo y el condicionamiento operante de skinner da importancia a la respuesta que hay que reforzar.

APORTES DE LA TEORÍA DE LOS REFUERZOS A LA EDUCACIÓN

Skinner al poner de manifiesto a través de su condicionamiento operante que la conducta humana es manipulable, logro que su teoría fuera introducida en la educación para el proceso enseñanza-aprendizaje.

Los educadores tienen una marcada influencia de la teoría conductista operante, ya que para ellos el comportamiento de los estudiantes es una respuesta a su ambiente pasado y presente, en la cual todo ese comportamiento es aprendido. Por lo tanto cualquier problema de conducta es el reflejo de los refuerzos que dicho comportamiento ha tenido.

Como la teoría de los refuerzos tiene que ver con el control de las conductas, los maestros deben proveer a los educandos un ambiente adecuado para el refuerzo de las conductas deseadas. Por consiguiente las conductas no deseadas que el alumno tenga en el aula, pueden ser modificadas utilizando los principios básicos del control de estas explicados anteriormente en el presente trabajo. Las posiciones más comunes adoptadas por los profesores en los establecimientos, son las siguientes:

Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como motivación para aprender y cumplir con los requisitos escolares.

Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la profesora traza para todos los estudiantes por igual.

El currículo debe estar organizado por materias de una manera cuidadosamente y en secuencia y detallado.

Algunas técnicas para cambiar las conductas no deseadas del alumno en el establecimiento serian:

Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no deseada hasta reemplazarla por completo.

Debilitar las conductas no deseadas eliminando los refuerzos de estas.

La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no deseada, de manera repetitiva hasta que el individuo se sienta hastiado del comportamiento.

Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al individuo a tomar otra respuesta a dicho estimulo.

Usando castigos para debilitar a conducta no deseada.

Una de los más importantes aportes a la educación es cuando se aplica un aprendizaje programado. En donde la materia a impartir, se separa en partes simples y se empieza por ejemplo; preguntando cosas en que el alumno tiene conocimiento, ante cuya respuesta (conducta) se le refuerza con felicitaciones o puntaje para el examen final. Así de a poco y ante la conducta del alumno por esforzarse y estudiar mejor, se van introduciendo preguntas con un mayor grado de dificultad, reforzando las correctas.

CONCLUSION

La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de carácter motivador para dirigir una conducta. Son fundamentales en el aprendizaje sabiendo utilizarlos, para lograr una respuesta esperada hacia los alumnos. Así, se comprueba que el comportamiento es de carácter manipulable, ya sea por la familia, iglesia, etc.

Como estudiante de pedagogía y futura profesora, es indispensable manejar este tema, como estrategia para el mejor logro de la educación, no solamente hablando de materia, sino también reforzar en los educandos sus valores, metas, intereses; ayudando también a tener una buena relación.

Es un tema cotidiano que influye directamente en nuestra forma de comportarnos, así nos dejan experiencias en nuestras relaciones, para en otra ocasión aprender de ellos. La teoría de los refuerzos es una conducta aprendida, ya que para que exista el aprendizaje según esta teoría, se debe reforzar la conducta ya sea por un estímulo positivo o también un estímulo negativo. Así se logra aumentar la probabilidad que se repita un comportamiento de aprendizaje en su entorno.

Después de haber analizado y leído el tema, puedo llegar a la conclusión que el organismo siempre esta en movimiento o en proceso de operar. Se encuentra con un determinado tipo de estímulo, llamado estimulo reforzador. La teoría de Skinner acerca de los refuerzos, explica que cuando una respuesta otorga satisfacción o placer al ejecutante, esta tiene más posibilidades de ser repetidas, como lo demuestra el ratón encerrado en la caja. Skinner como buen conductista manifiesta su interés grandísimo por el estudio de los procesos de aprendizaje, aunque sus ideas han provocado muchas polémicas, sobre todo cuando atacan sus obras que se refieren a los estímulos y los refuerzos.

A pesar de la validez en las críticas que se le realizan al conductismo operante, como el reduccionismo y simplismo, ha sido innegable el aporte que ha tenido este, a la vida del hombre. Ayudándole en todo tipo áreas. El saber controlar bien una conducta a través de los refuerzos ayudara a las personas a vivir en un mundo más placentero, ya que se podrán por ejemplo eliminar o reducir todas esas conductas aceptadas socialmente como inadecuadas.

Sin embargo, creo que para que lo anterior sea efectivo, tenemos que tener un total conocimiento de esta teoría, de manera que podamos conocer el real alcance que tienen los estímulos reforzadores en el control de la conducta, conociendo su potencial. Como decía Skinner, toda la vida esta plagada de refuerzos, sin embargo el común de la gente, ante el desconocimiento de ellos los pasa por alto, con la imposibilidad de aplicarlos o aplicarlos de la forma más conveniente. Es por eso, que los profesores quienes son uno de los pilares fundamentales en el proceso de enseñanza - aprendizaje que hacen suyo los alumnos, deben tener un conocimiento cabal de la teoría operante, para poder controlar la infinidad de conductas que operan en los alumnos, en post de una sociedad mejor.

BIBLIOGRAFÍA

Psicología: un aporte a la Educación. SALAZAR, Dayanira (compilación).Editor universidad Arturo Prat. 1° Edición. Santiago. Chile. 2003.

Sitio web http://www.loshorcones.org.mx/glosario.html

Sitio web http://www.euskalnet.net/txiribi/terapias.htm

Sitio web http://www.cuc.udg.mx/psicologia/skinner.html

Sitio web http://www.google.cl/search?q=cache:Iv-pZKq_pssJ:www.psicopedagogiaonline.com/articulos/documentos/cond_operante.pdf+descripcion+del+condicionamiento+operante&hl=es&ie=UTF-8

El consultor psicopedagógico en la escuela. DINMEYER, Don – CARLSON, Jon. Editorial Guadalupe. Buenos Aires. Argentina. 1973.